Google usunął parametr &num=100 – skąd nagłe zmiany w danych Search Console?

Spis treści

We wrześniu 2025 roku Google wprowadziło pozornie drobną zmianę techniczną, która jednak wywołała duże zamieszanie w świecie SEO. Usunięcie parametru &num=100 – pozwalającego dotychczas wyświetlać 100 wyników wyszukiwania na jednej stronie – sprawiło, że wiele osób zauważyło dziwne zmiany w raportach Google Search Console. Wykresy pokazują spadki liczby wyświetleń (impresji) i jednoczesny wzrost średniej pozycji. Regularne śledzenie danych z Google Search Console jest ważne, aby upewnić się, że strony są poprawnie indeksowane i mają wysoki wskaźnik jakości. Poniżej wyjaśnię co się stało, dlaczego dane wyglądają inaczej i co to oznacza dla właścicieli firm, marketerów i wszystkich, którzy śledzą widoczność strony w Google.

Co to jest parametr &num=100 i co Google zmienił?

Parametr &num=100 to opcja, która do tej pory pozwalała zobaczyć sto wyników wyszukiwania Google na jednej stronie zamiast domyślnych dziesięciu. Był to trik często wykorzystywany przez narzędzia SEO i zaawansowanych użytkowników. Dodając &num=100 do adresu URL wyników, Google zwracał pełną setkę wyników jednym zapytaniem. Co dokładnie oznacza wspomniana liczba 100? Dzięki temu monitoring pozycji i analizy widoczności mogły odbywać się szybciej – jedno żądanie pokazywało Top100 wyników bez potrzeby klikania przez kolejne strony.

🔄 Co się zmieniło? Google wyłączyło obsługę parametru &num=100. Od około 12–14 września 2025 dodanie tej końcówki do adresu wyszukiwania przestało działać – Google i tak pokazuje ~10 wyników na stronę (czasem dwie strony, po czym blokuje dalsze rezultaty) . W efekcie wszelkie narzędzia SEO, które polegały na &num=100, straciły możliwość pobierania pełnej listy Top100 naraz. Teraz muszą wykonać dziesięć oddzielnych zapytań (po 10 wyników), by zebrać te same dane . To oznacza większe obciążenie serwerów, wyższe koszty i dłuższy czas działania takich narzędzi .

Dlaczego w Search Console spadły wyświetlenia, a średnia pozycja wzrosła?

Wraz z usunięciem &num=100 wiele osób zauważyło nagłe zmiany w statystykach Google Search Console (GSC). Najczęściej raporty pokazują mniejszą liczbę wyświetleń (impresji) – szczególnie na komputerach – oraz poprawę średniej pozycji (czyli średnia pozycja jest „wyższa”, bliższa 1) . Jeśli widzisz takie wykresy w swojej GSC od ok. 10–15 września, nie jesteś sam – to zjawisko globalne.

Skąd te zmiany? Powód jest czysto techniczny: Google zmienił, które wyniki są liczone jako „wyświetlenie” w Twoich raportach:

  • Dotychczas narzędzia SEO (tzw. rank trackery, scrapery) masowo korzystały z &num=100 do sprawdzania pozycji. Gdy takie narzędzie pobierało 100 wyników naraz, Twoja strona na nawet bardzo dalekiej pozycji (np. #70 czy #95) wciąż zaliczała „impresję” w GSC, bo link do niej pojawił się w pobranym kodzie strony . Oczywiście prawdziwy użytkownik rzadko kiedy dociera tak daleko, ale bot/narzędzie „widziało” Twój wynik, więc Google zapisywał to jako wyświetlenie strony w wynikach.
  • Teraz – po wyłączeniu &num=100 – takie sztuczne wyświetlenia już nie wpadają do statystyk. Google przestał rejestrować odsłony wyników z dalszych stron, bo narzędzia nie mogą ich tak łatwo zobaczyć . Żeby wynik z pozycji 70. czy 90. policzył się jako impresja, ktoś musiałby faktycznie przejść do 7. czy 9. strony wyszukiwarki (co zdarza się niezwykle rzadko).

Efekt tych zmian na dane w Search Console jest następujący:

  • Liczba wyświetleń (impresji) spada: Google odfiltrował sztuczne odsłony z bardzo dalekich pozycji. Wiele witryn zauważyło przez to znaczący spadek łącznej liczby wyświetleń raportowanych w GSC (według jednej z analiz dotyczy to nawet ~90% stron) .
  • Średnia pozycja „poprawia się”: Skoro zniknęły wyświetlenia z pozycji np. 50+ czy 80+, to średnia pozycja automatycznie przesuwa się bliżej czołowej dziesiątki. Innymi słowy, raport nie uwzględnia już wielu niskich pozycji, więc średnia wygląda lepiej (mniejsza liczba = wyższa pozycja) . Jest to jednak sztuczne zawyżenie średniej – strona nie awansowała nagle w rankingu, tylko dane z ogona wyników przestały ją „zaniżać” .
  • Mniej unikalnych fraz w raporcie: GSC może teraz pokazywać mniej słów kluczowych, na które Twoja strona się wyświetla. Skoro odcięto dalsze pozycje, niektóre rzadziej wyszukiwane zapytania (gdzie byłeś np. 70.) mogą w ogóle zniknąć z raportu. Szacunki mówią o spadku liczby unikalnych fraz nawet o 77–80% na wielu witrynach .
  • Kliknięcia bez zmian: Co ważne, liczba kliknięć (wejść na stronę) z wyników Google pozostała zazwyczaj na tym samym poziomie . To logiczne – realni użytkownicy klikają głównie wyniki z pierwszej strony, więc skoro Twoje pozycje realnie się nie pogorszyły ani nie poprawiły, ruch organiczny się nie zmienił. Dlatego widzimy dziwną kombinację: mniej impresji, podobna liczba kliknięć, a zatem wyższy CTR (współczynnik klikalności) i lepsza średnia pozycja czysto statystycznie.

Eksperci SEO potwierdzają te obserwacje. Jako jeden z pierwszych zwrócił na to uwagę Brodie Clark – zauważył „znaczny spadek impresji na desktopie, skutkujący gwałtownym wzrostem średniej pozycji” w danych Search Console na przestrzeni kilku dni . Innymi słowy, wielu specjalistów na całym świecie w tym samym czasie dostrzegło identyczny wzór i zaczęło szukać przyczyny. Szybko powiązano te zmiany z wyłączeniem parametru &num=100.

Czy Twoja strona straciła widoczność? Spokojnie – to tylko zmiana w raportowaniu

Wiele osób, zwłaszcza managerów i właścicieli firm, zaniepokoił widok drastycznie malejących wykresów wyświetleń w Search Console. Padały pytania w stylu: “Czy nasza strona wypadła z Google? Dlaczego mamy o połowę mniej wyświetleń?!”. Dobra wiadomość jest taka, że prawdopodobnie nic złego się nie stało z Twoim SEO. To zmiana w sposobie liczenia danych, a nie realny spadek ruchu czy pozycji.

Jeżeli liczba kliknięć i ruch z organicznych wyników pozostały na zbliżonym poziomie, oznacza to, że Twoja faktyczna widoczność dla użytkowników się nie pogorszyła . Spadły głównie „wydmuszki” – wyświetlenia generowane wcześniej przez boty i narzędzia, które zawyżały statystyki impresji. Teraz te dane są “czystsze” i bliższe rzeczywistości użytkownika .

Wnioski dla Ciebie:

  • Nie panikuj, widząc spadek wyświetleń. Sam Google potwierdza, że mniejsza liczba wyświetleń w GSC nie oznacza automatycznie spadku widoczności strony czy problemów z SEO . To przede wszystkim zmiana w danych. Najważniejsze metryki, na których powinieneś się skupić, to kliknięcia, konwersje i ruch na stronie – czyli realny efekt biznesowy . Jeśli te pozostają stabilne, wszystko jest w porządku.
  • Tłumacz zmiany zainteresowanym osobom. Jeśli Twój szef lub klient pyta, czemu „pozycje skoczyły” albo „wyświetlenia spadły”, wyjaśnij, że to efekt porządkowania danych przez Google. Średnia pozycja podniosła się sztucznie, bo raport nie pokazuje już wielu bardzo niskich pozycji, które i tak nie przekładały się na ruch . To tak, jakby odciąć „ogon” słabych wyników – średnia wyników automatycznie wygląda lepiej, choć Twoje topowe pozycje są takie jak były.
  • Uważaj przy porównaniach i raportach. Porównując okres przedpo połowie września 2025, miej świadomość, że dane nie są do końca porównywalne. Nagły spadek impresji i wzrost pozycji od września to „anomalia” spowodowana zmianą metody pomiaru . Na wykresach rocznych zobaczysz ten moment jako punkt zwrotny. Najlepiej zaznaczyć sobie w raportach, że od 12–15.09.2025 dane o wyświetleniach/pozycjach zmieniły definicję. Dzięki temu unikniesz błędnych wniosków (np. że we wrześniu strona straciła 30% widoczności – bo to nie faktyczna utrata, tylko usunięcie botów ze statystyk).
  • Monitoruj realny ruch i konwersje. Zmiana ta przypomina, że “wyświetlenia” to metryka czysto poglądowa. Teraz, kiedy jest ich mniej, możesz raczej skupić się na tym, ile osób faktycznie wchodzi na stronę z Google i co na niej robią. To te liczby powinny rozliczać SEO, a nie same impresje czy średnia pozycja.

Wpływ na narzędzia SEO i rank tracking – co jeszcze warto wiedzieć?

Dla specjalistów SEO jasne stało się, że ta zmiana to spory cios w narzędzia do monitoringu pozycji. Jeśli korzystasz z takich narzędzi lub Twoja firma opiera się na raportach z rank trackerów, warto wiedzieć, co się zmieniło:

  • Rank trackery muszą się dostosować: Ponieważ już nie da się pobrać Top100 na raz, narzędzia monitorujące pozycje muszą wykonywać 10× więcej zapytań do Google dla każdego słowa kluczowego . To ogromna różnica – więcej zapytań oznacza większe ryzyko blokad (CAPTCHA), wyższe koszty serwerów i API oraz wolniejsze działania. W praktyce przez pierwsze dni po zmianie niektóre narzędzia miały braki w danych – np. polskie aplikacje jak Senuto czy Webpozycja początkowo pokazywały jedynie frazy z Top10, a pozycje 11–100 oznaczały myślnikiem (jakby ich nie było) . Dostawcy tych usług gorączkowo pracowali nad obejściami.
  • Ograniczenie zakresu monitorowania: Żeby poradzić sobie z tym wzrostem kosztów, niektóre narzędzia ograniczyły zakres automatycznego monitoringu. Pojawiły się zapowiedzi, że zamiast pełnego Top100 będą domyślnie śledzić np. Top20 wyników – bo to one są najważniejsze z perspektywy ruchu . Dzięki temu zmniejszą liczbę zapytań do Google o 80%. Dla użytkowników może to oznaczać, że w raportach SEO narzędzi zobaczą mniej fraz i pozycji, chyba że dopłacą za rozszerzony monitoring.
  • Wpływ na modele AI: Ciekawostka – ta zmiana utrudnia życie nie tylko SEOwców, ale i… modelom AI. Wcześniej istniały usługi (np. SerpAPI), z których korzystały chatboty pokroju ChatGPT, by szybko przeszukać internet. One również używały &num=100 do pobierania dużej porcji wyników. Po wyłączeniu parametru, AI ma trudniej – musi wykonywać więcej zapytań, by przejrzeć tyle samo stron . To spowalnia i ogranicza dostęp AI do pełnej informacji z Google. Ten aspekt nie dotyczy co prawda bezpośrednio Twoich raportów, ale pokazuje szerszy kontekst: Google chce mieć większą kontrolę nad tym, kto i jak masowo pobiera jego wyniki.

Dlaczego Google to zrobił? Kilka słów wyjaśnienia

Google nie ogłosiło oficjalnie powodu wyłączenia &num=100 (przynajmniej do momentu przygotowania tego artykułu) . Sporo jednak wskazuje na to, że stoi za tym szersza strategia. Oto możliwe przyczyny, o których mówi się w branży:

  • Ograniczenie masowego scrapingu: Dane z wyników wyszukiwania to niezwykle cenna rzecz – dla SEO, ale też dla firm trzecich czy do treningu AI. Poprzez utrudnienie pobierania 100 wyników jednym zapytaniem, Google hamuje automatyczne zbieranie danych na dużą skalę . Mówiąc wprost, trudniej jest “wyciągnąć” od Google hurtowe informacje, więc konkurencyjne systemy (np. różne narzędzia SEO, firmy tworzące AI) mają pod górkę. Google od lat zmierza w tym kierunku – już wcześniej wprowadził ciągłe przewijanie zamiast prostego paginowania czy usunął opcję wyboru liczby wyników w ustawieniach użytkownika . Teraz poszedł o krok dalej.
  • „Porządki” w danych i doświadczeniu użytkownika: Oficjalnie Google może argumentować (choć jeszcze tego nie ogłosił), że chodzi o uprośczenie prezentacji wyników i poprawę jakości danych . Usunięcie &num=100 sprawia, że raporty Search Console są mniej zniekształcone przez boty, czyli pokazują bardziej realny obraz tego, co widzą użytkownicy. To dla Google także wygodne – mniej „śmieciowych” impresji w ich systemie.
  • Przygotowanie pod nowe funkcje AI w wyszukiwarce: Google intensywnie rozwija własne funkcje oparte o sztuczną inteligencję (AI) – jak SGE (Search Generative Experience) czy AI Overviews w wynikach . Te funkcje w przyszłości mogą udostępniać informacje użytkownikom w inny sposób niż tradycyjne 100 linków na liście. Ograniczenie zewnętrznego dostępu do pełnych wyników może więc być elementem strategii: Google chce, by to jego AI “podawała” odpowiedzi, a nie żeby firmy trzecie łatwo analizowały wszystkie wyniki. Chroniąc swoje dane, Google wzmacnia swoją pozycję – trudniej komuś zbudować konkurencyjną wyszukiwarkę czy model AI karmiony danymi prosto z Google .

Podsumowanie: raporty się zmieniły, ale zasady SEO zostają te same

Usunięcie parametru &num=100 to ważna zmiana, która wpływa na sposób, w jaki interpretujemy dane SEO. Podsumowując kluczowe fakty:

  • 📉 Spadek impresji (wyświetleń) i skok średniej pozycji w GSC od połowy września 2025 nie oznacza katastrofy – to efekt “oczyszczenia” danych z botów. Twoja strona nie straciła nagle widoczności, a wyższa średnia pozycja to statystyczna iluzja wynikająca z obcięcia dalekich pozycji .
  • Skup się na realnych wynikach: jeśli ruch organiczny, liczba kliknięć i konwersje są na stabilnym poziomie, nie ma powodu do obaw . Biznesowo nic się nie zmieniło – Twoi żywi odbiorcy nadal Cię znajdują tak jak wcześniej.
  • 📊 Dostosuj raportowanie i komunikację: uwzględnij w swoich raportach adnotację o tej zmianie, by prawidłowo tłumaczyć dane. Gdy rozmawiasz z przełożonym lub klientem, wyjaśnij prostymi słowami, że Google zmienił sposób zbierania danych, co wpływa na metryki, ale nie na pozycje same w sobie.
  • 🔧 Branża SEO już działa: Dostawcy narzędzi SEO pracują nad rozwiązaniami, by mimo wszystko móc dostarczać dane spoza Top10. To może trochę potrwać i prawdopodobnie podniesie koszty takich usług. Elastyczność będzie kluczowa – być może trzeba będzie łączyć dane z różnych źródeł lub skupić się na analizie mniejszej liczby kluczowych fraz . W każdym razie, monitorowanie wyników Google będzie wyglądało nieco inaczej niż dotąd.

Na ten moment Google nie opublikowało oficjalnego komunikatu w tej sprawie – odniosło się jedynie w formie krótkiego zdania przytoczonego przez Search Engine Land:

The use of this URL parameter is not something that we formally support.

Cała sytuacja pokazała jednak wyraźnie, że musimy być gotowi na kolejne zmiany. Wyszukiwarka ciągle ewoluuje – zarówno w sposobie prezentacji informacji użytkownikom, jak i udostępniania danych nam, marketerom. Algorytm Google priorytetowo traktuje strony dostarczające najlepszych odpowiedzi na zapytania użytkowników. Dlatego warto śledzić na bieżąco blogi branżowe i komunikaty Google, aby rozumieć kontekst takich zmian.

Mam nadzieję, że teraz już wiesz, dlaczego wykresy w Search Console tak dziwnie drgnęły i że możesz spokojnie wytłumaczyć wszystkim zainteresowanym, co się wydarzyło. 📈✋ To nie „sztuczny cud” poprawy pozycji ani karne obniżenie widoczności – to po prostu Google sprząta dane i utrudnia życie botom. A dla Ciebie to sygnał, by jeszcze bardziej skoncentrować się na realnych efektach SEO. Powodzenia! 👏

Źródła: W przygotowaniu artykułu wykorzystałem publiczne wypowiedzi ekspertów i analizy branżowe, m.in.:

  • wpisy na blogach SEO (np. Search Engine Roundtable Barry’ego Schwartza , analizy polskich agencji , JumpFly ),
  • oficjalne wypowiedzi specjalistów ds. danych (np. dyskusje Brodiego Clarka ),
  • oraz obserwacje z narzędzi (raporty Delante, Webmetric i in.).

 

Zmień zgody