Parametr &num=100 – do czego służy?
Parametr &num=100 został globalnie wycofany z wyszukiwarki Google około 14 września 2025 roku (testy widać już było około 10 września). To mało znaczące dla zwykłego użytkownika rozwiązanie umożliwiało specjalistom i narzędziom SEO sprawdzanie 100 wyników wyszukiwania naraz.
Od teraz jednak każde zapytanie domyślnie zwraca tylko około 10 wyników – czyli tyle, ile średnio mieści się na jednej stronie wyszukiwania (SERP). Można powiedzieć, że teraz wyniki z desktopu są ograniczone przez paginacje.
Ta zmiana dla branży SEO oznacza prawdziwą rewolucję. Przez lata popularne narzędzia SEO umożliwiające śledzenie pozycji, takie jak nasz SEMSTORM czy Ahrefs, wykorzystywały właśnie ten parametr do efektywnego pobierania danych o wynikach wyszukiwania.
Niestety, liczby nie kłamią. Zamiast jednego zapytania o 100 wyników SERP, potrzebnych jest teraz 10 zapytań, a to oznacza 10-krotny wzrost kosztów dla zewnętrznych dostawców oprogramowania śledzącego.
Dodatkowo im częściej i więcej zapytań wysyłanych jest do Google, tym bardziej wyszukiwarka zaczyna się chronić – blokując boty scrapujące dane. W praktyce oznacza to, że czasem uda się pobrać informacje, a czasem taki crawler zostanie powstrzymany i nie zwróci wyników do systemu.
Stanowisko Google w tej sprawie na ten moment zawiera się w krótkim zdaniu:
Jak usunięcie parametru &num=100 wpływa na narzędzia SEO?
Przede wszystkim chcemy uspokoić wszystkich użytkowników SEMSTORM i innych tego typu narzędzi:
Usunięcie parametru &num=100 nie wpływa na wyniki stron – ani na faktyczną widoczność w wyszukiwaniu, ani rankingi. Po prostu boty pobierają aktualnie niepełne dane z Google.
Przez to analizy i monitoringi pokazują mocno okrojone informacje o pozycjach. Zauważysz w nich spore spadki na wykresach, takie jak tutaj, a następnie zatrzymanie aktualizacji do czasu naprawy problemu:
Brakuje pełnych danych o wynikach – zwłaszcza poza TOP 10. Wyniki z pierwszej strony można pobrać jeszcze jednym zapytaniem, tak jak wcześniej (o ile bot nie zostanie zablokowany przez mechanizmy obronne Google).
Ta bezprecendesowa sytuacja postawiła twórców narzędzi SEO przed ogromnym dylematem – aktualnie możliwości rozwiązania powstałego problemu nie zadowolą nikogo w 100%. Jakie są opcje?
- Wzrost cen narzędzi, aby utrzymać dostęp do jak największej liczby danych.
- Ograniczenie pobierania informacji z Google, np. do TOP 50.
- Wprowadzenie limitów na zapytania.
- Przejście na inne źródła danych.
Wpływ na dane w Google Search Console
Wstępne opracowania tego tematu (np. artykuł „The great decoupling num100”) dają do zrozumienia, że wykluczenie parametru miało wpływ również na dane w Search Console.
Domyślnie na urządzeniach stacjonarnych widzimy standardowo 10 organicznych wyników, boty za to widzą ich od razu 100 – co oznacza, że wyświetlenie zarejestrowane w GSC na bardzo dalekiej pozycji pochodzi właśnie od takiego crawlera.
Zauważane zmiany w liczbie wyświetleń podobno są jednak zbyt duże, jak na samą aktywność botów. Niektórzy specjaliści SEO obserwują spadki w liczbie wyświetleń nawet o prawie 50%, co może być związane ze zmianami w sposobie ich liczenia. Zwiększa się też średnia pozycja strony.
Na razie jednak nie ma oficjalnego wytłumaczenia od Google.
Dlaczego Google podjął decyzję o usunięciu parametru?
Dlaczego Google podjął tak drastyczne kroki? Oto trzy potencjalne powody:
- Kontrola dostępu do danych
Usuwając parametr, Google niejako zmusza użytkowników do przejścia na oficjalne aplikacje firmy. Możliwe też, że chce zmonetyzować dostęp do danych dla zewnętrznych dostawców narzędzi SEO.
- Ograniczenie masowego scrapingu
Boty, które zbierają dane masowo, zużywają ogromne zasoby u Google. To ma sens z perspektywy kosztów infrastruktury – serwowanie milionów zapytań o 100 wyników jednocześnie to znaczne obciążenie dla serwerów.
- Przejście w kierunku sztucznej inteligencji
To jest zgodne z przejściem Google w kierunku wyszukiwania opartego na AI i wysiłków antyspamowych. Era AI Overview i generatywnej sztucznej inteligencji w wynikach wyszukiwania wymaga innego podejścia do prezentacji rezultatów.
Podsumowanie
Wyłączeniem parametru &num=100 gigant z Mountain View wprowadził duży chaos. Ten niby mały i nieznaczący dla większości internautów ruch spowodował 10-krotny wzrost kosztów pobierania danych o TOP 100 pozycjach i ograniczenie botów scrapujących dane. Jedno jest pewne – branża SEO nie będzie bezczynnie czekać na kolejny ruch firmy. Prace nad nowymi rozwiązaniami rozpoczęły się natychmiast po namierzeniu problemu. Jednym z takich pomysłów jest dywersyfikacja źródeł danych, co w przyszłości może się jeszcze odbić na Google.
Komentarze