Chcesz scrapować Google SERPs i za każdym razem trafiasz na CAPTCHA albo bana IP po kilkudziesięciu zapytaniach? To frustrujące, szczególnie gdy budujesz narzędzie do monitorowania pozycji, zbierasz dane dla klientów albo analizujesz konkurencję na Allegro i rynkach europejskich. Google blokuje boty agresywnie i bez ostrzeżenia. Ale da się to obejść, jeśli wiesz, jak wygląda ruch mobilny od strony sieci i jak go naśladować. W tym poradniku dowiesz się:
- Dlaczego Google blokuje właśnie Twoje zapytania (i co zdradza Twój skrypt)
- Jak działa rotacja IP na prawdziwych modemach 4G i dlaczego to ma znaczenie
- Jakie ustawienia nagłówków i User-Agentów realnie pomagają
- Jak skonfigurować proxy mobilne krok po kroku, żeby scraper działał bez przerw

Dlaczego Google blokuje scrapery tak skutecznie
Google przetwarza ponad 8 miliardów zapytań dziennie. Część z nich pochodzi od botów, scraperów i narzędzi SEO. Żeby chronić infrastrukturę i dane, Google wdrożył kilka warstw ochrony, które działają jednocześnie. Nie chodzi tylko o liczbę zapytań na minutę.
Pierwszy sygnał ostrzegawczy to adres IP. Jeśli Twój scraper wysyła 200 zapytań z jednego serwerowego IP w ciągu 10 minut, Google widzi to jako anomalię. Adresy IP z centrów danych (AWS, OVH, Hetzner) są od razu traktowane podejrzliwie, bo prawdziwy użytkownik Google nie siedzi na serwerze VPS.
Drugi sygnał to zachowanie. Prawdziwy człowiek klika wyniki, scrolluje, czasem wraca do SERPów. Bot zazwyczaj pobiera samą stronę wyników i przechodzi dalej. Google analizuje te wzorce przez TLS fingerprinting, sprawdzanie kolejności nagłówków HTTP, czas odpowiedzi i wiele innych czynników, których nie widać na pierwszy rzut oka.
Key takeaway: Blokada Google to nie jeden próg zapytań. To wielowarstwowy system wykrywania, który ocenia Twój ruch jak analityk bezpieczeństwa, nie jak licznik.
- Adresy z centrów danych są flagowane automatycznie
- Brak plików cookie i historii sesji wzbudza podejrzenia
- Zbyt równe odstępy między zapytaniami zdradzają automatyzację
- Brak JavaScript rendering może ujawnić scraper oparty na żądaniach HTTP
Jak Google wykrywa boty i automatyczne zapytania
Żeby skutecznie scrapować Google SERPs, musisz rozumieć, co dokładnie analizuje system ochrony. W 2026 roku Google korzysta z kombinacji sygnałów sieciowych i behawioralnych.
Sygnały sieciowe
Google sprawdza ASN (Autonomous System Number) każdego adresu IP. Adresy z ASN należących do dostawców chmury są na czerwonej liście. Adresy mobilne, przydzielane przez operatorów telekomunikacyjnych jak Orange, Play czy T-Mobile, mają zupełnie inną reputację. Trafiają do CGNAT (Carrier-Grade NAT), gdzie jeden adres IP jest współdzielony przez dziesiątki prawdziwych użytkowników. Google nie może zablokować takiego IP bez ryzyka odcięcia setek normalnych osób.
TLS Fingerprinting i nagłówki
Każda biblioteka HTTP ma swój odcisk palca TLS. Biblioteka Python requests wygląda inaczej niż Chrome 124 na Androidzie. Google i Cloudflare to widzą. Możesz sprawdzić, jak wygląda Twój odcisk palca, korzystając z narzędzia do analizy nagłówków HTTP.
Sygnały behawioralne
- Czas między zapytaniami, szczególnie gdy jest zbyt regularny
- Brak sesji przeglądarkowej i ciasteczek Google
- Zapytania bez referrera ani historii nawigacji
- Pobieranie wyłącznie stron wyników, bez klikania w linki organiczne
Połączenie tych sygnałów pozwala Google klasyfikować ruch z dokładnością, której trudno uniknąć bez odpowiedniej infrastruktury.
Proxy mobilne 4G jako rozwiązanie do scrapowania Google
Proxy mobilne 4G to najskuteczniejsza metoda, żeby scrapować Google SERPs bez blokad. Dlaczego? Bo Twoje zapytania wychodzą z prawdziwego modemu LTE podłączonego do sieci operatora w Polsce. Nie z serwera, nie z VPN na centrum danych, ale z urządzenia, które dla Google wygląda dokładnie jak telefon Kowalskiego sprawdzającego coś na kanapie.
Proxy Poland działa na fizycznych modemach 4G/5G z prawdziwymi kartami SIM polskich operatorów. Ruch przechodzi przez CGNAT, więc Twój IP wygląda jak adres przypisany do dziesiątek normalnych użytkowników. Nasz system obsługuje ponad 50 000 rotacji IP dziennie na całej farmie modemów.
Dlaczego nie wystarczy zwykłe proxy datacenter
Proxy z centrum danych kosztuje grosze, ale Google blokuje je po kilku zapytaniach. Rezydenijalne proxy (residential) są lepsze, ale często pochodzą z zainfekowanych urządzeń i mają niestabilną jakość. Proxy mobilne 4G to jedyna kategoria, która daje:
- Adresy IP z ASN operatorów telefonicznych (nie centrów danych)
- Naturalny CGNAT, który utrudnia blokowanie na poziomie IP
- Rotację IP w 2 sekundy przez wywołanie API lub panel sterowania
- Obsługę HTTP, SOCKS5 i OpenVPN
- Nielimitowane pasmo bez opłat za gigabajty
Plany zaczynają się od $11 za 1 dzień. Jeśli chcesz sprawdzić, jak działa nasza infrastruktura przed zakupem, możesz uruchomić bezpłatny godzinny trial bez podawania karty kredytowej. Sprawdź szczegóły na stronie cennika Proxy Poland.

Konfiguracja nagłówków HTTP i User-Agentów
Sama zmiana IP to za mało. Twój scraper musi wyglądać jak prawdziwa przeglądarka. Oznacza to odpowiednie nagłówki HTTP w każdym zapytaniu. Możesz zweryfikować, jak wygląda Twój ruch, używając narzędzia do analizy nagłówków HTTP.
Minimalny zestaw nagłówków dla Google SERP
Każde zapytanie do google.com/search powinno zawierać nagłówki zbliżone do tych, które wysyła Chrome na Androidzie:
User-Agent: aktualny string Chrome na Android lub Windows, zmieniany co kilka sesjiAccept-Language:pl-PL,pl;q=0.9,en-US;q=0.8,en;q=0.7Accept-Encoding:gzip, deflate, brAccept:text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8Referer: ustaw nahttps://www.google.com/przy przechodzeniu między stronami wynikówsec-ch-uai inne Client Hints pasujące do wybranego User-Agenta
Rotacja User-Agentów
Nie używaj jednego User-Agenta dla wszystkich zapytań. Utrzymuj listę 20-30 aktualnych stringów przeglądarek mobilnych i desktopowych. Aktualizuj ją co miesiąc, bo Google analizuje, czy wersje przeglądarek mają sens w kontekście daty zapytania. W 2026 roku Chrome jest w okolicach wersji 130+, więc User-Agenty z Chrome 90 są od razu podejrzane.
Key takeaway: Nagłówki HTTP to Twoja twarz w oczach Google. Zły nagłówek zdradza bota szybciej niż duża liczba zapytań.
Rotacja IP, opóźnienia i limity zapytań
Masz proxy mobilne 4G i poprawne nagłówki. Teraz musisz zadbać o rytm zapytań. To jest element, który większość scraperów pomija i który powoduje blokady nawet przy dobrej infrastrukturze.
Jak często rotować IP
Przy scrapowaniu Google SERPs dobra praktyka to zmiana IP co 10-25 zapytań, ale nie w stałym cyklu. Rotacja co dokładnie 15 zapytań jest przewidywalna. Zamiast tego użyj losowej liczby z przedziału, np. co 10 do 30 zapytań. Proxy Poland pozwala zmienić IP w 2 sekundy przez API, więc rotacja nie spowalnia znacząco pracy scrapera.
Opóźnienia między zapytaniami
Ludzie nie czytają wyników Google z prędkością 1 strona na sekundę. Twój scraper też nie powinien. Stosuj losowe opóźnienia:
- Między zwykłymi zapytaniami: 3-8 sekund (losowo)
- Po kilkudziesięciu zapytaniach: dłuższa przerwa 30-90 sekund
- W nocy polskiego czasu: ogranicz ruch do minimum lub zatrzymaj całkowicie
Podział na sesje
Zamiast jednego scrapera wysyłającego tysiące zapytań, podziel pracę na sesje po 50-100 zapytań z przerwami między nimi. Każda sesja powinna mieć osobny IP i zestaw ciasteczek. Symuluj, że to inny użytkownik, który zaczyna od nowa. W połączeniu z rotacją IP na modemach 4G ten wzorzec jest nieodróżnialny od prawdziwego ruchu użytkowników.
Możesz też przetestować wydajność swojego setupu korzystając z narzędzia do testowania szybkości proxy, żeby mieć pewność, że latencja nie wprowadza nieoczekiwanych wzorców w Twoich zapytaniach.
Narzędzia i biblioteki do scrapowania SERP
Wybór narzędzi ma znaczenie. Nie każda biblioteka nadaje się do scrapowania Google w 2026 roku.
Python: httpx i curl_cffi
Klasyczna biblioteka requests ma rozpoznawalny odcisk palca TLS. Lepszym wyborem jest httpx z odpowiednią konfiguracją lub curl_cffi, która potrafi naśladować TLS fingerprint Chrome lub Safari. To robi realną różnicę przy wykrywaniu przez Cloudflare i systemy Google.
Playwright i Selenium
Jeśli potrzebujesz pełnego renderowania JavaScript, Playwright z trybem headless i stealth plugin jest lepszym wyborem niż Selenium. Playwright Stealth modyfikuje właściwości przeglądarki, które normalnie zdradzają automatyzację (np. navigator.webdriver). Ale pamiętaj: przeglądarkowy scraper jest wolniejszy i zużywa więcej zasobów.
Gotowe API do SERP
Jeśli nie chcesz zarządzać infrastrukturą, możesz użyć gotowych serwisów jak SerpAPI, Oxylabs SERP Scraper czy DataForSEO. Płacisz za zapytanie i nie martwisz się o blokady. Ale koszty rosną szybko przy dużej skali. Własny scraper na proxy mobilnych 4G jest tańszy od 10 000 zapytań miesięcznie wzwyż.
- curl_cffi: najlepsza do HTTP bez JavaScript, odcisk palca Chrome
- Playwright Stealth: gdy potrzebujesz JS rendering
- httpx: szybka, asynchroniczna, dobra do równoległych zapytań
- SerpAPI: wygodne, ale drogie przy dużej skali
Key takeaway: Wybór biblioteki wpływa na TLS fingerprint. Użyj curl_cffi zamiast requests, żeby wyglądać jak przeglądarka, nie jak skrypt.

Podsumowanie i kolejny krok
Skuteczne scrapowanie Google SERPs w 2026 roku wymaga trzech rzeczy jednocześnie: właściwego źródła IP (mobilne 4G, nie serwery), poprawnych nagłówków HTTP naśladujących prawdziwą przeglądarkę oraz inteligentnych wzorców zapytań z losowymi opóźnieniami i rotacją sesji. Żaden z tych elementów sam w sobie nie wystarczy. Razem tworzą ruch, który Google nie odróżni od zwykłego użytkownika na telefonie.
Proxy Poland dostarcza gotową infrastrukturę do tego zadania: fizyczne modemy 4G/5G w Polsce, rotacja IP w 2 sekundy przez API, nielimitowane pasmo i plany od $11 za dzień do $250 za pół roku. Nie musisz wierzyć na słowo, możesz przetestować bez ryzyka przez godzinę za darmo. Jeśli zależy Ci na stabilnym scraperze, który nie będzie się zatrzymywał co kilkanaście minut, zrób ten krok teraz. Sprawdź plany i uruchom bezpłatny trial na stronie cennika.
