Screaming Frog – co to jest i jak go używać?

Norbert Majewski 18 min czytania 4 125 słów

Co to jest Screaming Frog SEO Spider?

Ponad 60% stron internetowych ma problemy techniczne, które obniżają ich widoczność w Google – od uszkodzonych linków, przez brakujące meta tagi, po błędy w strukturze nagłówków. Ręczne sprawdzenie każdej podstrony to zadanie niewykonalne już przy kilkudziesięciu URLach. Właśnie dlatego Screaming Frog SEO Spider stał się jednym z najczęściej używanych narzędzi w codziennej pracy specjalistów SEO na całym świecie.

Screaming Frog to desktopowy crawler – program instalowany na komputerze (Windows, macOS, Linux), który działa podobnie jak robot Google. Przeszukuje witrynę, analizując każdy URL, i zbiera szczegółowe dane techniczne: kody odpowiedzi HTTP, tytuły stron, opisy meta, nagłówki H1-H6, obrazy, linki wewnętrzne i zewnętrzne, dane strukturalne, pliki JavaScript i CSS oraz dziesiątki innych parametrów. Wyniki prezentuje w przejrzystej tabeli, którą można filtrować, sortować i eksportować do Excela lub CSV.

W praktyce screaming frog seo spider zastępuje godziny ręcznej pracy. Zamiast otwierać każdą podstronę w przeglądarce i sprawdzać kod źródłowy, uruchamiasz skanowanie i po kilku minutach masz pełny obraz kondycji technicznej witryny. Narzędzie powstało w 2010 roku w Brighton (Wielka Brytania) i od tego czasu jest regularnie aktualizowane – w 2025 roku wyszła wersja 21.0, wprowadzająca m.in. ulepszoną obsługę JavaScriptu i nowe raporty dotyczące Core Web Vitals.

Crawler działa na zasadzie „spideringu" – zaczyna od podanego adresu URL, pobiera kod HTML strony, wyodrębnia wszystkie linki i przechodzi do kolejnych podstron, powtarzając ten proces aż do przeskanowania całej witryny (lub do osiągnięcia ustalonego limitu). To identyczny mechanizm, jakiego używa Googlebot, dzięki czemu wyniki skanowania wiernie odzwierciedlają to, co widzi wyszukiwarka.

Dla agencji SEO takich jak Noril.pl to narzędzie fundamentalne – używamy go przy każdym audycie SEO, monitoringu zmian technicznych i weryfikacji wdrożeń. Bez Screaming Froga trudno wyobrazić sobie profesjonalną pracę nad optymalizacją witryny.

Kluczowe funkcje w skrócie

  • Crawling pełnej witryny – skanowanie wszystkich podstron dostępnych z poziomu nawigacji i linków wewnętrznych
  • Analiza on-page – tytuły, meta description, nagłówki, canonical, hreflang, dane strukturalne
  • Wykrywanie błędów – kody 404, przekierowania 301/302, łańcuchy przekierowań, duplikaty treści
  • Renderowanie JavaScript – symulacja przeglądarki Chrome do analizy stron opartych na frameworkach JS (React, Angular, Vue)
  • Wizualizacje – diagramy struktury witryny, mapy crawlingu, wykresy głębokości kliknięć
  • Eksport danych – pełne raporty w formatach CSV, Excel, Google Sheets
  • Planowanie skanowań – automatyczne crawlowanie w ustalonych terminach (wersja płatna)

Darmowa vs płatna wersja – co wybrać?

Screaming Frog oferuje dwa warianty: darmowy (bez licencji) i płatny (z roczną licencją). To jeden z nielicznych profesjonalnych crawlerów SEO, który w ogóle udostępnia wersję bezpłatną z realną funkcjonalnością – nie jest to demo ani trial, lecz pełnoprawne narzędzie z konkretnym ograniczeniem.

Wersja darmowa – dla kogo?

Wersja bezpłatna pozwala skanować do 500 URLi na sesję. To wystarczająca liczba dla małych stron firmowych, wizytówek, landing page'ów czy blogów z kilkudziesięcioma artykułami. Dostajesz dostęp do podstawowych funkcji crawlingu: analiza tytułów, meta description, nagłówków H1-H6, obrazów (alt text, rozmiar), kodów odpowiedzi HTTP i linków wewnętrznych.

Ograniczenia darmowej wersji dotyczą przede wszystkim:

  • Limit 500 URLi – po osiągnięciu tego progu skanowanie się zatrzymuje, nie widzisz reszty witryny
  • Brak integracji z API – nie podłączysz Google Analytics, Search Console, PageSpeed Insights ani Ahrefs/Majestic
  • Brak renderowania JS – strony oparte na React, Angular czy Vue nie zostaną poprawnie przeanalizowane
  • Brak planowania skanowań – nie ustawisz automatycznego crawlingu co tydzień
  • Brak custom extraction – nie wyciągniesz dowolnych danych z HTML za pomocą XPath, CSS selector czy Regex
  • Brak porównywania crawli – nie zestawisz wyników dwóch skanowań, by zobaczyć co się zmieniło

Jeśli prowadzisz niewielką stronę firmową lub dopiero zaczynasz przygodę z SEO, darmowa wersja w zupełności wystarczy do podstawowej diagnostyki. Wiele osób rozpoczynających pozycjonowanie strony korzysta właśnie z niej, by zrozumieć kondycję techniczną swojego serwisu.

Wersja płatna – co zyskujesz?

Licencja kosztuje 259 USD rocznie (stan na 2026 rok) na jedno stanowisko. W porównaniu z subskrypcjami innych narzędzi SEO (Ahrefs – od 129 USD/mies., Semrush – od 139 USD/mies.) to koszt stosunkowo niski, biorąc pod uwagę zakres funkcji.

Płatna licencja znosi limit URLi – możesz skanować witryny o dowolnym rozmiarze, od kilkuset do kilku milionów podstron. Oprócz tego odblokowuje:

  • Renderowanie JavaScript – kluczowe dla nowoczesnych stron SPA i witryn e-commerce korzystających z dynamicznego ładowania treści
  • Integracje API – Google Analytics 4, Google Search Console, PageSpeed Insights, Ahrefs, Majestic, Moz
  • Custom extraction – pobieranie dowolnych elementów z HTML (ceny produktów, autorzy, daty publikacji, opinie)
  • Crawl scheduling – automatyczne skanowania według harmonogramu z powiadomieniami o zmianach
  • Porównywanie crawli – analiza różnic między skanowaniami (nowe strony, usunięte URLe, zmienione meta tagi)
  • Zaawansowane raporty – near-duplicate content, analiza paginacji, walidacja danych strukturalnych
  • Crawl w trybie headless Chrome – pełna symulacja przeglądarki, niezbędna przy analizie stron z lazy loadingiem

Nasza rekomendacja

Jeśli zarządzasz sklepem internetowym, portalem z setkami podstron lub prowadzisz działania SEO profesjonalnie – płatna licencja zwraca się po pierwszym poważnym audycie. W Noril.pl używamy wersji płatnej przy każdym projekcie, ponieważ integracja z Google Search Console i możliwość crawlowania dużych witryn jest po prostu niezbędna przy pozycjonowaniu sklepów internetowych czy rozbudowanych serwisów.

Dla freelancerów i osób rozpoczynających działania SEO warto zacząć od darmowej wersji, przetestować możliwości narzędzia i zdecydować o zakupie licencji, gdy limit 500 URLi zacznie stanowić realną barierę.

Jak skonfigurować pierwsze skanowanie?

Uruchomienie pierwszego crawlu w Screaming Frog jest proste, ale kilka ustawień warto dostosować przed startem, by uzyskać wartościowe dane i nie obciążyć niepotrzebnie serwera analizowanej witryny. Poniżej znajdziesz krok po kroku konfigurację, którą stosujemy przy audytach dla naszych klientów.

Krok 1: Instalacja i uruchomienie

Pobierz program ze strony screamingfrog.co.uk i zainstaluj go. Po uruchomieniu zobaczysz główny interfejs z polem do wpisania adresu URL na górze okna. Zanim jednak wpiszesz adres, przejdź do konfiguracji.

Krok 2: Ustawienia crawlingu (Configuration → Spider)

W menu Configuration → Spider znajdziesz kluczowe ustawienia:

  • Zakładka „Crawl" – zdecyduj, co ma być skanowane. Zazwyczaj zostawiamy zaznaczone: Internal Links, External Links, Images, CSS, JavaScript. Odznacz „Check Links Outside Start Folder", jeśli chcesz analizować tylko konkretną sekcję witryny (np. /blog/)
  • Zakładka „Extraction" – włącz ekstrakcję danych strukturalnych (Schema.org), meta robots, canonical, hreflang. W wersji płatnej możesz tu dodać własne reguły XPath
  • Zakładka „Limits" – ustaw maksymalną liczbę URLi do skanowania. Dla pierwszego crawlu warto ustawić limit np. 10 000, by nie czekać godzinami na zakończenie skanowania ogromnej witryny
  • Zakładka „Rendering" – wybierz tryb renderowania. „HTML" jest szybszy i wystarczający dla większości stron. Wybierz „JavaScript" tylko jeśli witryna korzysta z frameworków JS do ładowania treści

Krok 3: Szybkość skanowania (Configuration → Speed)

Domyślnie Screaming Frog wysyła do 5 równoległych żądań na sekundę. Dla małych i średnich witryn (do kilku tysięcy podstron) to bezpieczna wartość. Jeśli skanujesz witrynę na współdzielonym hostingu lub widzisz, że serwer zaczyna odpowiadać wolniej – zmniejsz liczbę wątków do 1-2 i dodaj opóźnienie między żądaniami (np. 500 ms). Nie chcesz przeciążyć serwera klienta – to podstawowa zasada etycznego crawlowania.

Krok 4: User-Agent i robots.txt

W Configuration → User-Agent możesz zmienić identyfikator crawlera. Domyślnie Screaming Frog identyfikuje się jako „Screaming Frog SEO Spider". Niektórzy specjaliści zmieniają go na Googlebota, żeby zobaczyć stronę tak, jak widzi ją robot Google – ale rób to ostrożnie i tylko na swoich witrynach. Screaming Frog domyślnie respektuje plik robots.txt – jeśli chcesz przeskanować zablokowane sekcje, odznacz opcję „Respect robots.txt" w Configuration → Robots.txt (z pełną świadomością konsekwencji).

Krok 5: Uruchomienie skanowania

Wpisz pełny adres URL strony głównej (np. https://example.pl) w polu na górze okna i kliknij „Start". Pasek postępu pokaże liczbę przeskanowanych URLi, czas trwania i szybkość crawlowania. Dla witryny o 1 000 podstronach skanowanie trwa zazwyczaj 2-5 minut w trybie HTML i 10-20 minut w trybie JavaScript.

Krok 6: Zapisanie projektu

Po zakończeniu skanowania zapisz plik projektu (File → Save As) w formacie .seospider. Dzięki temu możesz wrócić do wyników bez ponownego crawlowania. W wersji płatnej możesz też porównać ten crawl z przyszłymi skanowaniami i śledzić postępy optymalizacji. Warto przyjąć konwencję nazewnictwa plików, np. „domena-pl_2026-03-05.seospider" – ułatwia to organizację przy pracy z wieloma klientami.

Po poprawnym skonfigurowaniu pierwszego crawlu możesz przejść do analizy wyników. Znajomość raportów i ich interpretacja to kluczowa umiejętność – bez niej nawet najlepsze skanowanie nie przyniesie wartości.

Najważniejsze raporty w Screaming Frog

Screaming Frog generuje ogromną ilość danych – dziesiątki kolumn i setki (lub tysiące) wierszy. Początkującego użytkownika może to przytłoczyć. Dlatego warto wiedzieć, na które raporty patrzeć w pierwszej kolejności i jak je interpretować, by wyciągnąć konkretne wnioski optymalizacyjne. Poniżej opisujemy raporty, z których korzystamy najczęściej w codziennej pracy.

Raport „Response Codes" – kody odpowiedzi HTTP

To pierwszy raport, który otwieramy po każdym skanowaniu. Zakładka „Response Codes" w lewym panelu pokazuje wszystkie URLe pogrupowane według kodów HTTP:

  • 2xx (Success) – strony działające poprawnie, kod 200 oznacza prawidłową odpowiedź serwera
  • 3xx (Redirection) – przekierowania. Sprawdź, czy nie masz łańcuchów przekierowań (np. A → B → C → D) ani pętli. Przekierowania 302 (tymczasowe) powinny być zamienione na 301 (trwałe), jeśli zmiana jest stała
  • 4xx (Client Error) – głównie błędy 404 (strona nie istnieje). Każdy 404 to utrata potencjalnego ruchu i sygnał dla Google, że witryna nie jest dobrze utrzymana
  • 5xx (Server Error) – błędy serwera, wymagają natychmiastowej interwencji technicznej

Filtruj wyniki po „Inlinks" (liczba linków prowadzących do danego URLa), by priorytetyzować naprawę – strony z wieloma linkami wewnętrznymi generują najwięcej „zmarnowanego" link juice przy błędzie 404.

Raport „Page Titles" i „Meta Description"

Zakładki te pokazują tytuły i opisy meta wszystkich przeskanowanych stron. Filtr pozwala szybko znaleźć problemy:

  • Missing – strony bez tytułu lub opisu meta. Każda indeksowana strona powinna mieć unikalne, opisowe meta tagi
  • Duplicate – identyczne tytuły lub opisy na różnych podstronach. Google traktuje to jako sygnał niskiej jakości
  • Over X Characters – zbyt długie tytuły (powyżej 60 znaków) lub opisy (powyżej 160 znaków) są obcinane w wynikach wyszukiwania, co obniża CTR w wynikach wyszukiwania
  • Below X Characters – zbyt krótkie tytuły (poniżej 30 znaków) nie wykorzystują pełnego potencjału SERP

Raport „H1" i „H2"

Nagłówki to jeden z najważniejszych sygnałów on-page. Screaming Frog wykrywa strony bez nagłówka H1, z wieloma H1 na jednej stronie, z duplikatami nagłówków i z nagłówkami identycznymi z title tag. Każda strona powinna mieć dokładnie jeden, unikalny nagłówek H1, który zawiera frazę kluczową i jasno komunikuje temat podstrony.

Raport „Images"

Zakładka „Images" analizuje wszystkie obrazy na stronie pod kątem:

  • Missing Alt Text – obrazy bez atrybutu alt. To problem zarówno dla SEO, jak i dostępności (accessibility)
  • Over X KB – zbyt duże pliki graficzne, które spowalniają ładowanie strony. Obrazy powyżej 200 KB powinny zostać zoptymalizowane
  • Missing Alt Attribute – obrazy, gdzie w ogóle brakuje atrybutu alt w tagu HTML

Przy pracy nad opisami produktów w sklepach internetowych raport obrazów jest szczególnie istotny – produkty bez alt textów tracą widoczność w Google Grafika, a to duże źródło ruchu w e-commerce.

Raport „Directives"

Ten raport zbiera informacje o meta robots, canonical URL, hreflang i X-Robots-Tag. Typowe problemy to:

  • Strony z noindex, które powinny być indeksowane – częsty błąd po migracji ze środowiska testowego
  • Canonical wskazujący na inny URL – sprawdź, czy kanoniczne nie prowadzą do stron z błędem 404 lub przekierowaniem
  • Brakujące canonical – strony bez znacznika kanonicznego mogą generować problemy z duplikacją treści

Raport „Internal" – architektura linków wewnętrznych

Zakładka „Internal" pokazuje pełną strukturę linków wewnętrznych witryny: liczbę linków przychodzących i wychodzących z każdej podstrony, głębokość kliknięć (crawl depth), unikalny anchor text. Dzięki temu zidentyfikujesz „osierocone" strony (orphan pages), do których nie prowadzi żaden link wewnętrzny, oraz podstrony pochowane zbyt głęboko w strukturze – idealna podstrona powinna być dostępna w maksymalnie 3 kliknięciach od strony głównej.

Raport „Structured Data"

Screaming Frog waliduje dane strukturalne (Schema.org) w formatach JSON-LD, Microdata i RDFa. Wykrywa brakujące wymagane pola, błędy składniowe i niezgodności z wytycznymi Google. Poprawne dane strukturalne pomagają zdobyć featured snippets i pozycję zero, dlatego ten raport jest nieoceniony przy optymalizacji wyników wyszukiwania.

Wykrywanie błędów technicznych SEO

Jednym z głównych powodów, dla których specjaliści SEO sięgają po narzędzie screaming frog seo spider, jest możliwość szybkiego wykrycia błędów technicznych, które blokują lub spowalniają indeksację witryny. Poniżej opisujemy najczęstsze problemy, które identyfikujemy podczas audytów technicznych, wraz ze sposobami ich rozwiązania.

Łańcuchy i pętle przekierowań

Łańcuch przekierowań to sytuacja, w której URL A przekierowuje do B, B do C, a C dopiero do docelowej strony D. Każde dodatkowe przekierowanie to dodatkowy czas ładowania (100-300 ms) i utrata części „mocy" linku. Google oficjalnie podąża za maksymalnie 10 przekierowaniami, ale w praktyce zaleca się nie więcej niż jedno. Pętla przekierowań (A → B → A) to sytuacja krytyczna – strona jest w ogóle niedostępna.

W Screaming Frog znajdziesz te problemy w zakładce Response Codes → Redirection (3xx). Kolumna „Redirect Chains" pokazuje pełną ścieżkę przekierowania. Raport zbiorczy (Reports → Redirect Chains) wyświetla wszystkie łańcuchy w jednym miejscu, co ułatwia ich naprawę. Rozwiązanie: zamień wieloetapowe przekierowania na bezpośrednie (A → D) i sprawdź, czy linki wewnętrzne prowadzą do finalnych URLi zamiast do przekierowań.

Zduplikowane treści i canonical

Duplikacja treści to jeden z najczęstszych problemów technicznych, szczególnie w sklepach internetowych z wariantami produktów, filtrami i sortowaniem. Screaming Frog wykrywa:

  • Exact Duplicates – strony z identycznym kodem HTML (zakładka „Content → Exact Duplicates")
  • Near Duplicates – strony z treścią podobną w ponad 90% (dostępne w wersji płatnej, „Content → Near Duplicates"). Algorytm porównuje zawartość tekstową po usunięciu nagłówka, stopki i nawigacji
  • Problemy z canonical – strony wskazujące na siebie nawzajem, canonical prowadzące do 404, kanoniczne na stronach z noindex

Rozwiązanie polega na ustawieniu poprawnych znaczników canonical, konsolidacji zduplikowanych stron lub oznaczeniu parametrów URL w Google Search Console. Przy pozycjonowaniu sklepów online kwestia duplikacji jest absolutnie kluczowa – jeden źle skonfigurowany filtr potrafi wygenerować tysiące zduplikowanych podstron.

Problemy z indeksacją

Screaming Frog pokazuje, które strony mają ustawione meta robots „noindex", które są zablokowane w robots.txt, a które mają rozbieżności (np. canonical wskazuje na stronę z noindex). Zakładka Directives daje pełny obraz, a raport Reports → Indexability podsumowuje status indeksacji każdego URLa.

Typowe błędy:

  • Strony z ważną treścią oznaczone jako „noindex" (np. po migracji z testowego środowiska)
  • Robots.txt blokujący pliki CSS/JS – Google nie może poprawnie renderować strony i ocenia ją gorzej
  • Strony z kodem 200, ale bez zawartości (thin content) – mają zero lub kilka słów treści
  • Strony „orphan" – istniejące, ale niedostępne z poziomu żadnego linku wewnętrznego

Problemy z wydajnością i Core Web Vitals

W wersji płatnej Screaming Frog integruje się z API PageSpeed Insights, co pozwala pobrać metryki Core Web Vitals (LCP, FID/INP, CLS) bezpośrednio do tabeli crawlera. Dzięki temu widzisz, które strony mają problemy z wydajnością, bez konieczności testowania każdego URLa osobno w PageSpeed Insights.

Nawet bez integracji API sam crawler dostarcza przydatnych informacji – rozmiary odpowiedzi, czas odpowiedzi serwera (TTFB), rozmiar obrazów, liczba zasobów do załadowania. Strony z TTFB powyżej 600 ms lub rozmiarem HTML powyżej 3 MB wymagają optymalizacji.

Uszkodzone linki wewnętrzne i zewnętrzne

Uszkodzone linki (broken links) to nie tylko problem UX – to sygnał zaniedbania dla robotów wyszukiwarek. Screaming Frog wykrywa linki prowadzące do stron z kodem 404, 410, 500 i innymi błędami. W zakładce Response Codes → Client Error (4xx) znajdziesz listę uszkodzonych URLi, a kolumna „Inlinks" pokaże, z których podstron prowadzą do nich linki.

Przy dużych witrynach, gdzie liczba uszkodzonych linków sięga setek, warto priorytetyzować naprawę: najpierw linki na stronach głównych i najważniejszych landing page'ach, potem na podstronach z najwyższym ruchem organicznym (dane z integracji z GA4 lub Search Console).

Problemy z mapą witryny (sitemap)

Screaming Frog potrafi przeskanować plik sitemap.xml i porównać jego zawartość z wynikami crawlu. Raport Sitemaps → URLs Not in Sitemap wskazuje strony, które powinny się znaleźć w mapie witryny, ale ich tam nie ma. Odwrotny raport – Sitemap URLs Not Crawled – pokazuje URLe wymienione w sitemap, których crawler nie znalazł (np. strony usunięte, ale nadal widoczne w sitemap). Oba przypadki wymagają korekty – aktualna i kompletna mapa witryny przyspiesza indeksację.

Integracja z Google Analytics i Search Console

Prawdziwa moc Screaming Froga ujawnia się dopiero po podłączeniu zewnętrznych źródeł danych. Sam crawler dostarcza dane techniczne, ale dopiero połączenie ich z danymi o ruchu (GA4) i widoczności w wyszukiwarce (Search Console) pozwala podejmować decyzje oparte na realnym wpływie na biznes. Integracje są dostępne wyłącznie w wersji płatnej.

Integracja z Google Search Console

Po podłączeniu API Search Console (Configuration → API Access → Google Search Console) Screaming Frog wzbogaca każdy URL o dane z ostatnich 16 miesięcy:

  • Clicks – liczba kliknięć z wyników wyszukiwania
  • Impressions – liczba wyświetleń w SERP
  • CTR – współczynnik klikalności
  • Average Position – średnia pozycja w Google

Dzięki tym danym możesz priorytetyzować optymalizację. Strona z 10 000 impressions, ale CTR wynoszącym 0,5% to idealny kandydat do poprawy tytułu i opisu meta – drobna zmiana może przynieść setki dodatkowych kliknięć miesięcznie. Z kolei strona z wysokim CTR, ale niską pozycją (np. 8-15) to szansa na szybki wzrost ruchu po niewielkiej optymalizacji treści.

Jeśli dopiero konfigurujesz narzędzia analityczne, sprawdź nasz poradnik o konfiguracji Google Analytics 4 – poprawne ustawienie GA4 to fundament mierzenia efektów działań SEO.

Integracja z Google Analytics 4

Podłączenie GA4 (Configuration → API Access → Google Analytics 4) dodaje do crawlera dane o zachowaniu użytkowników na poszczególnych podstronach:

  • Sessions – liczba sesji na danym URL
  • Engaged Sessions – sesje zaangażowane (trwające ponad 10 sekund lub z konwersją)
  • Engagement Rate – procent zaangażowanych sesji
  • Conversionsliczba konwersji zarejestrowanych na stronie
  • Revenue – przychód z e-commerce (jeśli skonfigurowany)

Te dane pozwalają ocenić, które strony generują realną wartość biznesową, a które wymagają optymalizacji lub mogą zostać skonsolidowane. Strona z ruchem organicznym, ale zerowym zaangażowaniem, prawdopodobnie nie spełnia intencji wyszukiwania użytkownika – warto przeanalizować jej treść i porównać z wynikami konkurencji.

Integracja z PageSpeed Insights

API PageSpeed Insights (Configuration → API Access → PageSpeed Insights) pobiera metryki Core Web Vitals dla każdego przeskanowanego URLa:

  • Performance Score – ogólna ocena wydajności (0-100)
  • LCP (Largest Contentful Paint) – czas ładowania największego widocznego elementu. Cel: poniżej 2,5 sekundy
  • CLS (Cumulative Layout Shift) – stabilność wizualna layoutu. Cel: poniżej 0,1
  • INP (Interaction to Next Paint) – responsywność na interakcje użytkownika. Cel: poniżej 200 ms

Uwaga: pobieranie danych PSI znacząco wydłuża czas skanowania (każdy URL wymaga osobnego zapytania do API). Przy dużych witrynach warto ograniczyć analizę PSI do próbki najważniejszych stron lub skonfigurować crawl na noc. W Noril.pl zazwyczaj używamy integracji PSI przy szczegółowych audytach technicznych, nie przy rutynowych skanowaniach tygodniowych.

Integracja z Ahrefs i Majestic

Screaming Frog oferuje też integracje z zewnętrznymi narzędziami analitycznymi profilu linkowego – Ahrefs i Majestic. Po podłączeniu API widzisz dla każdego URLa liczbę backlinków, Domain Rating/Trust Flow i anchor texty. To pozwala identyfikować strony z silnym profilem linkowym (które warto optymalizować pod kątem treści), jak i strony bez żadnych backlinków (które potrzebują budowania linków). Dane o profilu linków pomagają też ocenić, na ile realne jest pozycjonowanie na konkurencyjne frazy w danej niszy.

Praktyczny workflow z integracjami

Oto przykładowy workflow, który stosujemy przy kompleksowym audycie:

  1. Crawl z integracją GSC + GA4 – skanuj witrynę z podłączonymi oboma API. Czas: 15-60 minut w zależności od rozmiaru witryny
  2. Eksport do Excela – pobierz pełne dane z zakładki „Internal" z kolumnami GSC i GA4
  3. Priorytetyzacja – sortuj strony z błędami według liczby kliknięć z GSC. Najpierw napraw błędy na stronach z najwyższym ruchem
  4. Identyfikacja szybkich wygranych – filtruj strony z pozycją 5-15 i wysokimi impressions. To kandydatki do optymalizacji on-page, które mogą szybko wskoczyć do TOP 5
  5. Raport dla klienta – eksportuj kluczowe dane z Screaming Froga do raportu, uzupełnij o rekomendacje i priorytety

Tak zintegrowany audyt daje nie tylko listę błędów technicznych, ale konkrety przełożenie na ruch i przychód – a to jest kluczowe dla klientów, którzy chcą widzieć zwrot z inwestycji w marketing.

Alternatywy dla Screaming Frog

Choć screaming frog seo spider jest niekwestionowanym liderem wśród desktopowych crawlerów, nie jest jedynym narzędziem na rynku. Warto znać alternatywy, żeby wybrać rozwiązanie najlepiej dopasowane do swoich potrzeb, budżetu i skali działalności. Poniżej porównujemy najważniejsze opcje.

Sitebulb

Sitebulb to desktopowy crawler stworzony z myślą o przejrzystej wizualizacji danych. Jego główna przewaga nad Screaming Frogiem to automatyczne priorytetyzowanie problemów – zamiast surowej tabeli danych dostajesz listę „Hints" z podziałem na krytyczne, ważne i do rozważenia. Każda sugestia jest opisana i zawiera link do dokumentacji wyjaśniającej problem.

Cena: od 149 USD rocznie (Lite, 10 000 URLi) do 349 USD rocznie (Pro, bez limitu). Wady: wolniejszy niż Screaming Frog przy dużych witrynach, mniej opcji konfiguracji zaawansowanej, słabsze integracje API.

Ahrefs Site Audit

Ahrefs Site Audit to chmurowy crawler zintegrowany z ekosystemem Ahrefs. Nie wymaga instalacji – skanowanie odbywa się na serwerach Ahrefs. Automatycznie monitoruje witrynę i wysyła alerty o nowych problemach. Wyniki łączy z danymi o backlinkach, ruchu organicznym i frazach kluczowych z bazy Ahrefs.

Cena: od 129 USD/miesiąc (w ramach subskrypcji Ahrefs). Wady: mniejsza kontrola nad parametrami crawlowania, brak możliwości analizy witryn zza firewalla (bo skanuje z chmury), koszty znacznie wyższe niż jednorazowa licencja Screaming Froga.

Semrush Site Audit

Semrush oferuje podobne rozwiązanie chmurowe – Site Audit w ramach platformy Semrush. Daje przejrzysty „Health Score" witryny, automatycznie kategoryzuje błędy i pozwala porównywać wyniki w czasie. Integruje się z innymi modułami Semrush (Position Tracking, On-Page SEO Checker), co tworzy spójny workflow.

Cena: od 139 USD/miesiąc (w ramach subskrypcji Semrush). Wady: te same co Ahrefs – chmurowe skanowanie, wysoki koszt miesięczny, mniejsza elastyczność niż desktopowy crawler.

Lumar (dawniej DeepCrawl)

Lumar to enterprise'owy crawler chmurowy, używany przez duże korporacje i agencje zarządzające witrynami o milionach podstron. Oferuje zaawansowane dashboardy, integracje z narzędziami CI/CD (automatyczne skanowanie przy każdym wdrożeniu), API do budowania własnych raportów i wsparcie dla dużych zespołów.

Cena: od kilkuset dolarów miesięcznie (indywidualna wycena). Wady: overkill dla małych i średnich witryn, złożona konfiguracja, wysoki koszt.

Netpeak Spider

Netpeak Spider to desktopowy crawler podobny do Screaming Froga, ale z nieco innym interfejsem i zestawem funkcji. Oferuje wbudowany audyt SEO z listą kontrolną, eksport do Google Data Studio (Looker Studio) i konkurencyjną cenę.

Cena: od 7 USD/miesiąc (plan podstawowy). Wady: mniejsza społeczność i mniej materiałów edukacyjnych, tylko Windows, mniej integracji API.

Które narzędzie wybrać?

Kryterium Screaming Frog Sitebulb Ahrefs/Semrush Lumar
Typ Desktop Desktop Chmura Chmura
Cena roczna 259 USD 149-349 USD 1 548-1 668 USD Indywidualna
Darmowa wersja Tak (500 URLi) Tak (500 URLi) Nie Nie
Integracje API GSC, GA4, PSI, Ahrefs, Majestic GSC, GA4 Wbudowane Rozbudowane
Rendering JS Tak Tak Tak Tak
Najlepszy dla Wszechstronność Wizualizacja Ekosystem all-in-one Enterprise

W codziennej pracy Noril.pl Screaming Frog pozostaje naszym głównym narzędziem do crawlowania – oferuje najlepszą równowagę między ceną, funkcjonalnością i elastycznością konfiguracji. Łączymy go z Ahrefs (dane o backlinkach) i Google Search Console (dane o widoczności) – razem tworzą kompletny zestaw do profesjonalnego audytu SEO.

Niezależnie od wybranego narzędzia, kluczowa jest systematyczność – regularne skanowania (co tydzień lub po każdym większym wdrożeniu) pozwalają wychwycić problemy, zanim wpłyną na widoczność w Google. Dla firm, które rozważają inwestycję w SEO, Screaming Frog w darmowej wersji to doskonały punkt wyjścia do samodzielnej oceny stanu technicznego witryny.

Warto też pamiętać, że żadne narzędzie nie zastąpi wiedzy i doświadczenia specjalisty SEO. Screaming Frog dostarcza dane – ale ich interpretacja, priorytetyzacja i przełożenie na konkretne rekomendacje to już praca eksperta. Dlatego wiele firm decyduje się na współpracę z agencją SEO, która nie tylko przeprowadzi audyt, ale też wdroży zmiany i będzie monitorować ich efekty. Jeśli prowadzisz biznes lokalny, sprawdź nasze wskazówki dotyczące SEO lokalnego dla małych firm – audyt techniczny to tylko jeden z elementów skutecznej strategii. Prowadząc SEO dla kancelarii prawnej czy dowolnej innej branży, narzędzie takie jak Screaming Frog stanowi fundament profesjonalnej diagnostyki technicznej.

W erze, gdy AI zmienia oblicze SEO, narzędzia takie jak Screaming Frog nadal pozostają niezbędne – automatyzują żmudną pracę analityczną i pozwalają specjalistom skupić się na strategii, a kampanie reklamowe w Google to doskonałe uzupełnienie działań organicznych, szczególnie w okresie oczekiwania na efekty pozycjonowania.

Najczęściej zadawane pytania

Co to jest Screaming Frog?

Screaming Frog SEO Spider to desktopowy program do crawlowania (skanowania) stron internetowych. Działa jak robot Google – przechodzi przez wszystkie podstrony witryny i zbiera dane techniczne: kody HTTP, meta tagi, nagłówki, linki, obrazy i dziesiątki innych parametrów. Jest dostępny na Windows, macOS i Linux.

Do czego służy Screaming Frog?

Screaming Frog służy przede wszystkim do audytów technicznych SEO – wykrywa błędy takie jak uszkodzone linki, brakujące meta tagi, problemy z przekierowaniami, duplikację treści i błędy w danych strukturalnych. Używają go specjaliści SEO, webmasterzy i agencje marketingowe do diagnostyki i optymalizacji witryn internetowych.

Ile kosztuje Screaming Frog?

Screaming Frog jest dostępny w dwóch wariantach: darmowym (limit 500 URLi, ograniczona funkcjonalność) i płatnym za 259 USD rocznie (bez limitu URLi, pełna funkcjonalność z renderowaniem JS, integracjami API i planowaniem skanowań). Licencja jest przypisana do jednego użytkownika.

Jakie błędy SEO wykrywa Screaming Frog?

Screaming Frog wykrywa m.in. uszkodzone linki (404), łańcuchy i pętle przekierowań, brakujące lub zduplikowane tytuły i opisy meta, strony bez nagłówka H1, obrazy bez atrybutu alt, błędy w danych strukturalnych, problemy z canonical, strony z noindex oraz strony osierocone (bez linków wewnętrznych).

Jakie są najlepsze narzędzia do audytu SEO?

Do najlepszych narzędzi do audytu SEO należą: Screaming Frog (crawling techniczny), Google Search Console (dane o indeksacji i widoczności), Ahrefs i Semrush (analiza słów kluczowych i backlinków), Google PageSpeed Insights (wydajność) oraz Sitebulb (wizualizacja danych audytowych). Profesjonalny audyt SEO łączy dane z kilku narzędzi jednocześnie.

Udostępnij:
NM

O autorze

Norbert Majewski

Specjalista SEO, założyciel Noril.pl

Od ponad 20 lat zajmuje się pozycjonowaniem stron internetowych i marketingiem w wyszukiwarkach. Pomaga firmom zwiększać widoczność w Google i budować skuteczną obecność online. Założyciel agencji SEO Noril.pl z siedzibą w Gdyni.

Powiązane artykuły