W tym odcinku SEO Podcastu przedstawię Ci szczegółowy przewodnik po funkcjach Screaming Frog SEO Spider – jednego z najważniejszych narzędzi w arsenale każdego specjalisty SEO. Omówimy krok po kroku, w jaki sposób go skonfigurować i rozpocząć crawlowanie witryny, a także jak efektywnie analizować dane z raportów, takich jak meta tagi, nagłówki czy statusy HTTP, w celu przygotowania raportu z audytu SEO. Skupimy się na praktycznym zastosowaniu funkcji, takich jak między innymi wykrywanie przekierowań 301, błędów 404 oraz innych elementów technicznych, jak np. analiza map witryn, pliku robots.txt i danych strukturalnych. Wyjaśnię również, jak korzystać z filtrów danych i w jaki sposób eksportować dane oraz jak zintegrować narzędzie z Google Analytics, Google Search Console, Ahrefs, MOZ, Majestic i ChatGPT od OpenAI. Ten odcinek to kompleksowe wprowadzenie do pracy z narzędziem, które pozwala na precyzyjną optymalizację zarówno małych, jak i dużych stron i sklepów internetowych.
Spis treści:
Wideo
Transkrypcja
Integralną częścią usługi pozycjonowania jest audyt SEO – czynność, bez której nie wyobrażam sobie pracy nad prowadzeniem kampanii SEO.
W tym odcinku SEO Podcastu pokażę Ci, co należy przeanalizować w trakcie wykonywania audytu SEO i do tego zadania wykorzystamy jedno z najlepszych narzędzi na rynku – Screaming Frog.
Przedstawię Ci wiele przydatnych funkcji, dzięki którym będziesz w stanie przeanalizować swój serwis pod wieloma aspektami, które mają większe lub mniejsze znaczenie dla efektów pozycjonowania.
Dlatego, jeśli chcesz poznać je wszystkie, a także nauczyć się obsługi Screaming Froga, to zapraszam do kolejnego praktycznego odcinka SEO Podcastu!
Ogólne omówienie narzędzia Screaming Frog
Aby zacząć pracę nad audytem SEO, niezbędne jest poznanie najważniejszych funkcji narzędzia Screaming Frog. W pierwszej kolejności przejdziemy przez omówienie jego interfejsu, a w międzyczasie opowiem Ci, dlaczego warto zbierać i analizować poszczególne dane w trakcie wykonywania audytu SEO.
Narzędzie to można podzielić na trzy główne części.
Idąc od góry, znajdziemy tu panel z polem do wprowadzenia adresu URL oraz zakładkami, w których znajdziemy pogrupowane dane, które zebrało narzędzie Screaming Frog.
W środkowej części narzędzia zostaną umieszczone dane, które zebrało narzędzie, a na samym dole znajdziemy kolejne informacje, które będą uzupełniały dane w środkowej części programu. Będą to szczegółowe informacje, które mogą Ci pomóc w trakcie analizy i wykonywania audytu SEO.
Po prawej stronie interfejsu znajdziemy listę skrótów do podsumowania konkretnych informacji zebranych podczas czynności crawlowania. Jest to czynność symulująca wejście robota indeksującego wyszukiwarki i zebranie wszelkich danych o serwisie. Po prawej stronie narzędzia Screaming Frog znajdziesz także wykres kołowy, który obrazowo przedstawi Ci ilość wykrytych elementów w trakcie zbierania danych o serwisie.
Dodatkowo, z menu znajdującego się na samej górze możemy wybrać tryby pracy programu. Ja najczęściej korzystam z dwóch trybów: „Spider” – odpowiadający za przeskanowanie wszystkich podstron w serwisie oraz „List”, który odpowiada za skan mapy witryny, którą wskazuję pod bezpośrednim adresem URL do pliku w formacie XML z listą linków wewnętrznych.
Pobranie danych z serwisu w trybie „Spider”
Okej, abym mógł Ci teraz opisać najważniejsze funkcje narzędzia Screaming Frog, najlepiej będzie, jeśli to zrobię na jakimś „żywym organizmie”.
Zanim tylko przejdziemy do wprowadzenia adresu URL do serwisu, który będziemy analizować, upewnijmy się, że podłączyliśmy się po kluczu API do najważniejszych narzędzi, z których będziemy pobierać dane do analizy. Przykładowo, połącz się po kluczu API z narzędziami Google Search Console, Google Analytics 4 oraz PageSpeed Insights.
Aby to zrobić, należy przejść do lokalizacji: Configuration > API Access i tutaj wybierz odpowiednie narzędzie, z którym dokonasz połączenia po wygenerowaniu kluczu API, według instrukcji, którą umieścili autorzy programu Screaming Frog.
Zauważ, że w tym miejscu możesz także włączyć integrację z pozostałymi narzędziami, jak np. Majestic, Ahrefs oraz Moz, ale pamiętaj o tym, że im więcej narzędzi podłączysz po kluczu API, tym proces analizy będzie trwał dużo dłużej, gdyż do tej czynności zostanie wykorzystana każda zewnętrzna aplikacja, z którą się połączyłeś.
Nie zapomnij także zweryfikować, czy Screaming Frog automatycznie się z nimi połączył. W tym celu kliknij w ikonę koła zębatego przy każdym z kont, a następnie przy opcji „Auto connect” wybierz podłączone konto. I tak dla każdego narzędzia, do którego wprowadziłeś klucz API. O połączeniu się z danym kontem informuje status „Connected” (połączony) lub „Disconnected” (odłączony).
Na cele tego odcinka i wykonania analizy powinieneś podłączyć się do PageSpeed Insights, aby zobaczyć wszystkie zakładki w programie i zebrane informacje, które będę omawiał w dalszej części tego filmu.
Kolejną rzeczą, o którą chciałbym Cię prosić zanim przejdziemy do użycia narzędzia Screaming Frog, to zaznaczenie niezbędnych danych, które powinny zostać zebrane przez to narzędzie. Domyślnie, zbiera ich podstawową ilość, dlatego pokażę Ci, co należy zebrać, aby móc dokonać pełniejszej analizy.
W tym celu przejdź do lokalizacji: Configuration > Spider > Crawl
Sprawdź teraz, czy masz zaznaczone wszystkie opcje w sekcji „Resource Links”, „Page Links”, „Crawl Behaviour”, „XML Sitemaps”. W tym celu możesz właśnie zastopować ten film, aby zaznaczyć te same opcje.
Następnie przejdźmy do kolejnej zakładki „Extraction”.
I tutaj zaznacz proszę wszystkie opcje w sekcjach, poza „PDF”, gdyż nie zależy mi na analizie tych dokumentów. Przejdźmy teraz do zakładki „Rendering”.
Tutaj, z listy rozwijanej wybierzmy „JavaScript”, a następnie zaznaczmy wszystkie opcje poniżej.
I jeszcze ostatnia rzecz, z której będziesz na pewno zadowolony. Domyślnie narzędzie Screaming Frog zapisuje zebrane dane do pamięci RAM – oczywiście do czasu wyłączenia programu. Chciałbym więc, abyś zaoszczędził zasoby swojego komputera, odciążając pamięć RAM, która domyślnie zostaje wykorzystywana do przechowywania danych.
W tym celu przejdź do ustawień programu Screaming Frog. W systemie macOS będzie to lokalizacja: Screaming Frog SEO Spider > Settings… > Storage Mode – a następnie przełącz opcję z „Memory Storage” na „Database Storage” i wybierz lokalizację, w której mają zostać zapisywane dane zebrane przez program. Naciśnij przycisk „OK and Restart”, aby wszystkie wybrane przez Ciebie ustawienia zostały wczytane wraz z ponownym uruchomieniem programu.
Okej, to wszystko. Teraz jesteśmy gotowi, aby wykonać dokładną analizę serwisu za pomocą Screaming Froga. Rozpocznijmy więc pracę z tym narzędziem.
Wprowadźmy adres URL do serwisu lub sklepu internetowego, który będziemy audytować. Ja wprowadzę adres URL do strony mojej agencji.
Po naciśnięciu przycisku „Start” narzędzie Screaming Frog rozpocznie pracę, a o postępach będzie informować w prawym, dolnym rogu narzędzia.
Narzędzie pobierze listę adresów do podstron wewnętrznych, bibliotek JavaScript, arkuszy styli CSS, a także zdjęć i grafik, co łatwo można przefiltrować za pomocą specjalnego filtru przeznaczonego do podglądu adresów URL kierujących do wybranych zasobów.
Jeśli program poinformuje Cię o ograniczeniu do ilości 500 adresów URL, to znaczy, że będziesz potrzebować zakupić roczną licencję.
W przypadku dużej ilości adresów URL do pobrania i danych do zebrania, będziesz musiał zaczekać aż do ukończenia pracy.
Po zakończeniu zbierania danych i grupowania ich do odpowiednich zakładek, czas dokonać ich analizy. Przejdźmy po każdej z nich i sprawdźmy, jakie dane zostały w nich umieszczone przez Screaming Froga.
Analizę rozpoczniemy od zakładek znajdujących się w górnej części programu.
Na pierwszy ogień idą dwie zakładki, które zawierają listę wszystkich wykrytych adresów URL – zakładka „Internal” z listą adresów URL do podstron wewnętrznych, a także zakładka „External” z listą linków wychodzących.
Zakładka „Internal”
Zakładka „Internal” to podstawowa zakładka, która jest otwarta od początku pracy z tym narzędziem. Zawiera listę wszystkich wewnętrznych adresów URL, które możesz przefiltrować. Ja zawsze wybieram filtr o nazwie „HTML”, który pozwala mi wyświetlić jedynie adresy URL do podstron wewnętrznych na stronach czy kategorii i produktów w sklepach internetowych. Oczywiście znajdziesz tu także podstrony tekstowe i artykuły blogowe, jeśli takie występują.
Ilość informacji o wewnętrznych adresach URL, które zostały wykryte jest dosyć spora i zawarte są w niej te informacje, które będziesz mógł zobaczyć w następnych zakładkach. Potraktuj ją jako podsumowanie o przeanalizowanych adresach URL.
Znajdziesz tu między innymi zwrócone odpowiedzi serwera w postaci statusów HTTP, zawartość znaczników meta title i description, wykryte nagłówki H1 i H2 wraz z ich treścią, wykryte znaczniki meta robots, refresh i linki do kanonicznych adresów URL, wykrytą paginację (czyli stronicowanie), rozmiary podstron i tak dalej.
Nie chcę celowo wymieniać Ci każdej kolumny i występujących w nich danych, gdyż tym zajmę się w kolejnych zakładkach, w których dane zostały pogrupowane tematycznie.
Zakładka „External”
Drugą zakładką jest zakładka „External”, w której znajdziesz listę wychodzących adresów URL z całego przeanalizowanego serwisu. I tak, korzystając z filtrów, możesz znaleźć tu adresy URL do wczytywanych zasobów z zewnątrz, w postaci skryptów JavaScript czy czcionek, a także linki wychodzące do innych serwisów i profili social media. Tutaj również znajdziesz listę zwróconych statusów HTTP, aby móc sprawdzić, czy przypadkiem jakiś link nie prowadzi do usuniętego zasobu lub podstrony, o czym świadczyć może status „404”. Dodatkowo, w kolumnie „Crawl Depth” znajdziesz wartość odpowiadającą sumie kliknięć, których liczenie zaczyna się od strony głównej do finalnej podstrony, w której występuje dany adres URL.
Zakładka „Security”
W pierwszej kolejności zwróć proszę uwagę, że filtr w zakładce „Security” posiada już inne wartości. Dzięki temu łatwo możemy odnaleźć, które adresy URL zawierają zwykły protokół HTTP, a które bezpieczniejszy – HTTPS. W ten sposób możemy szybko przefiltrować zebrane adresy URL przez Screaming Froga. Oczywiście, jeśli wywołując filtr „HTTP” nie znajdziemy żadnych adresów, to znaczy, że w serwisie nie występują różne protokoły, tylko jeden – HTTPS (czyli nie występuje w nim błąd, który określa się nazwą „mixed-content”).
To, co jeszcze możemy znaleźć w zakładce „Security”, to zwracane statusy kodów HTTP, które wskazują o ewentualnie występujących błędach z blokadą odczytu, błędami serwera lub usunięte zasoby, do których wciąż się odwołujemy w serwisie, a także możliwość (lub nie) indeksacji naszych podstron czy występujących (lub nie) adresów kanonicznych, a także informacje o ustawionych komendach dla robotów indeksujących umożliwiających lub blokujących indeksację.
Zakładka „Response Codes”
W zakładce „Response Codes” znajdziemy listę wszystkich wykrytych zasobów zewnętrznych i wewnętrznych, aby w szybki sposób posortować dane według zwracanego statusu kodu HTTP, który zostaje przekazany robotowi crawlującemu. Dzięki temu łatwo dotrzemy do tych zasobów, które zostały usunięte lub przekierowane na inny adres URL, co pozwoli nam wychwycić te adresy i je poprawić lub ostatecznie usunąć z audytowanego serwisu.
Zwróć także uwagę na kolumnę „Response Time”, czyli czas w milisekundach, który był potrzebny na ostatecznie otwarcie adresu URL.
Kolumna „Redirect URL”, która jest umieszczona w zakładce „Response Codes” pomoże Ci szybko zidentyfikować, na jaki adres URL został przekierowany główny adres URL z kolumny „Address”.
Zakładka „URL”
W zakładce „URL” znajdziemy listę wszystkich wykrytych wewnętrznych adresów URL, wraz ze zwracanymi statusami kodów HTTP, informacją o możliwości indeksacji lub nie danego adresu URL, informację o ewentualnym przekierowaniu, a także listę linków kanonicznych.
Jeśli posortujesz dane według wartości kolumny „Hash”, to w łatwy sposób będziesz mógł sprawdzić, czy na danej podstronie występuje duplikacja treści, co w łatwy sposób można wykryć, jeśli zauważysz minimum dwie takie same wartości. Zwróć uwagę, czy wartości są takie same 1:1. Jeśli istnieje różnica jednego znaku, to znaczy, że treści nie są duplikatami. Wartość hash strony jest wynikiem użycia algorytmu MD5.
Zakładka „Page Titles”
Zakładka „Page Titles” – jak sama nazwa wskazuje – odpowiada za analizę tytułów podstron występujących w serwisie. Nie dość, że będziemy mogli sprawdzić to, czy na każdej podstronie występuje znacznik meta title, to dodatkowo będziemy mogli zweryfikować jego zawartość, długość i ilość występowań w kodzie źródłowym.
Zakładka „Meta Description”
Zakładka „Meta Description” ma taką samą zasadę – w niej będziesz mógł zweryfikować zawartość, długość i ilość występowań znacznika meta description.
Zakładka „Meta Keywords”
Do dziś nie wiem, dlaczego zakładka „Meta Keywords” wciąż istnieje w programie Screaming Frog, jeśli oficjalnie firma Google przyznała się, że przestała zupełnie zwracać uwagę na znacznik meta keywords, z uwagi na wcześniejsze upychanie słów kluczowych przez właścicieli stron i sklepów internetowych. Tę zakładkę możemy pominąć.
Zakładka „H1”
Zakładka „H1” służy oczywiście do analizy występujących najważniejszych nagłówków w hierachii. Dzięki niej sprawdzimy ilość występowania, zawartość oraz długość nagłówków H1 na każdej podstronie. Zwróć uwagę, czy nagłówki występują na każdej podstronie (włącznie ze stroną główną) oraz czy występują tylko raz na każdej z nich. Jeśli występują więcej niż raz, to zauważysz to przez dane zawarte w kolumnie „H1-2”.
Zakładka „H2”
Nagłówek H2 to już niższy stopień w hierarchii nagłówków, ale również bardzo ważny w kwestii optymalizacji pod SEO. Sprawdź więc, czy występuje w treści każdej podstrony wewnątrz serwisu, który analizujesz.
Zakładka „Content”
Bardzo ciekawe dane zostały umieszczone w zakładce „Content”. Otóż znajdziesz tutaj informacje dotyczące ilości wykrytych wyrazów w treści, a także licznik zdań. Co ciekawe, narzędzie podaje także średnią dotyczącą ilości wyrazów na jedno zdanie, a także wartość stopnia trudności zrozumienia naszej treści, dzięki skali indeksu „Flesch” – jednak tutaj podchodziłbym do tej oceny z dystansem, bo indeks ten ocenia poprawnie jedynie treści w języku angielskim.
Zakładka „Images”
Zakładka „Images” pomoże Ci z kolei w analizie rozmiaru grafik występujących w obrębie całego serwisu. Warto w niej posortować dane w kolumnie „Size” i sprawdzić, jaki rozmiar mają największe grafiki. W przypadku, jeśli prowadzisz sklep internetowy w branży ecommerce, to warto pomyśleć nad tym, aby zmniejszyć rozmiar grafik, które posiadają wagę kilku MB. Dzięki temu przyspieszysz czas wczytywania swojego sklepu (co ma bagatelne znaczenie zarówno dla optymalizacji pod SEO, jak i dla czasu pracy serwera i jego odpytywania) i zwiększysz konwersję, gdyż przy wolnym sklepie internetowym liczba zamówień jest mniejsza, z uwagi na brak cierpliwości użytkowników urządzeń mobilnych.
Zakładka „Canonicals”
Zakładka „Canonicals” to zbiór linków kanonicznych, które występują (lub nie) w Twoim serwisie. Zwróć uwagę, czy canonicale są ustawione na „self”, czyli na ten sam adres URL, w którym występują. Ma to ogromne znaczenie dla optymalizacji pod SEO z uwagi na to, aby treści opisowe np. w kategorii sklepu internetowego zawierającego paginację (czyli stronicowanie) nie duplikowały się ze sobą. Na szczęście coraz więcej popularnych systemów CMS i platform ecommerce zawiera wewnętrzny silnik budowania canonicali, którego nie trzeba poprawiać (jak np. Prestashop), ale warto zweryfikować występowanie i wskazany adres URL w tym mega ważnym znaczniku chroniącym przed duplikacją treści.
Zakładka „Pagination”
Zakładka „Pagination” według mnie powinna występować wcześniej, niż dopiero za „Canonicals”, gdyż ułatwiłaby pracę nad analizą canonicali – ale nic straconego. W zakładce tej również możemy zweryfikować występujące canonicale i dopasować je do adresów URL, w których występuje paginacja.
Myślę, że lepiej będzie, abyś do analizy canonicali wykorzystał tę zakładkę, w której występują zarówno obydwie informacje.
Zakładka „Directives”
W zakładce „Directives” znajdziemy tzw. dyrektywy, czyli komendy dla robotów wyszukiwarek, które zostały wykryte w kodzie źródłowym analizowanego serwisu. Dodatkowo, w kolumnie „Meta refresh” możesz sprawdzić, czy występuje znacznik odświeżenia danej podstrony po wybranym czasie. Ten znacznik według mnie jest już na wymarciu, gdyż od dawna nie zauważyłem, aby występował w serwisach internetowych.
Zakładka „Hreflang”
Zakładka „Hreflang” to obowiązkowy punkt w trakcie audytu SEO dla serwisów, oferujących różne wersje językowe dla użytkowników. Jeśli w analizowanej witrynie występuje treść dla różnych języków obcych, to należy zweryfikować zarówno występowanie, jak i kierowanie robotów indeksujących pod dany adres, w którym występuje treść przypisana do danego języka.
Za pomocą znaczników „hrelfang” kierujemy roboty indeksujące naszą treść i wskazujemy im, pod jakim adresem występuje dany język obcy. Dodatkowo, ustalamy, który język obcy jest domyślnym językiem dla naszego serwisu. Dzięki dobrze zorganizowanym przekierowaniom robotów indeksujących pod dany język, będziemy mieć pewność, że poprawnie zindeksują dany język i umieszczą go w rankingu wyszukiwarki Google dla danego kraju.
Zakładka „JavaScript”
W zakładce „JavaScript” sprawdzimy dane odczytane przez roboty crawlujące narzędzia Screaming Frog po wykonaniu kodu JavaScript, który został umieszczony w serwisie. Na tej podstawie sprawdzisz, czy Googleboty mogą mieć problem z odczytaniem podstawowych informacji z Twojego serwisu, jak np. treść, znaczniki meta, nagłówki i canonicale itd.
Dodatkowo sprawdzisz, jakie różnice występują między renderowanym kodem HTML przy włączonej i wyłączonej obsłudze JavaScript.
Zakładka „Links”
Zakładka „Links” pozwoli Ci sprawdzić, jak długą drogę od strony głównej należy przejść, aby dotrzeć do danej podstrony. Odległość ta jest oczywiście liczona w liczbie kliknięć wymaganych do wejścia na daną podstronę ze strony głównej analizowanego serwisu.
Zwracam Ci szczególną uwagę właśnie na tę część audytu SEO. Pamiętaj, że najważniejsze wewnętrzne adresy URL powinny posiadać jak najkrótszą drogę ze strony głównej, gdyż między innymi na tej podstawie jest ustalana hierarchia podstron w każdym serwisie (zarówno na stronach, jak i w sklepach internetowych).
W zakładce „Links” znajdziesz także informacje dotyczące liczby linków wewnętrznych występujących pod danym adresem URL, a także łączną ilość linków wychodzących (czyli do zewnętrznych adresów URL, nie znajdujących się na serwerze – w tym do bibliotek JavaScript).
Zakładka „AMP”
Zakładka „AMP” służy do monitorowania podstron stworzonych na potrzeby urządzeń mobilnych (czyli w technologii Accelerated Mobile Pages). Jeśli robot crawlujący Screaming Froga znajdzie link do podstron stworzonych w technologii AMP, to wyświetli w tej zakładce wszystkie wykryte adresy URL.
Zakładka „Structured Data”
Zakładka „Structured Data” zawiera listę wykrytych znaczników danych strukturalnych zgodnych z dokumentacją schema.org i jeśli nie wyświetla Ci danych, to powinieneś wrócić do konfiguracji Screaming Froga w lokalizacji: Configuration > Spider > Extraction i zaznaczyć wszystkie opcje w sekcji „Structured Data”, a następnie wykonać ponowne skanowanie serwisu.
Po zebraniu danych odnośnie danych strukturalnych, narzędzie Screaming Frog wyświetli listę wszystkich podstron wewnętrznych i przypisze do nich ilości i rodzaje wykrytych znaczników, a także ilości błędów i ostrzeżeń, które dotyczą danej podstrony.
Zakładka „Sitemaps”
W zakładce „Sitemaps” znajdziemy listę wszystkich wykrytych linków wewnętrznych i informacji o statusie i możliwościach ich indeksacji, zwracanych kodach statusów HTTP oraz informacji, czy dany URL posiada adres kanoniczny lub czy został przekierowany.
Zakładka „PageSpeed”
W zakładce „PageSpeed” znajdziesz dane pochodzące z integracji z narzędziem „PageSpeed Insights” od Google, po kluczu API.
Przypominam, że podłączenie po API wykonasz w lokalizacji: Configuration > API Access i wybierając „PageSpeed Insights”.
Informacje umieszczone w zakładce „PageSpeed” dotyczą punktacji, którą otrzymuje każda z podstron w narzędziu Google PageSpeed Insights, a także wartości podstawowych wskaźników internetowych „Core Web Vitals”, przedstawione w sekundach.
Warto, abyś posortował dane w kolumnie „Performance Score” według najmniejszych wartości, co pozwoli Ci znaleźć podstrony, które wymagają optymalizacji prędkości wczytywania w pierwszej kolejności. Im wyższa punktacja w skali od 0 do 100, tym lepiej.
Ta sama zasada dotyczy podstawowych wskaźników internetowych. Warto, posortować dane według wartości w kolumnach:
- First Contentful Paint
- Speed Index Time
- Largest Contentful Paint
- Time to Interactive
- Total Blocking Time
- Cumulative Layout Shift
O znaczeniu poszczególnych metryk Core Web Vitals opowiadałem w jednym z poprzednich odcinków SEO Podcastu, który znajdziesz na kanale. Link do tego odcinka umieściłem taże w opisie pod tym filmem.
Zwróć także uwagę na kolumny dotyczące rozmiarów kodu HTML, obrazków, arkuszy styli CSS, bibliotek JS, plików z czcionkami czy zasobami firm trzecich, które są wczytywane na danej podstronie.
Zakładka „Mobile”
Informacje dostępne w zakładce „Mobile” pochodzą z narzędzia PageSpeed Insights i odpowiadają za wyniki analizy wersji mobilnej analizowanego serwisu. Kolumny „PSI Status” i „PSI Error” stanowią o tym, czy narzędzie Screaming Frog przeprowadziło analizę z użyciem PageSpeed Insights po kluczu API.
Pozostałe kolumny zawierają dane procentowe dla kluczowych elementów związanych z widokiem mobilnym, jak np. meta tag „viewport”, który odnosi się do obszaru wyświetlania treści na ekranie urządzenia, rozmiaru skalowania elementów klikalnych dla ekranów dotykowych (czyli target size), a także rozmiaru skalowania treści i czcionek.
Zakładka „Accessibility”
Integracja Screaming Froga po kluczu API z PageSpeed Insights umożliwia analizę danych w „Accessibility”. Jeśli jej nie widzisz, to przypominam o włączeniu integracji w lokalizacji: Configuration > API Access
Informacje w tej zakładce dotyczą problemów związanych ze zgodnością analizowanego serwisu ze standardem WCAG w wersji 2.0, czyli standardem tworzenia stron i sklepów internetowych, które mogą być odczytywane przez narzędzia wykorzystywane między innymi przez osoby niewidome lub mające problemy z odróżnianiem kolorów.
Jeśli zostaną wykryte jakiekolwiek naruszenia, to znajdziesz informacje o nich w odpowiednich kolumnach. Jeśli nie widzisz żadnych danych to znaczy, że Screaming Frog w połączeniu z PageSpeed Insights nie wykrył żadnych problemów związanych z analizowanym przez Ciebie serwisem.
Zakładka „Custom Search”
Jeśli wśród wielu wyników, których nie chcesz analizować pojedynczo jeden po drugim potrzebujesz znaleźć tylko wybrane, na podstawie konkretnego wyrazu lub innych wytycznych, w tym miejscu znajdą się wyniki dla utworzonych przez Ciebie indywidualnych zapytań.
Aby je utworzyć, należy przejść do lokalizacji: Configuration > Custom > Custom Search
Następnie wystarczy kliknąć w przycisk „Add” i utworzyć swoje zapytanie.
Nazwijmy je przykładowo „Ahrefs” i w treści zapytania dodajmy również wyraz „Ahrefs”. Oznaczmy go jako „Page Text”, a następnie zapiszmy go klikając w przycisk „OK”.
Od teraz, po prawej stronie znajdziemy utworzony filtr o nazwie „Ahrefs”, który wyświetli tylko te adresy URL podstron wewnętrznych, które w swojej treści zawierają wyraz „Ahrefs”.
Zakładka „Custom Extraction”
Za pomocą funkcji „Custom Extraction”, którą możesz użyć w lokalizacji: Configuration > Custom > Custom Extraction – możesz wydzielić konkretne elementy znajdujące się na danej stronie.
Moją ulubioną funkcją jest wydzielenie fragmentu kodu na podstawie otwartego serwisu.
Utwórzmy więc nasz kolejny filtr, nazywając go „Logo”.
Teraz kliknijmy w ikonę symbolizującej świat, wprowadźmy adres URL serwisu, a następnie kliknijmy przycisk enter na klawiaturze.
Następnie wystarczy kliknąć w logo, aby po prawej stronie zobaczyć wydzielony fragment kodu odpowiadający za tę część elementu w serwisie. Wystarczy już tylko zapisać tę ścieżkę klikając w przycisk „OK”.
Od teraz, po prawej stronie znajdziemy utworzony filtr, który wyświetli wszystkie adresy URL wewnątrz analizowanego przez nas serwisu, zawierające w kodzie źródłowym dokładnie tę ścieżkę kodu, który zaznaczyliśmy.
Tak samo, jak w przypadku raportu „Custom Search”, od teraz, po prawej stronie znajdziemy utworzony filtr, który wyświetli wszystkie adresy URL wewnątrz analizowanego przez nas serwisu, zawierające w kodzie źródłowym dokładnie tę ścieżkę kodu, który zaznaczyliśmy, czyli w naszym przypadku będzie to logo.
Zakładka „Custom JavaScript”
W zakładce „Custom Javascript” możemy zobaczyć wyniki działania skryptów JS-owych, które to z kolei możemy wykonać wewnątrz narzędzia Screaming Frog, zarówno do wydobycia danych lub zebrania ich w jedno miejsce. Wbudowana obsługa JavaScript oferuje prosty edytor kodu źródłowego oraz tester wykonywania skryptu.
Wprowadzenie skryptu wykonuje się w lokalizacji: Configuration > Custom > Custom JavaScript
Zwróć uwagę, że Screaming Frog posiada również bibliotekę gotowych skryptów, które możesz wykorzystać, w szczególności dzięki wykorzystaniu ChataGPT.
Zwróć szczególną uwagę na możliwość wykorzystania skryptu o nazwie „Template”, dzięki któremu możesz wydawać dowolne polecenia do ChataGPT. Wystarczy jedynie wprowadzić wygenerowany klucz API do ChatGPT, który będzie niezbędny do połączenia z narzędziem Screaming Frog.
Zakładka „Analytics”
Wszystkie informacje, które znajdziemy w zakładce „Analytics” będą pochodzić oczywiście od narzędzia Google Analytics, które podłączyliśmy po API – oczywiście, jeśli mamy dostęp do danych z tego narzędzia.
To, co znajdziemy w tej zakładce, to chociażby zwracane kody nagłówka HTTP, status indeksacji, informacje o wykrytych przekierowaniach, a także szczegółowe dane dla każdej podstron pochodzące z Google Analytics, jak chociażby ilość wygenerowanych sesji.
Zakładka „Search Console”
Ciekawe dane znajdziemy także w zakładce „Search Console” na podstawie danych pochodzących oczywiście z narzędzia „Google Search Console”. Z wyróżniających się informacji, łatwo zauważyć statystyki o ilościach wyświetleń i kliknięć w daną podstronę w wynikach organicznych wyszukiwarki Google, a także obliczony wskaźnik CTR i średnią pozycję, którą zajmuje każdy URL w rankingu wyszukiwarki.
Zakładka „Validation”
Analizując dany serwis, warto zwrócić uwagę na zakładkę „Validation”, której zadaniem jest poinformować Cię o wykrytych błędach.
Zwróć proszę uwagę na listę rozwijaną, w której znajdziesz możliwość filtrowania adresów URL po takich błędach jak:
- błędne znaczniki HTML w sekcji „head”
- sekcja poprzedzająca znacznik „html”
- brakujący znacznik oraz „body”
- podwójny znacznik oraz „body”
- waga podstron powyżej 15MB
Zakładka „Link Metrics”
Dane w zakładce „Link Metrics” zasilają po API takie narzędzia jak Majestic, Ahrefs oraz MOZ, ale z uwagi na to, że podłączyłem jedynie Ahrefsa, to informacje będą dotyczyć tylko tego narzędzia.
To, co pobierane jest z Ahrefsa do Screaming Froga, to informacje o ilości linków zwrotnych kierujących do każdej podstrony i ilości linkujących domen.
Integrując Majestica i MOZ otrzymasz także wartości dotyczące między innymi takich parametrów jak:
- Page Authority
- Domain Authority
- Citation Flow
- Trust Flow
- Ilość linków z domen GOV i EDU.
Zakładka „AI”
Ostatnia zakładka została zaprezentowana dosyć niedawno, kiedy Screaming Frog otworzył się na możliwość integracji z narzędziami do pracy ze sztuczną inteligencją, jak OpenAI, Gemini oraz Ollama.
Aby podłączyć się do tych narzędzi, należy przejść do lokalizacji: Configuration > API Access > AI – i tutaj należy wybrać narzędzie, z którym będziesz chciał się połączyć po kluczu API.
Po wygenerowaniu klucza API i połączenia się przykładowo z ChatemGPT, będziemy mieć możliwość wprowadzenia do 100 promptów, które będziemy mogli wykorzystać w swojej pracy. Aby je dodać, należy przejść do zakładki „Prompt Configuration” i kliknąć w przycisk „Add”.
Wróćmy do zakładki „Internal” i przejdźmy do omówienia zakładek znajdujących się w dolnej części interfejsu narzędzia Screaming Frog. Aby zobaczyć informacje, które zostały w nich umieszczone, należy wybrać dowolny adres URL, który został przeskanowany przez Screaming Froga. Zwiększmy także wysokość okienka, aby zobaczyć, jakie informacje zostały umieszczone w zakładkach.
Zakładki znajdujące się w dolnej części interfejsu
W dolnej części narzędzia Screaming Frog znajdziesz szczegółowe informacje i dane, które zebrało to narzędzie w trakcie crawlowania serwisu. Te dane uzupełniają informacje podzielone na zakładki w górnej części interfejsu Screaming Froga.
Zakładka „URL Details”
Analizę rozpoczynamy od zakładki „URL Details”, w której znajdziemy ogromną ilość informacji czysto technicznych zebranych o wybranej podstronie, jak na przykład:
- użyte kodowanie dokumentu HTML
- język podstrony
- zwrócony kod nagłówka HTTP
- status indeksacji
- tytuł podstrony i jego długość
- zawartość tagu meta description i jego długość
- wykryte nagłówki H1 i H2
- zawartość tagu meta robots
- ustawiony link kanoniczny
- rozmiar dokumentu
- ilość wykrytych wyrazów w treści
- czas odpowiedzi i tak dalej.
Zakładka „Inlinks”
Zakładka „Inlinks” zawiera listę wszystkich wykrytych linków wewnętrznych, które prowadzą do analizowanej przez nas podstrony – w moim przypadku są to linki wewnętrzne prowadzące do strony głównej ze wszystkich podstron wewnętrznych. Wykorzystane anchory zostały umieszczone w kolumnie „Anchor text”. Dodatkowo, znajdziesz tu informacje o typie parametrze linka, czyli link dofollow, zwróconym statusie nagłówka HTTP, rodzaju ścieżki linkowania, jak np. link relatywny (czyli bez początkowego adresu URL domeny), umiejscowienie linka w kodzie HTML (czyli „Link Path”), pozycja linka wewnętrznego (jak np. link nawigacyjny z menu lub link jako anchor z treści podstrony).
Zakładka „Outlink”
Z kolei w zakładce „Outlinks” znajdziesz listę wychodzących adresów URL z wybranej podstrony, a więc dotyczą one zarówno menu nawigacyjnego, jak i linków dostępnych w treści.
Zakładka „Image Details”
Zakładka „Image Details” przedstawia listę wykrytych grafik na danej podstronie, którą analizujemy. Znajdziesz tu między innymi adresy URL do grafik, ich wymiary, treści znaczników „ALT” oraz położenie względem strony, jak np. header (czyli nagłówek) lub content (jako treść podstron).
Zakładka „Resources”
W zakładce „Resources” znajdziesz listę wczytywanych zasobów na danej podstronie, a są to pliki z arkuszami styli CSS, skrypty i biblioteki JS, czcionki oraz grafiki.
Zwróć tu szczególną uwagę na zwracany kod nagłówka HTTP, który powinien być wartością „200” i oznacza to, że został wczytany poprawnie oraz na rozmiar danego pliku, który nie powinien być większy niż kilka MB. Takie elementy wpływają na prędkość wyczytywania serwisu, co wpływa na optymalizację pod SEO.
Zakładka „SERP Snippet”
Jeśli chcesz sprawdzić, jak może wyglądać wynik danej podstrony w SERP-ach (czyli organicznych wynikach wyszukiwania), to możesz to sprawdzić w zakładce „SERP Snippet”. Screaming Frog przedstawia tu także długość tytułu i opisu pobranego z meta description.
Zakładka „Rendered Page”
Jeśli chciałbyś sprawdzić, jak radzi sobie Screaming Frog z renderowaniem strony z wykorzystaniem wszystkich zasobów, które miałeś możliwość widzieć w zakładce „Resources”, możesz to zrobić w zakładce „Rendered Page”.
Jeśli tych danych nie widzisz, to przypominam o włączeniu tej funkcji w lokalizacji: Configuration > Spider > Rendering – tutaj, z gotowej listy urządzeń, które ma udawać, możesz wybrać dowolne urządzenie. A więc do wyboru masz najpopularniejsze smartfony lub ekran desktopowy.
Po wyrenderowaniu wybranej podstrony, znajdziesz listę wszystkich użytych zasobów, czyli skryptów i bibliotek JS, arkuszy styli CSS, czcionek i obrazków. Zweryfikujesz tu, czy wystąpił jakikolwiek problem z wczytaniem danego zasobu, który mógł wpłynąć na wygląd danej podstrony po wyrenderowaniu jej kodu źródłowego.
Zakładka „Chrome Console Log”
W tej części narzędzia Screaming Frog, czyli w zakładce „Chrome Console Log” znajdziesz listę ewentualnie występujących błędów związanych ze skryptami JavaScript, które odnotowało narzędzie w trakcie crawlowania serwisu.
Jeśli nie widzisz tutaj również żadnych danych, to wróć do ustawień renderowania w lokalizacji: Configuration > Spider > Rendering, a następnie sprawdź, czy masz włączoną opcję „Enable JavaScript Error Reporting”.
Jeśli analizujesz błędy związane ze skryptami JavaScript i często otwierasz narzędzia dla webmasterów wbudowane w przeglądarkę Google Chrome, to zobaczysz podobieństwo pomiędzy informacjami wyświetlanymi w przeglądarce, a tymi w narzędziu Screaming Frog.
Autorzy tego narzędzia postarali się, aby wszystkie niezbędne informacje zostały umieszczone w jednym miejscu, bez potrzeby uruchamiania kilku czy kilkunastu narzędzi do wykonywania audytu SEO.
Zakładka „View Source”
W zakładce „View Source” znajdziesz dwie kolumny. Pierwsza wyświetla kod źródłowy analizowanego serwisu przed wyrenderowaniem go przez przeglądarkę internetową (czyli kod HTML i wywoływanie skryptów JavaScript), a druga kolumna wyświetla w pełni wyrenderowany kod źródłowy, wraz ze znacznikami, które zostały dodane po wykonaniu wszystkich skryptów JavaScript.
Dzięki porównaniu ze sobą dwóch kodów źródłowych, możesz przeanalizować to, z jakimi czynnościami muszą poradzić sobie silniki przeglądarek internetowych, aby wyświetlić w pełni działający serwis, który analizujesz.
Drugą ważną rzeczą jest to, że dzięki tym informacjom możesz ocenić, czy kod źródłowy wraz ze wszelkimi skryptami i bibliotekami JavaScipt został wczytany i wykonany poprawnie. W ten sposób zweryfikujesz, czy skrypty wykonały swoje zadania.
Zakładka „HTTP Headers”
W zakładce „HTTP Headers” znajdziesz również dwie kolumny. Po lewej stronie znajdziesz nagłówki wysyłane za pomocą protokołu HTTP przez narzędzie Screaming Frog w trakcie crawlowania analizowanego serwisu. W ten sposób dokładnie przedstawia się domyślnie ten program.
Można dokonać ustawień nagłówków HTTP w lokalizacji: Configuration > HTTP Header
Po prawej stronie natomiast znajdziesz odpowiedzi, które uzyskał crawler Screaming Froga.
Zakładka „Cookies”
Jeśli interesują Cię pliki cookies, które zostaną zebrane w trakcie analizy, to możesz je przeglądać w zakładce „Cookies”. Znajdziesz tutaj wszystkie niezbędne informacje do ich analizy, jak np. nazwa, wartość, domena, ścieżka, czas wygaśnięcia oraz adres, pod którym zostały zapisane.
Zakładka „Duplicate Details”
Mam nadzieję, że w zakładce „Duplicate Details” nie posiadasz żadnych informacji, tak jak w moim przypadku. Jeśli jednak znalazłyby się tutaj jakieś dane, to informowałyby o wykryciu duplikacji treści na danej podstronie.
Zakładka „Structured Data Details”
Dane, jakie zostały zebrane w zakładce „Structured Data Details” odnoszą się do danych strukturalnych, które pobieżnie mogłeś przeanalizować w głównej zakładce, którą przedstawiłem Ci we wcześniejszej części tego odcinka SEO Podcastu, a mianowicie mam na myśli zakładkę „Structured Data”.
Dla porównania, możemy otworzyć dwie zakładki: Structured Data (na górze) oraz „Structured Data Details” (w dolnej części programu).
Jak łatwo zauważyć, na górze znajdziemy ogólne informacje o tym, które znaczniki zostały wykryte na danej podstronie. Natomiast na dole znajdziemy bardziej szczegółowe informacje o wykrytych znacznikach, a dokładnie wartości, które zostały wprowadzone i są przedstawiane robotom indeksującym analizowany przez Ciebie serwis. Warto zwrócić na nie uwagę, czy przypadkiem nie zostały tam wstawione jakieś błędne informacje lub czy przypadkiem nie brakuje jakiejś wartości w kodzie źródłowym.
Zakładka „Lighthouse Details”
Informacje pochodzące z zakładki „Lighthouse Details” stanowią uzupełnienie audytu, które wykonujemy za pomocą Screaming Froga. Jeśli nie jest Ci obcy proces audytu wykonywany za pomocą przeglądarki Google Chrome i wbudowanego w tę przeglądarkę narzędzia do wykonywania audytów w technologii „Lighthouse”, to takie informacje nie będą Ci obce.
I tak jak w przypadku błędów JavaScript pochodzących z konsoli przeglądarki, tak i tutaj wszelkie zebrane dane będą Ci przypominały dokładnie ten sam audyt, który możesz wykonać z poziomu przeglądarki Google Chrome.
Ale, po co otwierać dodatkowe narzędzia, jeśli mamy wszystko w jednym miejscu, prawda?
Na koniec omówienia dolnej części interfejsu narzędzia Screaming Frog, celowo pominę dwie zakładki „Accessbility Details” oraz „Spelling & Grammar Details”, gdyż nie zbieram szczegółowych informacji o dostępności dla osób niepełnosprawnych oraz nie interesuje mnie analiza gramatyki i ewentualnych błędów ortograficznych w treści. Przejdźmy do ostatniej zakładki – „N-grams”.
Zakładka „N-grams”
N-gramy to wszystkie wyrazy, z których składają się zdania w treści. W tej zakładce możesz dokonać szczegółowej analizy treści na danej podstronie. W tym miejscu możesz przeanalizować jej zagęszczenie wybranymi przez Ciebie słowami kluczowymi. Znajdziesz tutaj listę wszystkich wykrytych wyrazów, ich zagęszczenie w treści, występowanie w treści, nagłówkach, tytułach oraz jako anchory linków wewnętrznych.
Przejdźmy teraz do omówienia zakładek znajdujących się po prawej stronie interfejsu narzędzia Screaming Frog.
Zakładki znajdujące się w prawej części interfejsu
Po prawej stronie narzędzia Screaming Frog znajdziesz listę skrótów, które skierują Cię bezpośrednio do wyników i danych, które zebrało narzędzie.
Zakładka „Overview”
Analizę zakładek w prawej części programu rozpoczniemy od zakładki „Overview”, która zawiera podsumowanie wykrytych adresów URL, które możemy przeanalizować, a także listę podzieloną na konkretne zasoby wykryte w trakcie analizy serwisu – zarówno te wewnętrzne, jak i zewnętrzne.
W ten sposób możesz kliknąć w wybrany skrót i znaleźć listę wykrytych arkuszy styli CSS lub obrazków, a także wczytywanych zasobów z zewnątrz, jak np. biblioteki i skrypty JavaScript lub czcionki.
Tak szczegółowo podzielone skróty do odpowiednich danych na pewno pomogą Ci przyspieszyć pracę z narzędziem Screaming Frog i tym samym ułatwią Ci pracę nad znalezieniem konkretnych informacji. Warto skorzystać z tych możliwości, aby nie pominąć ważnych informacji i przede wszystkim błędów, których mógłbyś nie zauważyć w trakcie ręcznej analizy serwisu.
Zakładka „Issues”
A wspominając o wykrytych błędach, warto przejść do zakładki „Issues”, w której narzędzie Screaming Frog przedstawia listę wykrytych błędów, ostrzeżeń i informacji związanych z danymi, które zdążyło wykryć w trakcie analizy.
Lista została podzielona na odpowiednie grupy, symbolizując je kolorami. Najważniejsze zostały oznaczone priorytetem „High” w kolorze czerwonym, a najmniej istotne z punktu widzenia optymalizacji pod SEO posiadają wartość „Low” i są oznaczone kolorem niebieskim. Mimo wszystko warto przyjrzeć się wszystkim uwagom, które zgłasza nam Screaming Frog, gdyż jest to główne zadanie w trakcie wykonywania audytu SEO.
Zakładka „Site Structure”
Listę wewnętrznych adresów URL, które na swojej drodze wykrył crawler Screaming Froga możesz znaleźć także w formie struktury drzewka w zakładce „Site Structure”. Wszystkie adresy zostały wykryte za pomocą linków wewnętrznych oraz mapy linków w formacie XML, jeśli taka została wykryta. Dzięki temu możesz sprawdzić, czy w mapie witryny są umieszczone adresy URL, które zostały przez Ciebie wyłączone i przekierowane, przez co marnują pracę crawlerów Google i tym samym wpływają na marnowanie budżetu indeksacji.
Zakładka „Segments”
Informacje w zakładce „Segments” będą dostępne tylko wtedy, kiedy utworzysz grupy adresów URL w podziale na wybrane słowo w jego adresie, np. blog lub zawierające wybrany format pliku, np. js lub css. Dzięki temu możesz podzielić wszystkie wewnętrzne adresy na segmenty, czyli pogrupować adresy URL na adresy dotyczące wpisów blogowych czy adresy URL do wybranych zasobów wczytywanych w serwisie, jak np. biblioteki JS czy arkusze styli CSS.
Każda grupa lub inaczej segment zostanie oznaczona innym kolorem, a nazwa wybranej grupy adresów URL zostanie umieszczona w trakcie każdego eksportu danych z narzędzia Screaming Frog.
Aby utworzyć pierwszy segment z wybranymi adresami URL, przejdź do lokalizacji: Configuration > Segments – a następnie kliknij w przycisk „Add”.
Przykładowo, utworzę bardzo prosty segment o nazwie „BLOG”, który będzie identyfikował wszystkie wewnętrzne adresy URL, które w swojej składni zawierają wyraz „blog”.
A więc zmienię nazwę „New Segment” na „BLOG” i pozostawię domyślny kolor tego segmentu w HEX-ie. W polu zapytania wprowadzę wyraz „blog”. Następnie kliknę przycisk „OK”, aby zamknąć okienko.
Jak widzisz, zadanie zostało wykonane poprawnie – Screaming Frog zapytał od razu o użycie segmentacji i przefiltrował w poprawny sposób wszystkie adresy URL, pozostawiając dwie kategorie segmentów: adresy URL bez segmentacji oraz mój utworzony segment o nazwie „BLOG”. Dokładnie w ten sposób możesz filtrować swoje dane.
Zachęcam Cię do utworzenia większej ilości segmentów, aby ułatwić sobie pracę w trakcie wykonywania audytu SEO i przede wszystkim, aby nigdy więcej nie uciekły Ci żadne dane w trakcie analizy. Ilość możliwych segmentów jest ogromna i nie ogranicza nas jedynie praca na samych adresach URL.
Zakładka „Response Times”
Następną zakładkę, którą warto przejrzeć jest „Response Times”, której zadaniem jest poinformować Cię o tym, ile adresów URL odnotowały najszybszy i najwolniejszy czas odpowiedzi w sekundach. Dane te zostały również podzielone na wartości procentowe.
Zakładka „API”
Pozostała nam zakładka API, którą mogłeś wcześniej zobaczyć i użyć, podczas podłączania narzędzi po kluczu API, które poszerzają możliwości Screaming Froga o dodatkowe funkcje i mierzone metryki. Znajdziesz tu listę wszystkich obsługiwanych na ten moment narzędzi, z którymi możesz się połączyć.
Pominę ostatnią zakładkę „Spelling & Grammar” – tak jak wspominałem już w trakcie tego odcinka SEO Podcastu – nie będę analizował gramatyki i ewentualnych błędów ortograficznych w treści.
Mam nadzieję, że wymienione narzędzia pomogą Ci w pracy nad analizą profilu linków i w utrzymaniu nad nim porządku. Sugeruję, abyś taką weryfikację wykonywał cyklicznie, np. raz na miesiąc lub raz na kwartał.
To wszystko, co chciałem Ci przekazać w tym odcinku SEO Podcastu.
Mam nadzieję, że ten praktyczny odcinek SEO Podcastu nauczył Cię obsługi narzędzia Screaming Frog i od dziś będziesz umiał wykonywać własnoręcznie audyt SEO.
Jeśli spodobała Ci się jego tematyka lub masz dodatkowe pytania, na które chciałbyś poznać odpowiedź, to zapraszam do sekcji komentarzy pod tym filmem.
Kliknij też łapkę w górę i zasubskrybuj ten kanał, abyś otrzymywał powiadomienia o kolejnych praktycznych filmach na kanale SEO Podcastu.
Zapraszam Cię również do sprawdzenia moich dwóch książek o pozycjonowaniu oraz mojego kursu SEO. Link do książek i kursu znajdziesz w opisie pod tym filmem.
Trzymaj się, cześć!
Poszukujesz agencji SEO w celu wypozycjonowania swojego serwisu? Skontaktujmy się!