SEO-PODCAST.PL – Jak śledzić aktywność botów Google za pomocą Screaming Frog Log File Analyser?

SEO-PODCAST.PL – Jak śledzić aktywność botów Google za pomocą Screaming Frog Log File Analyser?
Jak śledzić aktywność botów Google za pomocą Screaming Frog Log File Analyser?

W tym odcinku pokażę krok po kroku, jak wykorzystać Screaming Frog Log File Analyser do śledzenia aktywności botów wyszukiwarek na Twojej stronie. Dowiesz się, jak analizować pliki logów serwera, aby zidentyfikować kluczowe informacje, takie jak wizyty robotów Google, statusy HTTP czy problemy z indeksowaniem. Omówimy praktyczne zastosowanie tego narzędzia, w tym wykrywanie niezaindeksowanych stron i błędów, takich jak 404 czy 500, analizę wzorców odwiedzin botów wyszukiwarek i optymalizację crawl budgetu czy śledzenie, które strony roboty wyszukiwarek odwiedzają najczęściej, a które ignorują. Wyjaśnię także, jak filtrować i eksportować dane z plików logów oraz jak efektywnie interpretować wyniki, by poprawić SEO techniczne. To narzędzie sprawdzi się zarówno dla małych witryn, jak i dużych sklepów internetowych, pozwalając zoptymalizować indeksację i widoczność w wyszukiwarkach. Ten odcinek to praktyczny przewodnik dla każdego, kto chce usprawnić działania SEO i lepiej zrozumieć, jak boty crawlujące widzą Twoją stronę lub sklep internetowy!

Spis treści:

Wideo

YouTube Video

Transkrypcja

Hej, w tym odcinku SEO Podcastu chciałbym pokazać Ci, w jaki sposób powinieneś cyklicznie analizować zachowanie crawl botów, które odwiedzają Twoją stronę lub sklep internetowy, aby go pobrać i następnie zaindeksować.

Dzięki tej czynności dowiesz się, kiedy boty wyszukiwarek odwiedzały Twój serwis i czy na swojej drodze spotkały odpowiednie informacje czy może błędy.

Do analizy lich aktywności wykorzystamy narzędzie Screaming Frog Log File Analyser. Zapraszam do kolejnego praktycznego odcinka SEO Podcastu!

Analiza logów serwerowych to kluczowa czynność w trakcie w optymalizacji stron i sklepów internetowych, którą wykonuję cyklicznie, np. raz na miesiąc dla średnich i większych sklepów internetowych z dużą ilością produktów lub raz na trzy miesiące dla niewielkich stron internetowych.

Czynność tę wykonuję pod kątem sprawdzenia, które podstrony są rzadziej i częściej odwiedzane przez crawl boty, czy odwiedzane są podstrony z parametrami w adresie URL (np. w postaci filtrów w sklepach internetowych), które nie powinny być indeksowane w wyszukiwarce Google, a także w celu uzupełnienia innych narzędzi SEO, jak na przykład główne narzędzie o nazwie „Screaming Frog SEO Spider” w celu znalezienia ewentualnych błędów serwera, które utrudniają indeksowanie serwisu. Regularne monitorowanie tych błędów pozwala szybko zareagować, czyli je wychwycić i najczęściej naprawić „od ręki”.

To, na co chciałbym również zwrócić Ci uwagę, to zasoby, które również nie powinny być indeksowane w wyszukiwarce Google (np. pliki JS lub inne), których nie ma sensu indeksować i marnować na nie ograniczonego crawl budgetu.

A jeśli uważasz, że wszystko masz pod kontrolą, to mimo wszystko warto w dalszym ciągu analizować zawartość logów serwerowych pod kątem zwykłej weryfikacji, czy po wdrożeniu przez Ciebie poprawek optymalizacyjnych i czy zmiany te wpłynęły na sposób odwiedzania witryny przez crawl boty. Mogłeś przykładowo zmienić zawartość mapy witryny czy strukturę adresów URL dla linków kanonicznych, co ma bardzo istotne znaczenie w optymalizacji technicznej pod SEO.

Nie przedłużając, zabierzmy się za analizę. Ale zanim do niej dojdzie, pokażę w prosty sposób, jak można pobrać logi serwerowe wykorzystując panel Direct Admin na serwerze. W moim przykładzie wykorzystam hosting, który posiadam w firmie Cyber Folks.

Pobranie pliku *.log

Logi serwerowe nie są i nie powinny być ukryte w panelu administracyjnym serwera. I tak w moim przypadku zlokalizowane są w sekcji „Bezpieczeństwo”, w zakładce „Logi”.

Panel umożliwia mi pobranie logów w trzech wersjach:

  • pełny plik log,
  • 10 ostatnich linii,
  • 100 ostatnich linii.

Jeśli chcesz jedynie przetestować zawartość logów, możesz to zrobić na 10 ostatnich liniach. Z kolei, jeśli chcesz rzetelnie przeanalizować zawartość logów, polecam pobranie pełnego pliku.

Jeśli panel serwera nie wyeksportuje dla Ciebie pliku w formacie *.log lub *.txt, to skopiuj jego zawartość do notatnika i zapisz plik jako jeden z tych dwóch formatów. Obydwa zostaną odczytane przez narzędzie Screaming Frog Log File Analyser, które wykorzystamy do odczytania zawartości.

Oczywiście, logi możesz przeanalizować już bezpośrednio po ich wyeksportowaniu, ale uważam, że ich analizę lepiej wykonywać za pomocą czytelnych wykresów, które zostaną wygenerowane na ich podstawie.

Zanim jeszcze przejdziemy do rozpoczęcia analizy, przygotujmy nasze środowisko pracy, a dokładniej przydzielmy więcej pamięci RAM, niż domyślnie ustawione jest to w aplikacji. W tym celu przejdźmy do ustawień programu Log File Analyser, a dokładniej do „Memory Allocation”. W moim przypadku wykorzystuję system macOS, więc kliknę w nazwę programu, a następnie wybiorę „Settings” i „Memory Allocation”.

Następnie z domyślnej wartości „2GB” zmienię na „10 GB”, aby przydzielić więcej pamięci RAM dla pracy tego narzędzia, co umożliwi jego szybszą pracę. Oczywiście tę wartość powinieneś ustawić jako 1/3 Twoich zasobów pamięci RAM i nie powinieneś kierować się dokładnie tą wartością.

Następnie kliknij przycisk „OK and Restart”, aby wprowadzić zmiany.

Import pliku *.log i utworzenie projektu

Utwórzmy teraz nasz projekt przeciągając plik z logami do okienka programu metodą „przeciągnij i upuść” (z ang. drag and drop), ale za nim to zrobimy, zwróć proszę uwagę na możliwość zaimportowania pliku log do testów. Na jego podstawie również można nauczyć się obsługi narzędzia Log File Analyser.

Po przeciągnięciu pliku z logami, narzędzie utworzy dla Ciebie nowy projekt. W pierwszym kroku poprosi Cię o podanie nazwy projektu. Możesz ją pozostawić jako domyślną, ale zachęcam do wprowadzenia daty, która w przyszłości będzie Ci pomagać w porównaniu logów serwerowych ze sobą. Dlatego wprowadź dzisiejszą datę.

Przejdźmy do zakładki „User Agents”, aby sprawdzić, które crawl boty będzie reprezentowało narzędzie od Screaming Frog. Domyślnie wybrane zostały boty od wyszukiwarek takie jak: amerykańskie wyszukiwarki Google i Microsoft Bing, rosyjski Yandex oraz chińska wyszukiwarka Baidu.

Aby zmienić wybór i kolejność botów, wystarczy, że zamienisz je ze sobą z dwóch zbiorów: „Available” (czyli dostępne do wykorzystania) oraz „Selected” (czyli wybrane).

Pozostałe zakładki jak „Include” i „Exclude” umożliwiają wybór lub pominięcie wybranych adresów URL do analizy, a dzięki możliwości zakładki „Remove Parameters” pominie wszystkie adresy URL, które posiadają w swojej strukturze parametry, jak na przykład popularny „gclid” i „fbclid” od narzędzi reklamowych Google i Facebook czy inne, dowolne parametry, które zostały narzucone przez wykonywane skrypty JS lub PHP w Twoim serwisie. Należy wprowadzić każdy parametr jeden pod drugim, aby wszystkie adresy URL, które je wykorzystują zostały pominięte.

Po wszystkim, kliknij przycisk „OK”, aby rozpocząć analizę logów serwerowych.

I tak jak w moim przypadku, narzędzie może poprosić Cię o wskazanie adresu URL do serwisu, którego dotyczą logi serwerowe, jeśli w ich zawartości nie znajdzie jego adresu. Wprowadzę adres strony internetowej mojej agencji SEO, gdyż to jej właśnie dotyczą logi, które wykorzystam na cele tego odcinka SEO Podcastu. Pamiętaj proszę o wprowadzeniu pełnego adresu URL z wykorzystaniem protokołu „https”.

Omówienie układu interfejsu

Zanim przejdziemy do analizy zebranych danych z wczytanego pliku, zwróćmy uwagę na układ interfejsu narzędzia Screaming Frog Log File Analyser, który jest bardzo zbliżony do narzędzia Screaming Frog SEO Spider, dzięki czemu bez większych problemów będziemy mogli poruszać się w tym środowisku.

To, na co chciałbym zwrócić Twoją uwagę to główne zakładki, które umieszczone są w lewej, górnej części aplikacji oraz listy rozwijane znajdujące się w prawej, górnej części narzędzia, których zadaniem jest przefiltrowanie danych.

Zakładki po lewej stronie zawierają pogrupowane informacje, które zostały wczytane do narzędzia Log File Analyser z naszego zaimportowanego pliku. Natomiast po prawej stronie możemy skorzystać z filtrowania danych, które wyświetlą dane, które zostały zebrane przez prawdziwe i zweryfikowane boty lub dane zebrane przez sztuczne boty crawlujące. Oczywiście, najlepiej pozostać przy opcji „Verified”.

Drugi filtr to już możliwość wyświetlania danych zebranych przez wszystkie lub wybrane boty crawlujące.

Trzeci filtr odpowiada za wybór danych w oparciu o proponowany lub wybrany przez nas przedział czasowy, w oparciu o zakres zebranych danych w logach serwerowych.

Przejdźmy więc do analizy zebranych logów.

Zakładka „Overview”

Zakładka „Overview” podzielona została na cztery segmenty. W których jeden wyświetla wartości w tabeli składającej się z dwóch kolumn. Pozostałe trzy segmenty to wykresy liniowe, domyślnie odpowiadające za wyświetlanie zwracanych kodów nagłówków HTTP (Response Codes), ilość wykrytych aktywności botów crawlujących z podziałem na nie (Events) oraz ilość adresów URL, które wzięły pod uwagę w trakcie swojej pracy (URLs).

Autorzy narzędzia umożliwili nam wyeksportowanie danych dotyczących każdego wykresu z osobna do pliku w formacie CSV lub XLS po kliknięciu w przycisk „Export”, znajdujący się w prawym, górnym rogu nad każdym wykresem. Istnieje także możliwość modyfikacji wyświetlanych danych na każdym wykresie po kliknięciu w ikonę koła zębatego, znajdującego się obok przycisku „Export”.

Wróćmy do pierwszego segmentu z wartościami różnych parametrów.

Tabela składa się z danych dotyczących wartości dla takich parametrów, jak:

  • Unique URLs – czyli ilość unikalnych adresów URL, które zostały odwiedzone przez boty;
  • Unique URLs per day – ilość unikalnych adresów URL odwiedzonych przez boty w podziale na jeden dzień;
  • Total events – łączna ilość wykrytych wejść przez boty;
  • Events per day – dzienna ilość wykrytych wejść przez boty;
  • Total bytes – łączna ilość pobranych bajtów danych przez boty;
  • Average bytes – średnia ilość pobranych bajtów danych;
  • Bytes per day – ilość pobranych bajtów danych dziennie;
  • Average time taken (ms) – średni czas, który był potrzebny na pracę botów (w milisekundach);
  • Errors – ilość wykrytych błędów przez boty;
  • Provisional (1xx) – statusy kodów nagłówka HTTP z wartością 100 i wzwyż;
  • Success (2xx) – poprawne adresy URL ze statusem 200 i wzwyż;
  • Redirection (3xx) – przekierowane adresy URL ze statusem 300 i wzwyż;
  • Client Error (4xx) – błędne adresy URL ze statusem 400 i wzwyż;
  • Server Error (5xx) – adresy URL z błędem serwera ze statusem 500 i wzwyż.

Zwróć także uwagę na przycisk „Charts” znajdujący się pod głównymi zakładkami w lewym, górnym rogu.

Za jego pomocą możemy dodać do interfejsu narzędzia Log File Analyser dodatkowe wykresy, które domyślnie są ukryte lub ukryć wykresy domyślnie wyświetlane. Wystarczy poprzenosić odpowiednie wykresy z grup „Hidden” (czyli ukryty) oraz „Visible” (czyli widoczny), a następnie kliknąć przycisk „OK”.

Przejdźmy teraz do drugiej zakładki „URLs”.

Zakładka „URLs”

Zanim przejdziemy do analizy zebranych danych, chciałbym zwrócić uwagę na interfejs, który wyglądem przypomina narzędzie Screaming Frog SEO Spider. Zwróć więc uwagę na funkcję filtrowania danych, która znajduje się pod głównymi zakładkami. Otrzymaliśmy taką samą możliwość filtrowania, jak w przypadku poprzedniego narzędzia. Tuż obok znajdziemy przycisk „Export”, który umożliwia eksport danych z tabeli do plików w formacie CSV lub XLS.

Zwróć proszę także uwagę na dolne zakładki: URL Details, Events, Referers i Chart, które zawierają podsumowanie zawierające informacje na temat danego adresu URL, który można wybrać po kliknięciu w dany wiersz. Do tych zakładek jeszcze wrócę w dalszej części tego filmu. Zwróćmy teraz uwagę na dane zawarte w tabeli.

Idąc od lewej strony znajdziemy tu kolumny zawierające takie wartości, jak:

  • adresy URL podstron odwiedzonych przez boty;
  • ostatni zwrócony kod nagłówka HTTP;
  • data i godzina ostatniej wizyty botów;
  • liczba minionych dni od ostatniej wizyty botów w przypadku, gdy analizujesz szeroki zakres czasu i w logach znajduje się więcej wizyt niż jedna;
  • rodzaj wykrytej treści i contentu pod danym adresem URL;
  • wielkość dokumentu podana w bajtach;
  • średnia ilość bajtów;
  • średni czas odpowiedzi w milisekundach;
  • ilość wizyt pod danym adresem URL;
  • ilość wykrytych botów;
  • ilości wizyt poszczególnych botów.

Narzędzie Screaming Frog Log File Analyser posiada bardzo fajną funkcję, którą wywołamy w menu kontekstowym po kliknięciu prawym przyciskiem myszki w dany adres URL.

Po kliknięciu i wywołaniu menu kontekstowego, będziemy mogli:

  • skopiować dany adres URL;
  • otworzyć go w przeglądarce;
  • sprawdzić, czy jest on zaindeksowany w wyszukiwarkach Google, Yahoo, Bing i Yandex;
  • sprawdzić profil linków, który posiada;
  • otworzyć go w serwisie „Wayback Machine”, aby sprawdzić, jak wyglądały jego wcześniejsze wersje na przestrzeni miesięcy lub lat;
  • sprawdzić listę innych serwisów, które występują na tym samym hostingu;
  • otworzyć plik robots.txt
  • zweryfikować poprawność kodu źródłowego za pomocą walidatora kodu HTML.

Do przeanalizowania pozostają nam jeszcze cztery dolne zakładki, które będą zawsze w ten sam sposób wyświetlać podsumowanie, które będziemy mieć ciągle pod ręką.

Klikając w zakładkę „URL Details” łatwo zauważyć te same dane, które przed chwilą omówiliśmy.

Z kolei w zakładce „Events” znajdziemy już nowe informacje, które dotyczą czasu ostatniej wizyty bota, jego adresu IP, metody pobrania danych, wersji protokołu HTTP, który wykorzystuje, otrzymanego kodu nagłówka HTTP, ilości bajtów, które pobrał, czasu w milisekundach oraz identyfikujący go user agent. To między innymi na tej podstawie można głównie zidentyfikować boty crawlujące.

W zakładce „Referers” znajdziemy ilość wizyt pod wybranym przez nas adresem URL, a zakładka „Chart” wyświetla wykres aktywności bota w postaci wejść w danym przedziale czasowym.

Przejdźmy do trzeciej, głównej zakładki narzędzia Log File Analyser – Response Codes.

Zakładka „Response Codes”

Jak sama nazwa wskazuje, w tej zakładce znajdziemy informacje o zwróconych kodach odpowiedzi dla nagłówków HTTP każdego przecrawlowanego przez boty adresu URL.

W tabeli znajdziemy listę adresów URL, ostatni zwrócony kod odpowiedzi, datę i godzinę ostatnich odwiedzin przez bota, ilość dni od ostatniej wizyty, ilości wizyt oraz informację o niespójności zwracanych kodów odpowiedzi w przypadku, jeśli za jednym razem bot otrzyma zwrócony kod np. 200, a za innym np. 301.

Po analizie kodów odpowiedzi nagłówków HTTP przejdźmy do zakładki „User Agents”.

Zakładka „User Agents”

Jeśli chciałbyś zweryfikować, który dokładnie bot przecrawlował Twój serwis i jakie informacje zebrał, to w tej zakładce otrzymasz przypisane informacje do każdego bota, który został zidentyfikowany. Pozostałe kolumny w tabeli powtarzają się z poprzedniej zakładki, więc nie ma potrzeby ich omawiać.

Przejdźmy do zakładki „Referers”.

Zakładka „Referers”

W tej zakładce znajdziemy listę adresów URL, które wywołały pracę botów crawlujących. Na tej liście rozpoznaję adresy URL do wpisów blogowych, które zostały zgłoszone przeze mnie do indeksacji za pomocą panelu Google Search Console. Dzięki tej czynności możemy ręcznie przesyłać prośbę o indeksację każdego pojedynczego adresu URL, który wkleimy w pole wyszukiwarki znajdujące się w panelu GSC.

Przejdźmy do następnej zakładki „Directories”.

Zakładka „Directories”

Znajdziesz tutaj listę adresów URL do podkatalogów i podstron w obrębie domeny, które zostały zidentyfikowane przez boty crawlujące w wybranym okresie czasowym. Na tej podstawie możesz zweryfikować, które z nich powinny zostać zaindeksowane w wyszukiwarce, a które nie. Wśród adresów URL łatwo rozpoznasz katalogi zawierające np. skrypty i biblioteki JS, które zostały znalezione przez boty, na podstawie pobranego przez nie kodu źródłowego.

Przejdźmy do zakładki „IPs”.

Zakładka „IPs”

W porównaniu do poprzedniej zakładki z listą user-agentów, w tej zakładce znajdziesz listę adresów IP, które reprezentują wybrane boty crawlujące. Ich listę warto pobrać i dodać do jakiejś „white listy”, jeśli posiadasz dodatkowe zabezpieczenie na serwerze w postaci firewalla, lub inne skrypty, które mogą zabezpieczać Twój serwis. Tutaj również mam na myśli zewnętrzne usługi zabezpieczające przed atakami DDoS, jak na przykład popularna usługa o nazwie „Cloudflare”.

Posiadając tak zwaną białą listę adresów IP będziemy mieli pewność, że żaden skrypt nie zablokuje możliwości pracy botów crawlujących pochodzących od popularnych wyszukiwarek, jak np. Google, Bing, Yandex czy innych.

Przejdźmy do zakładki „Countries”.

Zakładka „Countries”

W tej zakładce znajdziesz piękną wizualizację, na której narzędzie Log File Analyser zaznaczy kraje, z których będą pochodzić wejścia botów. Nie trudno zauważyć, że kraje, z których pochodzą boty crawlujące od wyszukiwarek Google i Bing będą pochodzić ze Stanów Zjednoczonych.

Możesz kliknąć w wybrany kraj, aby Log File Analyser przedstawił Ci listę wszystkich adresów URL, które zostały odwiedzone przez boty, a także listę adresów IP i user-agentów każdego z nich.

Przejdźmy teraz do zakładki „Bytes”.

Zakładka „Bytes”

Ta zakładka będzie miała duże znaczenie w przypadku analizy marnowania crawl budgetu, czyli ograniczonego limitu do wykorzystania przez boty podczas ich pojedynczego wejścia i pobrania danych w naszym serwisie. Oficjalnie Google informuje o limicie 15MB, które podczas jednej wizyty może wykorzystać na swoją pracę bot crawlujący, dlatego zwróćmy szczególną uwagę, które dane umożliwiamy do pobrania i indeksacji.

Niech informacje z tej zakładki posłużą nam do analizy i podjęcia odpowiedniej decyzji o optymalizacji zasobów w postaci grafik i bibliotek JS, a także ilości wyrenderowanego kodu HTML po wykonaniu wszystkich skryptów w naszym serwisie. Im szybciej nasz serwis będzie się wczytywał i im mniej zasobów będzie musiał pobrać bot crawlujący, tym lepiej.

Przejdźmy teraz do zakładki „Events”.

Zakładka „Events”

Jeśli chciałbyś przeanalizować listę adresów URL, które dzień po dniu, godzina po godzinie, minuta po minucie zostały brane pod uwagę przez odwiedzające je boty crawlujące, to w tej zakładce będziesz miał taką możliwość. Posortuj wszystkie adresy URL według kolumny „Timestamp”, czyli daty i godziny odwiedzin botów crawlujących.

W zakładce „Events” znajdziesz także listę adresów IP botów crawlujących, metodę pobrania danych, wersję protokołu HTTP, zwrócony kod nagłówka HTTP, ilość bajtów danych, które zostały pobrane, czas potrzebny na realizację aktywności w milisekundach, identyfikator user-agent i tak dalej.

Przejdźmy do ostatniej zakładki, którą omówimy. Jest nią zakładka „Imported URL Data”.

Zakładka „Imported URL Data”

W tej zakładce autorzy narzędzia Screaming Frog Log File Analyser umożliwili nam importowanie plików CSV lub Excel z dowolnymi danymi, które mają nagłówek i kolumnę „URL”. Przykładowo, możemy sami zaimportować dane, które będziemy chcieli ręcznie przecrawlować i zaindeksować, adresy URL z mapy witryny lub eksport „najlepszych stron” z narzędzia Majestic. Możemy tu zaimportować wiele plików, a dane zostaną automatycznie dopasowane do adresów URL.

Na cele tego odcinka SEO Podcastu przygotowałem wcześniej listę wewnętrznych adresów URL, które wyeksportowałem z zakładki „Internal” dla strony internetowej mojej agencji, aby na żywym przykładzie pokazać Ci, co możemy przeanalizować w tej zakładce. Wyeksportowane dane zapisałem do pliku w formacie *.CSV

W ten sposób wygenerowany plik wystarczy już tylko przeciągnąć za pomocą funkcji „przeciągnij i upuść” (z ang. drag & drop), aby dane zostały wczytane poprawnie.

Zapytasz pewnie, jaki jest sens analizy tych wewnętrznych adresów URL? Chętnie Ci wyjaśnię. Otóż analiza wewnętrznych adresów URL z wykorzystaniem wszystkich zebranych danych na ich temat pozwoli nam zweryfikować ewentualne błędy, które na pewno na swojej drodze spotkają boty crawlujące, a przez to zmarnujemy crawl budget lub uniemożliwimy im całkowicie indeksację danej podstrony wewnętrznej (np. w przypadku, gdy na swojej drodze otrzymają zwrócony kod nagłówka HTTP o wartości innej niż wartość „200”).

Zwróćmy więc uwagę, jakie dane zostały wyeksportowane do pliku w formacie *.CSV z zakładki „Internal” narzędzia „Screaming Frog SEO Spider”.

Znajdziesz tu kolumny zawierające:

  • listę wewnętrznych adresów URL
  • typ dokumentu
  • zwrócony kod nagłówka HTTP
  • status danego kodu nagłówka HTTP – czyli jego objaśnienie słowne
  • status indeksacji (np. indexable w przypadku umożliwienia indeksacji robotom wyszukiwarek)
  • zawartość znacznika meta title i jego długość
  • zawartość znacznika meta description i jego długość
  • nieaktualne znaczniki meta keywords, które Google już nie bierze pod uwagę
  • zawartość nagłówków H1 i H2 oraz ich długość
  • zawartość znacznika meta robots i jego wartości
  • znaczniki rel z wartościami „next” i prev” dla paginacji
  • rozmiar dokumentu w bajtach
  • ilość wykrytych wyrazów, zdań i średnia ilość wyrazów na zdanie
  • wartość znacznika „text/ratio”
  • głębokość linku wewnętrznego, czyli ilość kliknięć potrzebnych do wykonania, aby wejść do danego adresu URL (mierzone od strony głównej)
  • liczba wykrytych linków wewnętrznych i wychodzących pod danym adresem URL
  • czas odpowiedzi serwera dla danego adresu URL
  • język dokumentu HTML
  • wersja protokołu HTTP i tak dalej.

Jak widzisz, ilość danych, które powinieneś przeanalizować jest bardzo duża i stanowią one mniejszą i większą wartość dla robotów indeksujących. Mimo wszystko zachęcam Cię do weryfikacji wszystkich danych i poprawy ich wartości, które w mniejszym lub większym stopniu wpłyną na wyniki w rankingu wyszukiwarek.

Mam nadzieję, że ten praktyczny odcinek SEO Podcastu nauczył Cię obsługi narzędzia do analizy logów i od dziś będziesz umiał weryfikować pracę botów od najpopularniejszych wyszukiwarek jak np. Google i Bing.

Jeśli spodobała Ci się jego tematyka lub masz dodatkowe pytania, na które chciałbyś poznać odpowiedź, to zapraszam do sekcji komentarzy pod tym filmem.

Kliknij też łapkę w górę i zasubskrybuj ten kanał, abyś otrzymywał powiadomienia o kolejnych praktycznych filmach na kanale SEO Podcastu.

Zapraszam Cię również do sprawdzenia moich dwóch książek o pozycjonowaniu oraz mojego kursu SEO. Link do książek i kursu znajdziesz w opisie pod tym filmem.

Trzymaj się, hej!

 

Poszukujesz agencji SEO w celu wypozycjonowania swojego serwisu? Skontaktujmy się!

Podziel się treścią:
Kategoria:

Wpisy, które mogą Cię również zainteresować: