Ten odcinek będzie kontynuacją poprzedniego, dotyczącego crawlowania naszego serwisu przez crawlery Google i porozmawiamy w nim o najpopularniejszych i najczęściej występujących problemach w serwisach internetowych. Dowiesz się, jak ważną funkcję z punktu odpowiedniej optymalizacji pod pozycjonowanie pełni znacznik „Canonical” i jakie skutki niesie jego brak w Twoim sklepie internetowym. Porozmawiamy także o tym, jaki wpływ na odpowiednią indeksację Twojej witryny w wyszukiwarce Google mają przekierowania 30x i kiedy należy je stosować. Ustalimy, dlaczego odpowiednia prędkość działania naszego serwisu i opublikowana w nim treść mają znaczenie dla algorytmów wyszukiwarki Google oraz w jaki sposób odpowiednio zoptymalizować treść pod wybrane przez nas frazy. Opowiem Ci o tym, w jaki sposób budować mapę linków wewnętrznych dla dużych serwisów i sklepów internetowych, posiadających od kilkuset do kilku tysięcy podstron. Poznasz tutaj mój sposób na budowanie sitemap dla dużych serwisów internetowych. Nie zabraknie także informacji o istocie posiadania pliku robots.txt i zawarcia w nim odpowiednich komend dla robotów indeksujących Twój serwis internetowy oraz podpowiem Ci, w jaki sposób zautomatyzować swoją pracę nad analizą i poprawą meta tagów.
Spis treści:
Podcast
Wideo
Transkrypcja
- Czym jest znacznik canonical i jaki ma wpływ na indeksację?
- Jak na indeksację wpływają przekierowania 30x?
- Jakie znaczenie dla Google ma prędkość działania serwisu?
Na te i na inne pytania poznasz odpowiedzi w dzisiejszym odcinku SEO Podcastu!
Ten odcinek SEO Podcastu potraktujmy jako kontynuację poprzedniego, w którym opowiedziałem o procesie crawlowania naszego serwisu oraz o tym, co wpływa na efektywną pracę robota indeksującego i w jaki sposób możemy mu pomóc, aby dostał się do najważniejszych zasobów, które powinny zostać zaindeksowane w wyszukiwarce Google.
Dziś opowiem Ci o tym, jakie techniczne aspekty mogą wpływać na problemy z indeksacją Twojego serwisu i co należy poprawić, aby do niej doszło i to w miarę szybko oraz na co zwrócić uwagę, aby nie dopuścić do sytuacji, w której Google w pewnym dniu nagle wyindeksuje większą lub mniejszą część podstron Twojego serwisu z indeksu. A więc weź coś do pisania i ruszajmy!
Czym jest znacznik canonical i jaki ma wpływ na indeksację?
Mówiąc o indeksacji, należy wziąć pod uwagę problem duplikacji, która może występować w Twoim serwisie, a dokładniej te aspekty techniczne, nad którymi należy się pochylić, aby do niej nie doprowadzić. I tak o to na pierwszą pozycję wyłania się znacznik „canonical”. Jego zadaniem jest poinformowanie roboty indeksujące o tym, gdzie znajduje się oryginalna i unikalna treść naszego w serwisu w przypadku, gdy na danej podstronie występuje stronicowanie (np. w kategorii w sklepie internetowym), czy możliwość zmiany np. koloru produktu w karcie produktu, w przypadku posiadania tylko jednego opisu dla wszystkich kolorów.
W przypadku kategorii produktów w sklepie, która zawiera stronicowanie, ważne jest, abyś umieścił znacznik canonical wskazujący dynamicznie na dany numer strony, na której aktualnie będziesz się znajdować. Jeśli będzie inaczej, to Google będzie mógł wyindeksować pozostałe adresy URL (dotyczące pozostałych stron paginacji) ze swojego indeksu.
Z kolei w przypadku produktu z różnymi atrybutami, znacznik canonical powinien wskazywać zawsze na główny adres URL do produktu (bez żadnych dodatkowych parametrów). Tutaj mogę Cię uspokoić, bo jeśli korzystasz z popularnych systemów CMS lub e-commerce, to mają taką funkcjonalność wbudowaną (np. Prestashop). W tym wypadku zalecam zawsze jedynie weryfikację tego znacznika.
Jak na indeksację wpływają przekierowania 30x?
Prowadząc sklep internetowy z często rotującym asortymentem, masz na pewno do czynienia z przekierowaniami 301. I to w przypadku, kiedy wyłączasz ze sprzedaży produkt znajdujący się w indeksie wyszukiwarki, aby od razu przekierować użytkowników i roboty crawlujące na adres URL wskazujący na aktywny produkt lub ewentualnie na kategorię, w której się znajdował.
W tym wypadku jedno jest pewne: jeśli rzadko stosujemy taką operację, to Google będzie dużo szybciej indeksował nasz serwis i rzadziej zauważymy fluktuacje w pozycjach serwisu, w którym dokonujemy zmian. Wiadomo, każda operacja przeindeksowania serwisu wiąże się z mocą obliczeniową, za którą płaci firma Google – nie my, dlatego musimy na to uważać.
Jakie znaczenie dla Google ma prędkość działania serwisu?
Z roku na rok Google stawia coraz bardziej na prędkość wczytywania serwisów znajdujących się w jego indeksie, która z kolei ma wpływ na komfort korzystania z naszego serwisu przez odwiedzających go użytkowników. W tym wypadku chciałbym zwrócić uwagę na bardzo istotny wskaźnik, który jest mierzony przez algorytmy wyszukiwarki, czyli TTFB, czyli wartość oznaczaną w milisekundach mierzoną od momentu wysłania pierwszego zapytania do serwera, aż do chwili otrzymania pierwszego bajtu danych wysłanych przez nasz serwer do użytkownika.
Prędkość wczytywania serwisu i dostępnych w nim podstron ma znaczenie w jego indeksacji, a zbyt długi czas wczytywania ma wpływ na wyindeksowanie wyników z wyszukiwarki. W końcu nikt nie chce czekać kilkunastu sekund na wczytanie serwisu. O ile kilka lat temu można było to jeszcze jakość znieść, obecnie jest to nieakceptowalne zarówno przez użytkowników, jak i przez algorytmy wyszukiwarki Google.
Jakie znaczenie dla Google ma treść dostępna w serwisie?
Treść ma również bardzo duże znaczenie w procesie indeksacji naszego serwisu, a to ze względu na problemy, jakie może wygenerować, gdy mamy ją skopiowaną z innej strony, udostępniamy jej zbyt mało, staramy się upychać słowa kluczowe mając na uwadze jej lepszą optymalizację pod pozycjonowanie oraz świadomie lub przez przypadek ukrywamy treść przed robotami indeksującymi.
W przypadku pierwszego problemu – powszechnie wiadomo, że nie można kopiować treści z innych stron, co ma wpływ na późniejszą duplikację treści. Weź to pod uwagę, gdy także korzystasz z funkcjonalności ChatGPT, który bazuje na gotowych, już istniejących treściach.
Drugi problem dotyczy podstron, które zawierają zbyt małą ilość treści i są traktowane przez algorytmy wyszukiwarki Google jako podstrony o niskiej jakości (z ang. thin content). Google będzie skłonny do szybszej indeksacji serwisu, który zawiera jej naprawdę dużo.
Upychanie słów kluczowych również nie jest akceptowane przez algorytmy wyszukiwarki Google, a będąc szczerym – jest całkowicie zakazane. Jeśli zależy Ci na tym, aby treść Twojej podstrony czy artykułu na blogu składała się z wielu popularnych słów kluczowych, to staraj się go możliwie wydłużyć. Przyjmij, że każde popularne słowo kluczowe powinno być otoczone treścią na minimum 1000 znaków ze spacją. Dodatkowo uzupełniając temat upychania słów kluczowych, to kolejnym argumentem, dla którego nie powinniśmy tego robić jest problem kanibalizacji słów kluczowych. Poza regułą stosowania jednego popularnego słowa kluczowego na 1000 zzs drugą regułą, która powinna Cię obowiązywać jest zoptymalizowanie treści podstrony pod jedno popularne słowo kluczowe, które powinno występować zarówno w tytule, adresie URL, jak i treści nagłówka H1 i treści podstrony.
Ostatni problem, który wymieniłem to ukrywanie treści (z ang. cloaking), który również jest zabroniony przez algorytmy wyszukiwarki Google. Ten proces również wpływa na problemy z niewłaściwą indeksacją serwisu. A jeśli jesteś pewny, że nie ukrywasz żadnej treści przed robotami indeksującymi, to dla świętego spokoju zweryfikuj pamięć cache wyszukiwarki, a dokładniej czy treść Twoich podstron jest w pełni odczytana i zaindeksowana przez Google.
Jeśli mógłbym dodać jeszcze coś w temacie treści, to zasoby związane z bibliotekami kodu JavaScript. Jeśli zbyt dużo skryptów jest wczytywanych w trakcie ładowania naszego serwisu, tym więcej problemów będą mogły napotkać roboty, których zadaniem będzie indeksacja naszego serwisu. Dlatego ogranicz ich ilość i wczytuj je dopiero wtedy i dopiero tam, gdzie naprawdę zajdzie konieczność ich użycia.
Jak należy budować mapę linków wewnętrznych?
W tym punkcie chciałbym podzielić się z Tobą jedną bardzo użyteczną wskazówką, która dotyczy tworzenia mapy linków wewnętrznych do pliku w formacie XML. Jeśli posiadasz serwis, który udostępnia dużą ilość treści (np. wiele podstron czy wpisów blogowych) i mam na myśli tutaj od kilkuset do kilku tysięcy wewnętrznych adresów URL, to warto, abyś podzielił pliki na odpowiednie sekcje Twojego serwisu. Dzięki temu będziesz miał dużo większą kontrolę nad tym, które zasoby Twojego serwisu zostały zaindeksowane w wyszukiwarce, a które nie i co jest przyczyną problemu z indeksacją. I tak o to wygeneruj plik, który będzie zawierał odnośniki tylko do wpisów blogowych i oddzielny plik dla podstron (w przypadku strony internetowej) oraz oddzielny plik dla każdej z kategorii produktów (w przypadku, gdy posiadasz sklep internetowy).
Dzielenie map na mniejsze pliki ma ogromne znaczenie właśnie przy sklepach internetowych, gdyż tylko kontrola indeksacji sklepów internetowych może pomóc w pozyskiwaniu ruchu użytkowników z wyszukiwarki Google, a brak indeksacji z kolei może wpłynąć na obniżenie ilości zamówień od klientów, których w ogóle nie pozyskamy z wyników organicznych.
Jakie znaczenie dla Google ma plik robots.txt?
W poprzednim odcinku SEO Podcastu wspominałem już o pliku robots.txt, który ma bardzo duży wpływ na indeksację naszego serwisu. A więc na podstawie dostępnych w nim komend „allow” i „disallow” możemy w prosty sposób umożliwić indeksację naszego serwisu, jak i utrudnić jego indeksację, dlatego warto zweryfikować jego zawartość. A w szczególności, jeśli wykorzystujesz popularny system CMS lub ecommerce, który w sposób dynamiczny i bez Twojej wiedzy modyfikuje zawartość pliku robots.txt, dlatego zachęcam weryfikację tego pliku za pomocą testera dostępnego w narzędziu Google Search Console o nazwie „Tester pliku robots.txt). Dzięki niemu sprawdzisz, czy Google pobrał zawartość tego pliku i przede wszystkim kiedy podjął próbę jego odczytu, co ma istotne znaczenie w przypadku, gdy dokonałeś modyfikacji tego pliku i chcesz, aby została wczytana przez Google jego najnowsza wersja.
Jakie znaczenie dla Google mają meta tagi?
Poza plikiem robots.txt, o którym wspominałem w poprzednim punkcie, bardzo duże znaczenie dla indeksacji ma także meta tag „Robots” i jego parametry. Stosuje się go w dwojaki sposób.
Załóżmy, że pracujesz nad swoim serwisem czy sklepem internetowym, chcesz mieć do niego dostęp, ale nie chcesz, aby jeszcze został on zaindeksowany w wyszukiwarce. I bardzo dobrze, taką czynność powinieneś wykonać aż do momentu, w którym ukończysz wszystkie funkcjonalności, opublikujesz treść, a na samym końcu sprawdzisz, czy Twój serwis działa w odpowiedni sposób zarówno na urządzeniu desktopowym, jak i mobilnym. W tym wypadku, w sekcji „head” naszego serwisu należy umieścić wspomniany meta tag „Robots”, którego zawartość powinna zabraniać indeksacji, czyli „noindex, nofollow”. I do momentu, w którym te komendy będą dostępne w kodzie źródłowym Twojego serwisu, roboty crawlujące będą unikały jego indeksacji.
Drugi sposób wykorzystywania meta tagu „Robots” jest zupełnie odwrotny do poprzedniego. W tym wypadku musimy wskazać robotom wyszukiwarek, że chcemy, aby nasz serwis został w nich zaindeksowany. Wszystko byłoby proste i logiczne, gdyby jednak nie to, że właściciele stron i sklepów internetowych zapominają często o zmianie zawartości tego meta tagu. Publikując gotowy i działający serwis staje się on w dalszym ciągu niedostępny do indeksacji.
Aby uniknąć tego typu pomyłek ważne jest abyś zweryfikował wszystkie wewnętrzne adresy URL w swoim serwisie i występujące w nich meta tagi. Doskonałym do tego narzędziem może być oprogramowanie o nazwie Sitebulb lub Screaming Frog SEO Spider, które zainstalujesz na swoim komputerze lub automatyczne crawlery, czyli oprogramowanie skanujące Twój serwis i działające w tzw. chmurze i nie wymagające żadnej instalacji. A są to narzędzia jak np. Ahrefs, Lumar (znany wcześniej jako DeepCrawl), OnCrawl czy ContentKing.
Przejdźmy do podsumowania naszego odcinka SEO Podcastu:
- Dowiedziałeś się czym jest znacznik „Canonical” i w jaki sposób powinieneś go wykorzystać, aby uniknąć problemu duplikacji treści oraz wyindeksowania podstron wewnętrznych z indeksu wyszukiwarki Google;
- Opowiedziałem Ci o tym, jak należy postępować z przekierowaniami typu „301”, aby wyszukiwarka częściej indeksowała Twój serwis;
- Poznałeś wskaźnik TTFB i w jaki sposób jest mierzony oraz jakie ma znaczenie w kontekście indeksacji. Wiesz już także, że aż kilkunastosekundowe opóźnienia we wczytywaniu Twojego serwisu są nieakceptowalne przez Google;
- Omówiliśmy istotę treści opublikowanej w serwisie zarówno dla samej indeksacji, jak i optymalizacji pod pozycjonowanie. Poznałeś zasady, których powinieneś przestrzegać w trakcie redagowania i publikowania contentu w swoim serwisie;
- Wspomniałem Ci o bardzo dobrym sposobie na tworzenie map z linkami wewnętrznymi, który powinieneś stosować, posiadając stronę lub sklep internetowy z dużą ilością podstron wewnętrznych;
- Na sam koniec ustaliliśmy także, jak ważna dla Google jest zawartość pliku robots.txt znajdującego się na Twoim serwerze oraz meta tagu „Robots”, który zlokalizowany jest w sekcji „head” kodu źródłowego Twojego serwisu. Poznałeś zasady, którymi powinieneś się kierować w obu przypadkach.
Mam nadzieję, że dzięki temu, jak i poprzedniemu odcinkowi SEO Podcastu poznałeś zasady dotyczące budowania stron i sklepów internetowych przyjaznych wymaganiom robotów indeksujących i algorytmów wyszukiwarki Google. Chciałbym, aby ominęły Cię problemy z błędną lub powolną indeksacją Twojego serwisu i abyś cieszył się jak największą widocznością serwisu w organicznych wynikach wyszukiwarki Google. A jeśli napotkałeś na swojej drodze pewne błędy czy problemy, które uniemożliwiły indeksację Twojego serwisu, to daj proszę znać o tym w komentarzu pod tym filmem.
Zapraszam Cię także do tego, abyś kliknął łapkę w górę i jeśli nie subskrybujesz tego kanału, to abyś zrobił to właśnie teraz. Dzięki temu będziesz otrzymywać od serwisu YouTube powiadomienia o kolejnych odcinkach SEO Podcastu. I tak samo, jeśli słuchasz mnie na dowolnej platformie podcastowej.
Zapraszam Cię również do sprawdzenia moich dwóch książek o pozycjonowaniu, do których linki znajdziesz w opisie pod tym filmem.
Dziękuję Ci za wysłuchanie tego odcinka w formie podcastu lub obejrzenie go w formie wideo w serwisie YouTube i oczywiście zapraszam Cię do pozostałych odcinków.
Do zobaczenia lub usłyszenia w kolejnym odcinku.
Trzymaj się, hej!
Poszukujesz agencji SEO w celu wypozycjonowania swojego serwisu? Skontaktujmy się!