W najnowszym odcinku SEO Podcastu omówimy największy jak dotąd wyciek informacji od Google – wewnętrzną dokumentację referencyjną API Google Search’s Content Warehouse. Dokumentacja, która trafiła do sieci, ujawnia kluczowe informacje na temat działania algorytmów wyszukiwarki Google, wywołała burzę spekulacji wśród specjalistów SEO i dostarcza niespotykanych wcześniej informacji na temat tego, jak może działać wyszukiwarka Google i jej algorytmy. W jaki sposób doszło do wycieku dokumentacji Google? Co dokładnie wyciekło firmie Google? Jakie stanowisko przyjmuje Google na temat wycieku dokumentów? Jakie wnioski wyciąga branża SEO na temat wycieku dokumentacji? Jakie są przewidywania specjalistów SEO na przyszłość? O tym w posłuchasz w kolejnym odcinku SEO Podcastu!
Spis treści:
Podcast
Listen to „Wyciek dokumentacji Google – jakie tajemnice poznaliśmy?” on Spreaker.
Wideo
Transkrypcja
Stało się. Błąd firmy Google spowodował wyciek funkcji, które mogły być brane pod uwagę przez algorytmy wyszukiwarki Google do obliczania pozycji w rankingu wyszukiwarki. Kto za tym stoi? W jaki sposób doszło do wycieku? Jakie wnioski wyciąga branża SEO? O tym w dzisiejszym odcinku SEO Podcastu. Zapraszam!
Cześć! Słuchajcie, mam dla Was na początku taką informację: chciałbym przypomnieć, że w serwisie YouTube zamieszczam wszystkie odcinki podcastu, zarówno te teoretyczne, które zostały nagrane w przeszłości i praktyczne, które nagrałem i będę nagrywał dalej, przedstawiając oczywiście różne programy/oprogramowanie, które wykorzystuję na co dzień w swojej pracy. Jeśli widzicie zbyt dużą przerwę w serwisie Spotify, to oczywiście zachęcam Was do tego, abyście po prostu zaglądnęli do serwisu YouTube. Także tam znajdziecie wszystkie odcinki na kanale SEO Podcastu.
Jak widzicie na moim kanale zaszły pewne zmiany. Chciałbym przede wszystkim podziękować Wam za feedback, który przekazaliście odnośnie prowadzenia kanału. Także na pewno wykorzystam Wasze rady, bardzo Wam za to dziękuję i ruszamy z tematem.
Słuchajcie, na samym początku chciałbym podkreślić coś bardzo ważnego. W internecie znajdziecie tak naprawdę zalew artykułów, które dotyczą wycieku Google. Różni autorzy mają różne podejście do tematu. Jedni bardziej lekceważące, drudzy mniej. Jedni bardziej sprawdzają temat, drudzy mniej. Jedni teoretyzują, drudzy przechodzą do praktyki i analizują te wycieki. I zanim zaczniemy omawiać, co tak naprawdę wyciekło chciałbym podkreślić, abyście wzięli pod uwagę to, że różni autorzy, którzy publikują informacje na temat wycieku mają różne podejście do tematu, wyciągają różne wnioski. Dlatego chciałbym, abyście przede wszystkim sami wyciągnęli wnioski na podstawie własnych testów. I ślepo nie wierzcie we wszystko, co przeczytacie w internecie.
Warto też podkreślić, że firma Google także nie ma dobrej passy. Ostatnie funkcjonalności, które wypuścili, a dokładnie testy nowej funkcjonalności, czyli „AI Overview”, pokazały tak naprawdę, że nie byli przygotowani do tego, żeby wypuścić. Informacje, które podawało ich AI były zaczerpnięte z serwisu Reddit i The Onion. Są to serwisy, które „trollują” internet i są satyryczne, zwłaszcza The Onion. Przykładem tego było podanie informacji, aby użytkownicy jedli przynajmniej jeden kamień dziennie, aby nabrać mikro i makro składników, które są niezbędne nam do przeżycia.
Sami oceńcie, w jaki sposób użytkownicy mają teraz podejść do wyszukiwarki Google, bo jeśli wykorzystują ją w taki sposób, aby znaleźć bardzo ważne dla siebie informacje, a Google podaje informacje, aby zjeść kamień, no to sorry, ale moim zdaniem tutaj został delikatnie mówiąc „nadszarpnięty” wizerunek firmy Google.
Wizerunkowi firmy Google nie pomógł także wyciek, który tak naprawdę obnażył tę firmę, a dokładniej przedstawicieli, którzy przedstawiali nam informacje o tym, w jaki sposób działa wyszukiwarka i w jaki sposób optymalizować pewne funkcje. Dokumentacja pokazała tak naprawdę, że Google inaczej podchodzi do pewnych spraw. Dokładnie też w ten sam sposób, w jaki i my mogliśmy się domyślić, w jaki sposób ta wyszukiwarka pracuje. Teraz wiemy coraz więcej i tak naprawdę mamy już konkretne informacje, a nie tylko szczątkowe.
Okej, ale zapytacie pewnie co się stało? 13 marca nastąpił wyciek wewnętrznych dokumentów Google, a dokładnie zautomatyzowany bot, który wykrył taką dokumentację, wrzucił ją w sposób automatyczny na platformę GitHub. A GitHub to platforma dla programistów, która pozwala im dzielić się swoimi skryptami publicznie.
Sama dokumentacja zawiera w sobie ponad dwa i pół tysiąca modułów, które z kolei dzielą się na ponad 14 tysięcy funkcji. I tutaj zachodzi pytanie: czy te moduły i funkcje są aktualne i w jaki sposób Google podchodzi do oceny danej funkcji? W dokumentacji znajdziemy nie tylko moduły dotyczące wyszukiwarki Google, ale też innych funkcji i innych usług firmy Google, ale jest na tyle obszerna, że zajmie naprawdę kilka lub kilkanaście kolejnych miesięcy, abyśmy mogli się dowiedzieć, co tam dokładnie się znajduje. No, ale oczywiście kto by odpuścił, prawda?
I w ten sposób potwierdziło się, że Google zbiera informacje o kliknięciach, które mogą mieć dosyć istotny sygnał dla algorytmów, które oceniają pozycję danej strony w wynikach organicznych (w wynikach wyszukiwania) i może być to dosyć ważny sygnał rankingowy. Takie kliknięcia są mierzone i oczywiście analizowane. Przede wszystkim Google stara się, aby ten czynnik nie był dominujący w obliczaniu pozycji. Dzięki temu sygnał rankingowy (którym może być to kliknięcie) nie dominowało nad innymi czynnikami rankingowymi.
Z dokumentacji, której dotyczył wyciek moglibyśmy wyciągnąć pewne wnioski, które dotyczą właśnie systemu „Navboost” i z kolei linków i contentu, który musimy pozyskiwać i publikować. Dajcie znać, czy ten system mógłby być bardziej dominujący od linków, które powinniśmy pozyskiwać i contentu, który powinniśmy publikować? Zachowanie użytkowników w wyszukiwarce Google staje się coraz ważniejsze dla algorytmów wyszukiwarki Google. Dajcie znać, co o tym myślicie.
Analizując dokumentację mogliśmy trafić także na parametr „siteAuthority”. I teraz pytanie: w jaki sposób jest mierzony i czy jest dalej aktualny? i czy ma jakiekolwiek znaczenie w związku z parametrem „Domain Authority” od MOZ, czy „Domain Rating” od Ahrefs? Jeszcze tego nie wiemy, warto byłoby to również przeanalizować.
Dalsza analiza dokumentacji, której nastąpił wyciek potwierdza istnienie tzw. sandboxa, czyli piaskownicy. Jest to funkcja Google, która ogranicza przez pewien czas rankowanie dla nowych stron i sklepów internetowych.
Dokumentacja potwierdza także to, że przeglądarka Google Chrome (pochodząca od Google) zbiera informacje o użytkownikach i ich zachowaniach w internecie (a także w wyszukiwarce Google), a następnie przekazuje takie informacje o kliknięciach do firmy Google. Na tej podstawie zbierane są informacje o zachowaniu użytkowników, które oczywiście mogą wpływać na kolejne wyniki organiczne.
Kolejną rzeczą, o której dowiedzieliśmy się analizując dokumentację jest to, że firma Google zbiera informacje o użytkownikach, którzy są autorami danej treści. Przypisuje imię i nazwisko do autora danej treści i przechowuje takie informacje.
Czy kojarzysz taką funkcję jak mapa linków znajdująca się w wynikach organicznych? Do zbudowania jej, Google wykorzystuje dane pochodzące z kliknięć, czyli zachowań użytkowników w przeglądarce Google Chrome. A są to dokładnie podstrony, które są najczęściej odwiedzane przez użytkowników na tych stronach internetowych.
Potwierdza się przypuszczenie, że wyszukiwarka Google to jeden wielki system, którego działanie jest uzależnione od wielu wymagających procesów, które finalnie nakładają się na siebie, generując wynik w postaci pozycji w wynikach organicznych. Z tego powodu na pracę algorytmów dzieli się wiele sprawnie działających usług, których zadaniem jest zebranie, zweryfikowanie i zapisanie danych, a następnie obliczenie pozycji w rankingu wyszukiwarki. Do zadań takich usług należy crawlowanie i indeksacja napotkanych podstron, wyodrębnienie i indeksacja linków zewnętrznych i wewnętrznych, obliczanie pozycji rankingu i na samym końcu wyświetlenie wyników w rankingu wyszukiwarki Google
Kolejną rzeczą, jakiej dowiedzieliśmy się dzięki analizie wycieku dokumentacji od Google jest to, że Google przechowuje ostatnich 20 wersji naszego serwisu w celu porównania ich ze sobą, a następnie obliczenia ponownej pozycji dla naszego serwisu.
Bardzo ważne dla Google są także daty, które powinniśmy wykorzystywać w pobliżu treści artykułów blogowych, a także w adresach URL. I co najważniejsze: daty powinny się ze sobą zgadzać.
Dowiedzieliśmy się także, że Google inaczej traktuje słowniki internetowe, które analizuje pod kątem długości treści i wyżej umieszcza w rankingu wyszukiwarki.
I oczywiście jest dostępna publicznie oficjalna odpowiedź od firmy Google, czyli od rzecznika Google, który odniósł się na łamach serwisu Search Engine Journal, którą chętnie Wam przeczytam. Posłuchajcie.
Przestrzegamy przed dokonywaniem błędnych założeń dotyczących wyszukiwarki na podstawie informacji wyrwanych z kontekstu, nieaktualnych lub niekompletnych. Udostępniliśmy obszerne informacje o działaniu wyszukiwarki i rodzajach czynników branych pod uwagę przez nasze systemy, jednocześnie pracując nad ochroną integralności naszych wyników przed manipulacją.
No i oczywiście rzecznik ostrzegł nas przed tym, żebyśmy nie brali wszystkiego pod uwagę, co jest zawarte w dokumentacji, bo może to być nieaktualne lub stworzone na wyrost np. do testów. Dajcie mi znać co o tym myślicie. Napiszcie w komentarzu.
Na ten moment ciężko wyciągnąć jakieś większe wnioski, ale chciałbym skomentować jedną bardzo ważną rzecz, np. taką, że firma Google, a dokładnie jej przedstawiciele nie zawsze nam o wszystkim mówią, ale powinni się przyznać do jednej rzeczy. Jeśli nie mogą czegoś powiedzieć, to warto by było to podkreślić. Ale wolą przejść na drogę taką, że dyskredytują tezy czy hipotezy innych testerów. I co najważniejsze uważają, że ich testy nie prowadzą do niczego lub są błędne. Dlatego uważam, że przedstawiciele firmy Google powinni więcej informować nas o technikaliach wyszukiwarki i algorytmach, czyli w jaki sposób pracują. A jeśli czegoś po prostu nie mogą powiedzieć, to przynajmniej powinni to stwierdzić publicznie.
A teraz sami oceńcie, czy pracownicy firmy Google mogli nas okłamywać przez wiele lat, np. ukrywając przed nami sygnał rankingowy, który polega na przekazywaniu przez przeglądarkę Google Chrome naszego zachowania na podstawie kliknięć w wyniki organiczne wyszukiwarki Google.
Na podstawie analizy tego, co się znajduje w dokumentacji, która wyciekła, wiemy już o tym, że informacje przekazywane przez przedstawicieli Google są sprzeczne z tym, co zawiera ich własna dokumentacja. Wyciek tak naprawdę też nie stanowi o tym, że Google wykorzystuje wszystkie funkcje dostępne w dokumentacji, ale na pewno możemy się do nich odnieść, przeanalizować je i sprawdzić na własnej skórze, czy te funkcje są brane pod uwagę przez algorytmy wyszukiwarki Google.
Z drugiej strony w dokumentacji istnieje coś takiego jak wiek domeny, który oficjalnie nie był brany pod uwagę. Jeśli w niej występuje – pytanie: czy Google bierze pod uwagę wiek domeny, czy nie? Sami oceńcie.
Warto także podkreślić, że wyciekła dokumentacja, a nie kod źródłowy wyszukiwarki i jej algorytmów. Dlatego możemy wziąć pod uwagę to, że Google mógł wykorzystywać dostępne moduły w tej dokumentacji do testów i do rozwijania swojej wyszukiwarki lub planowania kolejnych jej funkcjonalności.
Błędne nie będzie także myślenie o tym, że Google mógłby wykorzystywać tę dokumentację do tego, aby przekazywać ją kolejnym pracownikom, aby po prostu znali wszelkie możliwe funkcje, jakie do tej pory zostały utworzone. Niektóre mogły oczywiście już być przestarzałe, niektóre mogły być jeszcze dalej na czasie, ale dokumentacja mogłaby zawierać wszystkie funkcje dostępne od początku jej utworzenia.
Na pewno też nie możemy powiedzieć, że o czym wiedzieliśmy, czyli o tym, co się znajduje w tej dokumentacji, bo przede wszystkim nie wiemy, czy algorytmy w ogóle wykorzystują te funkcje i w jaki sposób są ważone przez te algorytmy.
Google także może stwierdzić, że linki mogą nie być tak istotne pod kątem optymalizacji pozycjonowania. Ale tak naprawdę my nie możemy też tego podważyć, bo takich informacji oczywiście też zabrakło w dokumentacji.
Jedno jest pewne: na podstawie analizy dokumentacji dowiedzieliśmy się, że Google jest w stanie w sposób automatyczny wykryć masowy przypływ spamowych linków pozycjonujących. Dlatego uważam, że narzędzie Google Disavow może już nie być tak naprawdę potrzebne nam (jako pozycjonerom) do pracy, w celu zrzekania się linków (spamowych linków). Skoro Google jest w stanie to wykryć, to narzędzie moglibyśmy tak naprawdę odsunąć na drugi plan.
Bardziej chciałbym zwrócić uwagę na to, że Google zwraca uwagę skąd pozyskujemy linki pozycjonujące, czy są trafne i przede wszystkim, czy pochodzą ze stron z serwisów zbliżonych tematycznie do linkującego serwisu. A tak najbardziej istotne jest to, czy serwisy, z których pozyskujemy linki pozycjonujące generują jakikolwiek ruch.
Pamiętajmy także o tym, aby „przekliki” (kliknięcia w wyniki wyszukiwania) nie były generowane przez „sztuczne” urządzenia. Dlatego warto zdobywać kliknięcia z wyników wyszukiwania z różnych urządzeń, z różnych przeglądarek i tak naprawdę z różnych fraz. I to będzie stanowić informację dla Google, że nasz serwis staje się coraz bardziej popularny i odwiedzany przez użytkowników.
Wracając do parametru, który mogliśmy wykryć w dokumentacji, czyli „siteAuthority”, mogliśmy także natrafić na informację o PageRank, co daje nam informację na temat tego, że Google w dalszym ciągu uważa stronę główną za jedną z najważniejszych podstron na naszej stronie lub w sklepie internetowym. Dlatego podstrony naszego serwisu, które będą linkowane ze strony głównej, automatycznie będą uznawane przez Google jako podstrony o wysokiej jakości.
Analizując dokumentację, której nastąpił wyciek, mogliśmy także trafić na funkcję „SmallPersonalSite” i dotyczy ona małych stron personalnych/osobistych, przykładowo stron „wizytówek” firmowych. Na podstawie tej informacji, którą mogliśmy przeanalizować, dowiedzieliśmy się, że algorytm Google może „boostować”, czyli pomagać tym stronom internetowym na początek, aby mogły zdobywać pierwszy ruch z wyników organicznych wyszukiwarki Google.
A dlaczego uważam, że powinniśmy o to zadbać? A to dlatego, że Google daje szansę każdemu. Tak naprawdę, jeśli stale optymalizujemy naszą stronę internetową i pozyskujemy ruch z wyszukiwarki Google, to Google na podstawie zachowań użytkowników i ich kliknięć, jest w stanie zebrać informacje, które mogą decydować o tym, czy nasza strona powinna zostać częściej wyświetlana na dane hasło. Działa to także w drugą stronę, bo jeśli nie będziemy dbać o naszą stronę internetową, nie będziemy jej optymalizować, będziemy pozyskiwać linki pozycjonujące ze spamowych źródeł lub z serwisów, które nie pasują tematycznie do naszego serwisu, no i przy okazji, jeśli użytkownicy również nie będą klikać albo będą klikać i będą za chwilę wychodzić z naszej strony, to będzie to również informacja dla wyszukiwarki Google, aby automatycznie obniżać pozycję naszej strony w wynikach wyszukiwania.
A więc budujmy silną markę w internecie. Dbajmy o to, aby nasza treść przyciągała i zatrzymywała naszych użytkowników, ale przede wszystkim rozwiązywała ich problemy i generowała jakiekolwiek konwersje w naszym serwisie: czy wypełnienie formularza kontaktowego, czy zamówienia w sklepie internetowym.
Dbajmy o to, aby tytuły każdej naszej podstrony zawierały na samym początku najważniejsze słowa kluczowe, a na samym początku naszej strony, czyli na wysokości oczu dbajmy o to, aby znajdowała się tam najważniejsza treść, której dotyczy dany artykuł.
Po analizie dokumentacji, która wyciekła, potwierdziło się, że Google zwraca także uwagę na rozmiary czcionek, które stosujemy w naszym serwisie zarówno w widoku mobilnym, jak i desktopowym. Dlatego postarajmy się o to, aby nasze czcionki i nasz tekst był czytelny zarówno na urządzeniu mobilnym, jak i desktopowym.
Wyciągając wnioski na podstawie wstępnej analizy dokumentacji Google, która wyciekła, chciałbym stwierdzić, żebyśmy po prostu nie wierzyli w 100% zapewnieniom specjalistów i przedstawicieli firmy Google. I tak naprawdę, abyśmy nie szli na łatwiznę, tylko testowali i eksperymentowali z różnymi funkcjami i przede wszystkim na tej podstawie (czyli na podstawie własnych testów) podejmowali jakiekolwiek wnioski i decyzje na przyszłość jeśli chodzi o pozycjonowanie.
Podsumowując ten odcinek podcastu mam do Was prośbę. W dalszym ciągu optymalizuje swoje serwisy i testujcie w nich różne rozwiązania, które mogą Wam podjąć jakiekolwiek decyzje na przyszłość i wyciągać oczywiście wnioski. Nie wierzcie w 100% przedstawicielom wyszukiwarki Google, gdyż mijają się często z prawdą lub po prostu próbują nas okłamać odnośnie podejmowania jakiejkolwiek decyzji, czy odgadywania funkcji dostępnych w wyszukiwarce Google. Tylko regularna praca nad contentem i pozycjonowaniem linków pozycjonujących pozwoli Wam osiągnąć efekty w przyszłości i nikt tego nie powinien podważyć. Nigdy.
Wyciek dokumentacji udowodnił, że mogliśmy wykorzystywać wiele z tych funkcji na logikę i przez własne domysły i przede wszystkim testy. Ale jedno jest pewne: nigdy wcześniej nie mieliśmy takiej szansy na dogłębną analizę możliwych funkcji, które mogą wykorzystywać algorytmy wyszukiwarki Google.
Na sam koniec chciałbym pochwalić i przede wszystkim pozdrowić całą polską branżę SEO, a to dlatego, że posiadamy bardzo dobrze wykwalifikowanych pracowników i specjalistów w branży.
Jestem ciekawy, czy firma Google zmieni swoje podejście do specjalistów z całego świata (jeśli chodzi o SEO), czy w dalszym ciągu będą pomijać i unikać rozmowy i przedstawienia im szczegółów, jeśli chodzi o pracę wyszukiwarki i jej algorytmów? Czy zaczną w końcu udzielać i udostępniać nam więcej informacji na temat wyszukiwarki?
Mam także nadzieję, że właśnie przez ten wyciek i przez błędne działanie ich nowej funkcjonalności „AI Overview” zmienią swoje podejście do użytkowników wyszukiwarki Google.
Na sam koniec chciałbym Was prosić o opinię, które dane z wycieku Was zainteresował najbardziej? Jak myślicie, które funkcje (które wyciekły z dokumentacji) mogły do dzisiaj istnieć i być wykorzystywane przez wyszukiwarkę Google i jej algorytmy do budowania pozycji w rankingu?
Dla zainteresowanych analizą cała lista modułów i dostępnych funkcji z dokumentacji została podlinkowana w opisie tego odcinka SEO Podcastu.
Chciałbym przypomnieć Wam także o praktycznych odcinkach tego SEO Podcastu, które znajdują się w serwisie YouTube, dlatego zapraszam serdecznie na kanał.
Trzymajcie się! Cześć!
Poszukujesz agencji SEO w celu wypozycjonowania swojego serwisu? Skontaktujmy się!