Rozmowy Kluczowe – Jak być zawsze gotowym na zmiany w Google? Rozmawiają Maciej Kulkowski i Paweł Cengiel

Rozmowy Kluczowe – Jak być zawsze gotowym na zmiany w Google? Rozmawiają Maciej Kulkowski i Paweł Cengiel
Rozmowy Kluczowe - Jak być zawsze gotowym na zmiany w Google? Rozmawiają Maciej Kulkowski i Paweł Cengiel

SEO to dynamiczna branża, a nadążanie za zmianami algorytmów Google i nowymi trendami to niemałe wyzwanie. Ostatnie aktualizacje, jak nacisk na „helpful content”, pokazują, że treści muszą przede wszystkim pomagać użytkownikom i prowadzić ostatecznie do konwersji. Kluczowe jest więc tworzenie wartościowych materiałów zarówno dla robotów wyszukiwarek, ale przede wszystkim dla użytkowników odwiedzających naszą stronę. Sztuczna inteligencja w Google kładzie coraz większy nacisk na branżę SEO, dlatego jeśli chcesz dowiedzieć się więcej o najnowszych trendach w branży i sprawdzonych praktykach z jej wykorzystaniem, koniecznie posłuchaj tej rozmowy!

Spis treści:

Wideo

YouTube video

Transkrypcja

Maciej Kulkowski
Moim i Państwa gościem jest Paweł Cengiel, jeden z najbardziej rozpoznawalnych specjalistów SEO. W branży już jest na pewno na tyle długo, że będzie miał nam do opowiedzenia wiele ciekawych sytuacji. Paweł posiada swój kanał na YouTube – SEO-PODCAST.PL. Paweł sprzedaje kursy SEO, prowadzi klientów, sprzedaje również książki SEO: „SEO jako element strategii marketingowej Twojej firmy” i „Praktyczne zastosowanie narzędzi SEO w Twojej firmie”. Dzięki Paweł, że zgodziłeś się przyjść do mnie na kanał i żebyśmy sobie porozmawiali chwilę na różne tematy. Więc teraz oddaję Ci głos. Może Ty pokrótce powiedz, jak to właśnie jest u Ciebie? Ile już działasz w tej branży? Czym się zajmujesz na co dzień? W czym się specjalizujesz? Żebyśmy jeszcze lepiej wiedzieli, jakim ekspertem jesteś.

Paweł Cengiel
Cześć Maciek. Witam Cię i witam Twoich słuchaczy na Twoim kanale. I tak jak mnie przedstawiłeś, myślę, że nie mam tutaj nic więcej do dodania. Może po prostu powiem, że w branży już jestem dosyć sporo, bo od 2015 roku wiem, że w tej branży są również specjaliści, którzy pracują dużo dłużej, ale myślę, że jestem tak po środku. Nie za krótko i nie za długo. Także mam dosyć świeże spojrzenie jeśli chodzi o SEO, ale też pamiętam czasy, kiedy to SEO dopiero w Polsce było, może raczkowało, to jest za duże słowo, ale po prostu uczyliśmy się podejścia do optymalizacji stron internetowych i tego, w jaki sposób linkować nasze strony. No i przede wszystkim jak żyć w zgodzie i w harmonii z algorytmami wyszukiwarki Google, prawda?

Maciej
No właśnie, czyli Ty pamiętasz jeszcze pewnie te czasy, kiedy ten, kto miał najszybsze serwery, ten kto był w stanie wstawić najwięcej linków na różnych forach, komentarzach i tak dalej, ten wygrywał jeszcze przed tymi wszystkimi najważniejszymi update’ami, które nam troszeczkę wywróciły ten rynek do góry nogami. No właśnie i to od tego możemy zacząć. Bo SEO cały czas się zmienia. Ja zaczynałem powiedzmy w 2019-2020 roku tak na poważnie moją przygodę z SEO. No i od tamtego momentu też mieliśmy kilka update’ów algorytmu. Parę rzeczy się pozmieniało, parę rzeczy się nie pozmieniało. W sensie niektóre rzeczy nadal są istotne. To może z Twojej perspektywy, patrząc na Twoje dotychczasowe doświadczenie. Jakie są obecnie jakieś takie najważniejsze trendy, jeżeli chodzi o SEO? W sensie, w co gra Google? W którą stronę Google chce iść z tymi swoimi kolejnymi update’ami? Do czego tak na dobrą sprawę on nas zachęca tymi wszystkimi kolejnymi update’ami?

Paweł
Moim zdaniem pierwsza rzecz, od której byśmy mogli zacząć, jeśli chodzi o to, w jaki sposób Google kieruje nas do tego, aby nasze strony spełniały swoje funkcje, to tak zwana „helpfulność”, czyli wyraz, który bierze się od ostatniej aktualizacji „Helpful Content” (HCU). No i oczywiście składa się z wyrazu „help”, czyli pomoc. Nasz serwis, czy w zależności od tego, czy prowadzimy stronę internetową, czy sklep internetowy musi spełniać jakiś cel. I najważniejsze, żeby użytkownicy, którzy wchodzą do naszej strony lub do naszego sklepu internetowego, aby ten ruch w jakiś sposób przekonwertować. Aby użytkownicy dokonali jakiejś interakcji, która jest związana z celem biznesowym naszej strony lub sklepu internetowego. Podzielmy strony internetowe i sklepy internetowe na dwa różne cele. Czyli jeśli to jest strona usługowa, to ma charakter na pewno informacyjny, ale też powinna pozyskiwać w jakiś sposób leady, które potem powinny przekonwertować w klientów, z którymi po prostu podpiszemy umowę lub będziemy świadczyć usługi. A jeśli chodzi o sklepy internetowe i ich cel biznesowy, no to wiadomo – sprzedaż, czyli konwersja. Konwersja polegająca właśnie na przejściu użytkownika do naszego sklepu, do karty produktowej (w dużym skrócie) i do dokonania zakupu w sklepie internetowym. I to, do czego nas zmusza wyszukiwarka Google, a dokładniej algorytmy, to jest to, abyśmy po prostu tworzyli nasze strony internetowe z myślą i przede wszystkim z nastawieniem na klienta końcowego, który wejdzie do naszego sklepu lub strony internetowej.

Maciej
No właśnie. Jakiś czas temu widziałem na LinkedInie właśnie taki ciekawy też wpis à propos tych ostatnich update’ów algorytmu, bo nie wiem jak w Twojej bańce LinkedInowej, ale pewnie też jest podobnie, że bardzo duże poruszenie stanowiło to, jak dużo tego ruchu zgarnia Reddit, albo z reguły zgarniają właśnie strony, które właśnie nie do końca tak na dobrą sprawę wpisują się w to, co Google nam przedstawia. W sensie: twórzcie jakościowy content, odpowiadajcie jak najlepiej na zapytanie użytkownika. Tylko on w pewnym momencie bardzo poszedł w stronę tego, żeby promować właśnie „User Generated Content” (UGC), czyli treści, które prawdopodobnie nie są tak wymuskane, jak zazwyczaj się uczy SEO. W sensie, że nagłówki muszą być idealnie jeden pod drugim, treści muszą być wypełnione frazami kluczowymi, tylko właśnie zaczął promować w dużym stopniu strony, które (jeżeli chodzi o content) troszeczkę miało to mniejsze znaczenie, a większe znaczenie miał autorytet. W sensie nawet były przykłady tego, że wpisy na LinkedInie zaczynały bardzo dobrze sobie radzić w indeksie, w sensie zaczynały być wysoko, mimo że na przykład właśnie pod kątem takim treściowym one nie były tak super zoptymalizowane. I czy myślisz, że to może mieć związek z tym? Bo z taką teorią też się spotkałem. Czy to może mieć związek, z tym że w dobie popularności ChatGPT, w dobie popularności, tego, jak łatwo jesteśmy w stanie teraz stworzyć mnóstwo treści, w sensie wiesz, jak zrobić programmatic SEO znajdziesz na YouTubie bez żadnego problemu, więc tak na dobrą sprawę też jesteśmy zalewani tą ilością contentu. I czy myślisz, że to mogło być związane z tym, że Google w jakiś sposób musiał postawić tamę temu zagadnieniu i wprowadził zmiany w swoim algorytmie, że one zaczęły promować bardziej strony, które wiadomo, że mają, że tak powiem, historycznie wysoką wartość. Może na Reddicie byśmy nie znaleźli takich ekspertów, ale które mają po prostu ustabilizowaną od wielu lat pozycję na rynku właśnie po to, żeby uniknąć jakichś manipulacji właśnie związanych z tym, że tworzenie treści jest teraz rekordowo niskie. Prawdopodobnie i możemy to robić bardzo niskim kosztem, w bardzo dużej ilości. Więc żeby uchronić się przed tym, na przykład linki zaczęły mieć większe znaczenie w ostatnim czasie.

Paweł
Skomentuję tutaj pewne zagadnienie związane właśnie z treściami. Bo istnieją serwisy, które już wiele lat publikują treści, od wielu, wielu lat. Zwłaszcza jeśli przykładowo tutaj użyjemy Reddita czy Quory. No bo są to serwisy encyklopedyczne. Wydaje mi się, że Google po prostu promuje te serwisy, które już są od lat na rynku, bo wiadomo, że jeśli mamy strony internetowe, które dopiero powstają albo są dopiero kilka lat na rynku, a istnieją serwisy typu Quora i Reddit, które są już kilkanaście lat na rynku, no to w jakiś sposób Google ocenia, może nie jakość, ale jeśli mamy po prostu styczność krótkiego serwisu, który jeszcze nie wyrobił już jakiegoś doświadczenia, nie wiem, w „oczach” algorytmów, no to jednak stawiając je do siebie i je porównując, to możemy domniemywać to, że Google porównuje wiek domeny i historię do serwisu, który dopiero powstał i na podstawie tego ocenia, że treść, która jest dostępna właśnie na Quorze czy w Reddicie jest lepsza niż treść na stronie internetowej. Pomimo tego, że możemy poświęcić bardzo dużo czasu na to, żeby ta treść została zoptymalizowana. Oczywiście możemy dążyć do tego, żeby nasza treść była super zoptymalizowana, podlinkowana wewnętrznie pomiędzy podstronami, kategoriami, bez żadnych błędów typu kanibalizacja słów kluczowych i tak dalej, ale jednak jeśli jesteśmy zestawieni z kolosami, z molochami, no to wiadomo, wiek domeny jednak tutaj przewyższa. Podejrzewam, że oprócz tego wieku domeny, tutaj również i liczba wejść użytkowników przeważa, jeśli chodzi o porównanie tych serwisów ze sobą. Więc jeśli na Quorę i na Reddita wchodzą setki tysięcy użytkowników, a na naszą stronę wchodzi od kilkudziesięciu do kilkuset osób, no to mimo wszystko podejrzewam, że nie wygramy z takimi serwisami. Ale oczywiście istnieje zawsze jakieś światełko w tunelu i zawsze powtarzam, że powinniśmy też pracować w dalszy sposób i nie poddawać się. Jeśli dany serwis sobie wyrobił już jakąś renomę, wyrobił sobie widoczność na konkretne słowa kluczowe, no to przecież nie wyrobił sobie na wszystkie możliwe słowa kluczowe. Pozycji jest dziesięć na pierwszej stronie, więc zawsze jest szansa na to, że jeśli nie wejdziemy na daną pozycję w top 3, to zawsze te top 10 również na nas czeka. Ale to, co chciałbym jeszcze podkreślić, to również są słowa kluczowe z „długim ogonem”. One również są konwertujące i przede wszystkim transakcyjne, no bo jeśli użytkownicy wyszukiwarki Google wpisują te słowa kluczowe z „długim ogonem”, no to istnieje bardzo duże prawdopodobieństwo, że dokonają już konkretnej konwersji.

Maciej
Ok, czyli Twoim zdaniem Google bierze pod uwagę te sygnały od użytkowników? Na przykład ten znamienny „bounce rate”, czy właśnie to, ile czasu ktoś spędza na stronie? jak wiele elementów kliknie? Bo to jest ciężko mierzalne tak na dobrą sprawę. W sensie, jaki dokładnie ma to wpływ? Ja też kiedyś słyszałem o takiej sytuacji, że jeden z tych guru SEO-owych nie wiem, czy to nie Rand Fishkin z MOZ-a zrobił coś takiego, że poprosił swoich followersów na Twitterze, żeby masowo klikali w jego stronę, która w tamtym momencie zajmowała trzecią, drugą, czwartą pozycję, coś koło tego. I oni właśnie poprzez to, że masowo klikali w tą stronę, to jego strona po jakimś czasie przeskoczyła na pierwsze miejsce. W sensie sugerując, że Google bierze rzeczywiście to pod uwagę, bo jeżeli ewidentnie ktoś widzi w serpach wyniki i nie klika w pierwszy, tylko w drugi albo trzeci, to znaczy, że może ten drugi albo trzeci jest lepszy. Więc, jak bardzo myślisz, że z każdym kolejnym update’em Google bierze pod uwagę te właśnie te sygnały od użytkowników, to jak często jest klikany któryś wynik w serpach? Czy jak już wejdziemy na stronę, to czy dokonujemy jakichś tam mini konwersji poprzez kliknięcie w jakiś link wewnętrzny, przejście do czegoś innego i tak dalej? Myślisz, że to rzeczywiście ma duże znaczenie?

Paweł
Myślę, że tak, zwłaszcza że ostatni wyciek dokumentacji Google’a potwierdził właśnie istnienie tego systemu, który po prostu już jest nazwany systemem Navboost i dokładnie tego wyrazu używają w swojej dokumentacji. I to, do czego doszli użytkownicy, którzy analizowali przynajmniej część lub wycinek tej dokumentacji, to jest to, że ten system analizuje dokładnie kliknięcia i zachowania użytkowników za pomocą przeglądarki Google Chrome. No bo trzeba sobie powiedzieć jasno, że celem Google’a i stworzenie tej przeglądarki nie jest jakby konkurencja na rynku przeglądarek. Google w pewnym momencie doszedł do ściany i podjął decyzję: jeśli chcemy zbierać informacje o zachowaniach użytkowników, dajmy im narzędzie, które będzie sprawdzać i odczytywać na bieżąco, jak zachowują się w naszej wyszukiwarce, a następnie oczywiście, co robią po kliknięciu w dany link z wyszukiwarki – czy z adsów, czy z wyników organicznych. I po kliknięciu, właśnie ten system Navboost, który współpracuje z przeglądarką Google Chrome i „ciasteczkami”, przekazuje informacje do tego systemu i analizuje, w jaki sposób użytkownicy dokonują interakcji już na naszych stronach i w sklepach internetowych – czy przechodzą dalej, czy odrzucają, czy wracają ponownie do wyników organicznych i idą do kolejnych pozycji, czyli do kolejnych linków i wchodzą w kolejne serwisy, aby znaleźć treść, której poszukują. Także – tak – moja odpowiedź jest taka, że jesteśmy non stop inwigilowani I pamiętajmy też o tym, że przeglądarka Google Chrome istnieje także na urządzeniach mobilnych. Także nieważne, czy to jest desktop, czy urządzenie mobilne, dostarczamy na bieżąco, w czasie rzeczywistym bardzo dużo danych w firmie Google.

Maciej
Ok, to miałbyś takich kilka, może najbardziej sprawdzonych tipów, właśnie, jak optymalizować swoje strony po to, żeby one były jak najbardziej przyjazne użytkownikowi? Jak sprawić, żeby osoba, która wchodzi na naszą stronę, czy to powiedzmy, pewnie można by było to jeszcze rozbić na stronę kategorii, strony produktów, wpisy blogowe i tak dalej. Ale takie może uniwersalne, nie wiem, dwa-trzy sprawdzone tipy, w jaki sposób sprawić, żeby użytkownik rzeczywiście, jak już wejdzie na naszą stronę, to żeby chciał zostać tam dłużej?

Paweł
Przede wszystkim jeśli chodzi o optymalizację. No to zacznijmy od samego początku, bo nie wiem na jakim etapie jest dany użytkownik, więc jeśli jesteśmy właścicielami strony internetowej lub dopiero zamierzamy być, opierajmy się na narzędziach Google-owskich, czy to Google Analytics, czy Google Search Console. Są to narzędzia, które na bieżąco będą nam podpowiadać to, w jaki sposób zachowuje się użytkownik w przypadku Analytics, a w przypadku Search Console, jakie błędy napotkały roboty crawlujące nasz serwis i to zupełnie za darmo otrzymamy feedback od Google’a: co napotkał na swojej drodze robot indeksujący? Oczywiście warto również czytać logi serwerowe, ale to już jest większa rzecz do wykonania, ale oczywiście jest to bardzo ważne. Istnieje oprogramowanie, które odczytuje logi serwerowe, czy to Screaming Frog Log File Analyser, czy możemy też znaleźć narzędzia online’owe. Także, jeśli mamy plik „log” to warto go przeanalizować. Można też zlecić to oczywiście specjaliście, jako zadanie do wykonania. To, do czego jeszcze chciałbym dojść w przypadku jeśli chodzi o Google Search Console i Google Analytics, to również informacje na temat podstron jakby usuniętych, do których nie dostał się robot indeksujący. Weźmy to również pod uwagę i wykonujmy przekierowania 301, bo im mniej błędów na naszej stronie lub w sklepie internetowym, tym lepsze doświadczenie użytkownika będzie z naszą stroną lub ze sklepem. Ułatwmy mu (użytkownikowi) dojście do naszej treści, linkujmy wewnętrznie podstrony lub kategorie między sobą. Oczywiście, jest to duże i zbyt ogólne zagadnienie. Kwestia tak naprawdę tego, jaką mamy strategię, jeśli chodzi o pozycjonowanie, jakie frazy wybieramy i tak dalej. Także skupiłbym się najbardziej na optymalizacji, aby użytkownicy znaleźli jak najwięcej i najbardziej wartościowych treści na naszej stronie, a w przypadku jeśli mamy sklep internetowy, dostarczajmy klientowi kompleksowy opis produktu, aby znalazł wszelkie wymiary, informacje dotyczące materiału, informacje dotyczące wysyłki tego produktu, zwrotów. Im więcej informacji dostarczymy użytkownikowi, tym większe prawdopodobieństwo, że wykona właśnie konwersję.

Maciej
Tak, ja nawet byłem na jakimś webinarze prowadzonym przez Sebastiana Heymanna, w którym mówił, że paradoksalnie nawet taki element w jednym ze sklepów, jak właśnie w momencie, kiedy ktoś już miał dodane rzeczy do koszyka, był tuż przed zrobieniem zakupu i tam była jasno podkreślona informacja, że ma darmowy zwrot do iluś tam dni. I to też dawało takie poczucie bezpieczeństwa klientowi, że w razie czego, gdyby coś mu się nie spodobało, to spokojnie zawsze dostanie kasę z powrotem. I to właśnie też miało bardzo duży wpływ na to, że więcej osób konwertowało i że paradoksalnie właśnie to też mogło wpłynąć na poprawę pozycji takiej strony, bo dzięki temu był to lepszy odbiór użytkowników. No dobra, jak jesteśmy cały czas w tym temacie zmian, wiem, że na rynkach zagranicznych, szczególnie anglojęzycznych, AI Overview jest w jakiś tam sposób wprowadzane. Teraz też widziałam taką statystykę, że jednak cały czas, mimo wszystko, jeżeli to jest wdrażane, to jest to wdrażane głównie dla fraz informacyjnych, czyli powiedzmy jeszcze takie właśnie frazy bardziej sprzedażowe, dotyczące e-commerceowych rzeczy i tak dalej, nie są aż tak bardzo dotknięte. Plus, tak jak mówię, to raczej dotyka rynków amerykańskich w największym stopniu. Jak myślisz, w którą stronę to pójdzie? Bo od jakiegoś czasu słyszę, że AI wkracza mocno do świata SEO. AI w świecie SEO, powiedzmy sobie już jest od dawna, tylko my prawdopodobnie tego nie widzimy aż tak bardzo, bo nie widzimy tego w serpach, ale pewnie cały algorytm też jest w dużym stopniu o to oparty. Ale właśnie, jak myślisz, czy Google rzeczywiście pójdzie w tą stronę, z tym że będziemy mieli możliwość rozmawiania z przeglądarką w taki sposób, jak rozmawiałem teraz z ChatGPT. Czy myślisz, że rzeczywiście ten AI Overview to jest coś, co wywróci stolik SEO-wy?

Paweł
Myślę, że tak. Kwestia tak naprawdę czasu i tego, w jaki sposób testy przejdą właśnie w Stanach Zjednoczonych, bo tam od tego zaczęło się wdrażanie AI Overview. Na początku zaliczyli tak zwane faux-pas, bo ich AI Overview pokazywało wyniki z Reddita i z Quory. No i zalecali między innymi jedzenie kamieni tylko po to, abyśmy… Nie wiem, czy kojarzysz tę sytuację?

Maciej
Tak, bardzo dobry sposób też na depresję proponowało…

Paweł
Tak, tutaj akurat były składniki mineralne, abyśmy mogli pozyskiwać je z kamieni…. No, oczywiście zaliczyli faux-pas, no bo wydaje im się, że nie zdążyli na czas przygotować treści ani ich przetasować, zweryfikować, tylko podłączyli się właśnie pod te serwisy, aby mieli możliwość wyświetlania jakichkolwiek informacji. Oczywiście były też zapytania, które się sprawdzały, no ale wiadomo, te „najlepsze smaczki” wyszły na światło dzienne i potwierdziło to, jaka treść bywa dostępna właśnie w tych serwisach. Można powiedzieć ogólnie „satyryczna”, ale wiadomo bywało gorzej. Także, jeśli chodzi o samo AI Overview, myślę, że Google będzie to rozwijał, zwłaszcza że wprowadza już „Search Generative Experience”, czyli to nasze „SGE”, czyli kolejne bloki, które będą wyświetlały treść bezpośrednio w wyszukiwarce i zasłaniały już w pewien sposób wyniki organiczne. Mam nadzieję, cała branża SEO ma nadzieję, że te wyniki nie będą zbyt mocno zasłonięte, no bo zmniejszy się konwersja, jeśli chodzi o wyniki organiczne, ale oczywiście jest to bardzo prawdopodobne, że Google nie zrezygnuje z wyników organicznych, no bo przecież wyszukiwarka i jej cel to podawanie wyników. Czy będzie to wykonywać tylko na podstawie sztucznej inteligencji, która jest jeszcze niedopracowana i ciągle się uczy? Sami sobie odpowiedzmy na to pytanie. Zwłaszcza że zasoby Google, które są indeksowane istnieją już dobre kilkanaście lat i Google w swojej bazie posiada bardzo dużo linków prowadzących do stron poradnikowych, do sklepów internetowych. Więc jest to bardzo prawdopodobne, że sztuczna inteligencja będzie starała się podać użytkownikowi świetną odpowiedź, której będzie mógł poszukiwać bezpośrednio w wynikach, ale wydaje mi się, że linki, które będą prowadzić do sklepów, do blogów, do poradników, będą dalej stanowić świetne źródło informacji do tego, aby użytkownik po prostu kliknął i znalazł to, czego poszukiwał.

Maciej
No właśnie. Ciężko to pewnie przewidzieć, ale jak myślisz, jaka to jest perspektywa czasu, żeby to Google wdrożył? Wiadomo, że na rynku polskim to też pewnie będzie ograniczone przez nasz język, który jest pewnie bardziej trochę skomplikowany niż angielski. Na pewno pamiętasz, co się działo, kiedy ChatGPT został wypuszczony do szerokiego grona odbiorców. Też już wszyscy wieszczyli koniec SEO. Po co ktoś miałby korzystać z Google’a, skoro ChatGPT jest mu w stanie podać te odpowiedzi szybciej, czasem dokładniej i tak dalej. I też dopiero po jakimś czasie wyszło, że ten ChatGPT jednak ma jakieś tam ograniczenia, często zmyśla, nie ma najnowszych danych i tak dalej i rzeczywiście, część osób pewnie nadal korzysta, ja też korzystam z ChatGPT do różnych rzeczy, ale nie korzystam z niego w takim stopniu, jak korzystam z Google’a i też jak byłem w 2020 roku w Krakowie bodajże na konferencji, to też tam też była przedstawiona taka informacja, że już na dniach Google ma na swojej konferencji przedstawić coś, co wywróci rynek SEO do góry nogami, że zapomnimy o dotychczasowym SEO i wszystko będzie super nowe, więc będziemy musieli się uczyć na nowo i tak dalej. No i dwa lata mija i nadal SEO w formie swojej klasycznej nadal jest jednak istotne, nadal jest w stanie generować ruch na stronę. AI cały czas nie przejęło jego roli. I właśnie jak myślisz, jak Google planuje to wszystko połączyć? No bo z tego, co teraz pokazują, to AI Overview zajmuje praktycznie większość serpów, ale w tym momencie tę pozycję zajmują reklamy, które generują Google’owi mega dużo hajsu. Nie da się ukryć, że to jest chyba jego główne źródło przychodu, więc jak myślisz, jak Google planuje to ze sobą połączyć? Właśnie jak planuje połączyć ze sobą to, że jednocześnie chcieliby zarabiać z tych reklam, a z drugiej strony chcieliby promować to AI, żeby być bardziej konkurencyjni? Chociaż nie wiem tak na dobrą sprawę, czy Bing powiedzmy jest dla nich jakąś tam konkurencją, pomimo też integracji z ChatGPT. No właśnie, to w sumie moje pytanie jest takie: jak myślisz, że Google koniec końców to rozwiąże?

Paweł
Przede wszystkim musimy patrzeć pod kątem monetyzacji, a nie przyszłości stricte związanej ze sztuczną inteligencją. No bo sztuczna inteligencja są to zasoby, na które trzeba mieć ogromne ilości pieniędzy i zasobów serwerowych, oprogramowania, sztabu ludzi, którzy będą poprawiać, aktualizować dane narzędzia. Moje zdanie jest takie, że Google będzie najpierw testował to, czy sztuczna inteligencja nie gryzie się ich z systemem reklamowym. No bo jeśli wyświetlają informacje w boksach, to też muszą to pogodzić z reklamami w wynikach, które wyświetlają po wprowadzeniu danego zapytania. I wydaje mi się, że sztuczna inteligencja będzie mniej i bardziej (w związku z daną tematyką stron i sklepów internetowych) wyświetlana w wynikach organicznych. Weźmy pod uwagę to, że istnieją branże, w których jest większa lub mniejsza konkurencja, czyli według mojej teorii jeśli istnieje konkurencja, która chciałaby wyświetlić się na topowych właśnie pozycjach reklamowych, czyli są to najwyższe pozycje, no to myślę, że Google poświęci bardzo duży wycinek tego na reklamy, czyli będzie oczywiście wyświetlał wyniki związane z AI, ale też w dużym stopniu będzie dalej wyświetlał swoje reklamy. Czyli tort zostanie podzielony na różne części i w zależności od danej branży, czy będzie to medycyna, czy fitness, zdrowie, uroda, a może inna część usługowa będzie się wyświetlał więcej AI, a tutaj z kolei więcej reklam, no bo jednak muszą zarobić na kliknięciach. I wracając właśnie do tej konkurencyjności w postaci reklam ads-owych, istnieją branże, w których kliknięcie za reklamę dochodzi często do kilkunastu złotych, więc myślę, że w takich branżach Google będzie częściej wyświetlał reklamę niż aniżeli wyniki związane z AI, no bo to się zwróci. Są to budżety, o których często nie mamy pojęcia. Są to wpięte karty, które często nie posiadają zbyt dużego limitu, czyli Google „wyciąga” z nich ile się tylko da, a jeśli będzie wyświetlał więcej informacji ze sztucznej inteligencji, no to w jaki sposób na to zarobi, prawda?

Maciej
No tak, no to jest na pewno coś, czemu trzeba się będzie przyglądać, bo też na pewno wydaje mi się, że jeżeli to zostanie wdrożone na taką szerszą skalę, to zaraz znajdą się specjaliści. W sumie już teraz jest parę firm, które się w tym specjalizują. Właśnie, jak my możemy również wpływać na to, żeby rzeczywiście pojawiać się w AI Overview? Bo Google też będzie musiał skądś te dane brać. To jest moja taka teoria, że zmiany w serpach to już następują od wielu lat. Na pewno serpy dzisiaj różnią się od tych z 2015 roku. Mamy wszystkie „knowledge graph-y”, mamy newsy na niektórych frazach. To też parę lat temu było dużym takim „buzzword-em”, czyli „zero click searches”, czyli Google zaczął odpowiadać na wiele takich pytań informacyjnych bezpośrednio w wyszukiwarce, więc też od pewnego czasu Google zrobił, że tak powiem, „AI Overview dla ubogich”, czyli właśnie zaczął odpowiadać na te pytania po prostu w wyszukiwarce i nie trzeba było wchodzić na stronę, no i też dla marketerów to był jakiś tam problem. Dobra to ostatnie pytanie w kwestii Google-owej i update’ów i trendów i tak dalej, Bo za każdym razem jak przychodzi nowy update algorytmu, szczególnie core update, no to tak jak u mnie na LinkedInie jest zawsze płacz i zgrzytanie zębów i przez całe SEO przechodzi płacz, że „pospadaliśmy”, z tym że w SEO nie ma próżni, w sensie, jeżeli ktoś spadł, to znaczy, że ktoś inny zyskał. Jeżeli komuś spadło, no to ktoś inny najwyraźniej musiał zyskać i on wskoczył na to miejsce. I teraz moje pytanie jest takie: czy ty masz jakieś takie sprawdzone sposoby na to, żeby właśnie te update’y Google’a nas nie dotykały tak mocno? W sensie czy są „best practices”, które możemy wykorzystywać do tego, żeby tworzyć treści, które są rzeczywiście zgodne z tym, co Google twierdzi, że on chce pokazywać? I przygotowując się do tej rozmowy oglądałem Twoją rozmowę z Janem z Giełdy Tekstów. To było z marca i wtedy, w marcu wyszedł ten update algorytmu, który strasznie pogrzebał strony, które w dość dużym stopniu były oparte o treści generowane przez AI. Bardzo dużo stron, które po prostu miały takie spamerskie treści, w sensie „wyplute” przez ChatGPT ewidentnie mocno traciły na widoczności i to był taki sygnał, że rzeczywiście Google się zabiera za porządkowanie sieci. Więc czy twoim zdaniem są jakieś takie sprawdzone sposoby na to, żeby po prostu być odpornym na te wszystkie update’y algorytmu i po prostu nie zagryzać zębów za każdym razem, kiedy słyszysz o tym, że „o Boże, nowy core update wychodzi”? Tylko spokojnie, ja działam zgodnie z wytycznymi. Mnie to nie dotyczy.

Paweł
Bardzo mi się podoba podejście Google’a do treści AI-owych, no bo nie zakazał tworzenia treści ich publikacji. Wydał po prostu jakby zielone światło na treści AI-owe i dostaliśmy taką informację: możecie generować treści przez ChatGPT czy przez inne systemy do sztucznej inteligencji, do tworzenia treści, ale pod jednym warunkiem, dajcie swoim użytkownikom odpowiednią możliwość interakcji z Waszym serwisem, żeby użytkownik został i otrzymał taką wiedzę, jakiej poszukiwał. Tak, żeby nie skończyło się dużym współczynnikiem odrzuceń, czyli wejście i z powrotem wyjście do wyników organicznych spowodowane tym, że nasza treść wywołała „clickbait” i nie dostarczyła informacji użytkownikowi, których poszukiwał. I tak samo jeśli chodzi o sklep internetowy, tak, jeśli generujemy treści w postaci np. artykułów blogowych przez sztuczną inteligencję, czyli przykładowo przez ChatGPT, możecie użyć tego narzędzia, ale zachowajcie treść poradnikową, rozwiązujcie problemy Waszych klientów związanych oczywiście z tematyką waszego sklepu internetowego i towaru, który oferujecie. Także jest „zielone światło” na sztuczną inteligencję, ale cały czas musimy pamiętać o tym, aby nasza treść była pomocna dla użytkowników. Oczywiście wiem o tym, że „treść pomocna” to jest zbyt duże i wygórowane określenie i to my musimy metodą prób i błędów, metodą testów sprawdzać, czy użytkownicy pozostają na naszej stronie lub w sklepie, jaki czas jest odnotowany na danej podstronie czy w kategorii sklepu internetowego i na podstawie również rozmów z obsługą techniczną, czy z obsługą klienta sprawdzajmy, czy nasi klienci pytają o coś, czego nie opublikowaliśmy właśnie w naszej treści. Jeśli istnieją pytania, które się powtarzają, to jest „zielone światło” na to, abyśmy mogli naszą treść rozszerzyć i przede wszystkim dodać do niej kolejne informacje, o które użytkownicy pytają. Wracając jeszcze do tych aktualizacji, o których wspomniałeś, od marca Google tasuje wynikami, analizuje strony i sklepy internetowe, usuwa spam, usuwa treści o niskiej jakości. To wszystko jest właśnie związane z treścią AI, ale oczywiście jeśli ktoś wygenerował w sposób masowy tą treść i nie dokonał analizy, nie dokonał korekty, pozostawił błędne informacje, pamiętajmy, że ChatGPT halucynuje, także z każdą kolejną aktualizacją algorytmów dbajmy o analizę i korektę naszej treści. I dopiero w ten sposób będziemy mieć dopiero fundament, czyli podstawę do tego, abyśmy w dalszy sposób optymalizowali naszą treść. Pamiętajmy o tym, że treść wygenerowana przez sztuczną inteligencję stanowi materiał do dalszej pracy, czyli optymalizujmy ją w dalszy sposób za pomocą stosowania nagłówków zawierających słowa kluczowe, tytułów zawierających główne słowo kluczowe, linkowanie wewnętrzne na podstrony lub produkty w naszym sklepie internetowym (jeśli są to oczywiście wpisy blogowe) i na tej podstawie dokonujmy właśnie dalszej optymalizacji.

Maciej
Dobra to myślę, że będzie też dobre, płynne przejście do tego, żebyśmy zeszli troszeczkę niżej na ziemię i porozmawiali o tym, jak możemy wykorzystywać właśnie wszystkie narzędzia AI-owe do takiej swojej codziennej pracy. W sensie oglądałem też Twoje filmiki na temat tego, jak tworzyć dobre produkty do ChatGPT, tak, żeby tworzył wysokiej jakości teksty. I właśnie to jest też to, o czym Ty wspomniałeś, że Google kilka miesięcy temu zmienił swoje podejście do treści generowanych przez AI. W sensie wcześniej twierdził, że mają być tworzone przez ludzi dla ludzi, wycofał ten wpis, powiedział „spoko, twórzcie przy pomocy AI tak długo, jak one są przydatne użytkownikowi”, więc tak jak widziałem te strony, które oberwały, to właśnie były to strony, które zawierały nagłówek, krótki akapit, nagłówek, krótki akapit – ewidentnie wygenerowane przez ChatGPT, albo przez jakikolwiek inny inne narzędzie AI. W sensie nie było żadnych elementów, które mogłyby zachęcać użytkownika do tego, żeby on wszedł w jakąś interakcję, nie było żadnych obrazów, nie było żadnych właśnie takich „call to action” (CTA), tylko było to ewidentnie zoptymalizowane pod „featured snippets”, pozycje zerowe. I ta strona rzeczywiście przez pewien czas dobrze sobie radziła. Ale potem przyszedł ten update i niestety polecieli. I teraz powiedz mi, w jaki sposób Ty na co dzień korzystasz z narzędzi AI-owych i czy korzystasz z czegoś innego niż tylko ChatGPT?

Paweł
Generalnie jeśli chodzi o tworzenie treści, no to osobiście podchodzę do tego w ten sposób, że zlecam to wykonanie profesjonalnemu copywriterowi i to jemu tak naprawdę zostawiam wszelkie możliwości na przygotowanie tej treści. Pod warunkiem takim, że ta treść musi zostać przede wszystkim przez niego zweryfikowana i poprawiona. No bo jeśli wykorzystuje narzędzia, które będą tę treść generować, pamiętajmy o tym, że copywriter nie jest specjalistą w każdej dziedzinie. Oczywiście, on się może specjalizować w określonym obszarze: motoryzacja, komputery i tak dalej. Jest wiele branż, w których każdy się może specjalizować. No, ale oczywiście dlaczego by miał nie korzystać z narzędzia, które może mu przyspieszyć tę pracę, przygotować szablon, szkielet treści i dopiero na tej podstawie przygotować dalszą treść do publikacji. Także jeśli chodzi o same narzędzia najbardziej popularne, myślę, że to narzędzia będzie oprócz ChatGPT, które jest z czatem pomiędzy nami a sztuczną inteligencją, to poleciłbym przykładowo Contadu. Jest to zwizualizowany edytor treści, który właśnie również wspiera AI i jest podłączony pod modele językowe sztucznej inteligencji, ale przede wszystkim przedstawia nam krok po kroku, w jaki sposób powinniśmy przygotować naszą treść i ją zoptymalizować przy użyciu słów kluczowych powiązanych właśnie z tematem, na który będziemy pisać czy to treść podstron, czy treść artykułu blogowego.

Maciej
Ok, jakby ktoś chciał korzystać z ChatGPT tak na własną rękę, to właśnie co powinien zawierać taki dobry prompt, który wygeneruje mu treść wysokiej jakości, zmniejszy ryzyko, że ta treść będzie ewidentnie wyglądała jak treść napisana przez AI? W sensie tak jak wspomniałeś w swoim filmie, treści tworzone przez AI zostawiają jakiś tam ślad. W sensie są tam powtarzalne jakieś wzorce, które wskazują, że to jest treść wygenerowana przez AI. Powiedzmy, mam dostęp do ChatGPT, chcę na własną rękę przygotować takie treści, co Twoim zdaniem powinno się znaleźć w takim prompcie, żeby ChatGPT przygotował jak najlepsze treści?

Paweł
Abstrahując od tego, że możemy za pomocą jednego promptu przygotować treść o wysokiej jakości, no to tutaj jednak musimy patrzeć na to realnie. Za pomocą jednego promptu nie przygotujemy dobrej treści. My możemy i powinniśmy w zasadzie podzielić naszą treść na wiele promptów, w zależności od tego, czy to będzie wstęp, czy rozwinięcie i zakończenie, a także spis treści. Powinniśmy przygotować różne prompty, za pomocą których będziemy prosić ChatGPT o pomoc w przygotowaniu zarysu naszej treści, ale pamiętajmy o tym, że nawet jeśli ChatGPT ma możliwość generowania treści, to sami powinniśmy przynajmniej przygotować treść na podstawie zarysu, a dopiero ją w dalszym ciągu rozwijać. I tutaj również możemy używać promptów, ale w dalszy sposób pytajmy o propozycję, w jaki sposób ChatGPT rozwiązałby dany problem, jeśli chodzi o daną treść. To, do czego piję, to przykładowa lista pytań, które może zostać zadawana przez użytkownika, obejmująca właśnie klaster tematyczny danej treści, czyli w jaki sposób wykonać coś? W jaki sposób naprawić coś? W jaki sposób coś wyczyścić? Użyjmy ChatGPT do tego, aby przygotował nam zarys, a my, jeśli mamy zdolności copywriterskie lub jeśli chcemy zlecić taką treść do napisania copywriterowi, przygotujmy mu szkielet, który będzie polegał na tym, że podzielimy naszą treść na konkretne pytania i dopiero w danym akapicie, który będzie dotyczył odpowiedzi na dane pytanie, copywriter powinien wejść i przygotować już odpowiednią i profesjonalną treść merytoryczną, która będzie zrozumiana przez użytkownika.

Maciej
A korzystałeś z jakichś innych narzędzi do tworzenia treści właśnie w AI? W sensie na przykład Copymate? Wspomniałeś o Contadu. Bo jakiś czas temu też właśnie były popularne takie inne narzędzia. Mamy Claude’a, mamy Copymate, mamy pewnie dużo takich narzędzi, które stricte specjalizują się w tym, żeby tworzyć jak najlepsze treści. I tam mamy możliwość określenia, jaki dokładnie ma być wydźwięk danego artykułu, czy jaki ma być użyty język. W sensie to są narzędzia, które ułatwiają nam przygotowywanie tych promptów, bo my tylko sobie wybieramy jakieś tam elementy i to zostaje przetworzone na prompt dla sztucznej inteligencji. Korzystałeś z jakichś takich narzędzi oprócz Contadu?

Paweł
Tak, testuję przykładowo narzędzie seowriting.ai i właśnie w tym narzędziu również możemy wybrać ton, model językowy, który zostanie wykorzystany, możemy zaznaczyć w nim, czy podczas tworzenia treści ma zostać umieszczony film z YouTube’a, dane w tabeli czy podsumowanie naszej treści wraz z listą pytań w postaci FAQ na końcu artykułu. Tak, oczywiście korzystałem z tego. Świetne możliwości, bardzo szybki sposób na generowanie treści, ale ta treść niestety zostaje wykryta przez algorytmy Google’a. No i oczywiście nie rankują od samego początku. Mam przygotowane kilka takich właśnie serwisów, które mogę oczywiście zaorać i nic się z tym nie stanie, ale mam wydzielone pod eksperymenty, nazwijmy to „środowiska”, w których testuję różne modele językowe, które są lepsze, tańsze, droższe i gorsze. Pamiętajmy o tym, że te narzędzia, które generują treści, im są droższe, tym są lepsze, bo oczywiście posiadają wpięte bardzo dużo funkcjonalności, ale jednak wykorzystuję w dalszy sposób pomoc copywritera w tworzeniu treści.

Maciej
Czyli mimo wszystko nadal sądzisz, że jeżeli chcemy tworzyć dobrej jakości teksty, to tekst przygotowany przez dobrego copywritera nadal będzie lepszy niż treść wygenerowana przez AI, tak?

Paweł
Zdecydowanie tak. Pamiętajmy, że jednak treść pisana przez człowieka zawiera jednak pewien czynnik ludzki. Maszyna nie posiada emocji. Człowiek posiada emocje. W jaki sposób przygotować treść, która od samego początku będzie interesować użytkownika i rozwinie oczywiście tematykę danej treści, a na samym końcu również ją podsumuje? Oczywiście może to wykonać również robot. Nie neguję pracy robotów, ale jednak czynnik ludzki nigdy nie zostanie pokonany przez robota. No bo jednak my jako ludzie w jakiś sposób odczytujemy daną treść i ją rozumiemy. Sami oceniamy, czy warto wierzyć danej treści, czy jest ona relewantna, czy jest ona legitna. Przede wszystkim robot tego nie odczuje. Dla robota jest informacja taka: przedstawiamy mu prompt, on ma wykonać swoje zadanie – wygenerować treść. Moja praca się skończyła, zostawiam cię z tą treścią, rób sobie dalej co chcesz. A jednak człowiek mimo wszystko, który przygotuje tą treść (nawet z wykorzystaniem AI), przeczyta ją na sam koniec jeszcze raz i odpowie sobie na pytanie, czy dokonał finalnie treści, która w zamyśle rozwiąże dany problem użytkownika? I będzie on odpowiadać za to, czy ta treść powinna zostać opublikowana, czy nie. Robot wygeneruje i odda nam treść, a my róbmy sobie z nią, co chcemy.

Maciej
Czyli nie uważasz, że AI zastąpi seowców w najbliższej przyszłości?

Paweł
Jestem tego zdania, że samo AI nie. Nie zastąpi, ale zastąpi jeden człowiek drugiego, który wykorzystuje AI. Czyli, jeśli ktoś nie wykorzystuje AI, no to powinien się spodziewać tego, że jednak ta technologia wykorzystywana przez specjalistów pozwoli na to, aby oni zastąpili właśnie tych, którzy nie wejdą do wagonika i nie będą również na bieżąco z technologią. Także tutaj warto się rozwijać, warto wykorzystywać AI, nie ma się czego bać, trzeba testować. Przygotujmy sobie środowisko testowe, nie testujmy wszystkiego na środowisku produkcyjnym, przygotujmy sobie jakieś „testówki”, czy to oddzielny sklep, czy stronę internetową na innej domenie. Oddzielmy to środowisko, wygenerujmy sobie treść z AI, w dalszym ciągu pracujmy z copywriterem na głównym serwisie, podepnijmy sobie analitykę i sprawdźmy, w jaki sposób reaguje wygenerowana treść oraz treść, która zostanie przygotowana przez profesjonalistę.

Maciej
No tak, czyli tak, jak mówią, to nie AI pozbawi cię pracy, tylko osoba, która ogarnia AI potencjalnie pozbawi Cię pracy. Dobra, no to jak już jesteśmy przy tym temacie, to chciałbym z Tobą porozmawiać na temat narzędzi, które wykorzystujesz na co dzień, które ułatwiają Ci pracę. Jakie są takie narzędzia? Wiadomym jest Google Analytics, Google Search Console, szczególnie Search Console – to jest element, bez którego ciężko robić jakiekolwiek skuteczne SEO, bo to są kopalnie darmowej wiedzy prosto od Google’a, więc to jest w ogóle nienegocjowalne, żeby to dodać do swojego arsenału SEO. Ale właśnie z jakich narzędzi korzystasz na co dzień, które ci pomagają zautomatyzować pewne procesy, przyśpieszyć pewne działania? Z których korzystasz najczęściej?

Paweł
Tutaj nie odkryję Ameryki. Tak naprawdę będą to narzędzia googlowskie, czyli te, o których wspomniałem, czyli Analytics i Search Console. Warto też wykorzystać Google Trends, który został niedawno zaktualizowany, posiada nowy interfejs, tak że coraz więcej informacji będziemy wyciągać z darmowego przede wszystkim narzędzia od Google’a. Także tutaj Google Trends. No i pozostałbym również w dalszym ciągu na naszym rodzimym rynku i polecałbym wykorzystanie Senuto i Semstorm, a w zależności od tego, który interfejs Wam będzie odpowiadał – ja korzystam z obydwu. Bardzo fajnie się uzupełniają. I jeśli chcielibyśmy po prostu w dalszym ciągu pozostać przy narzędziach SEO, no to tutaj warto zwrócić uwagę również na rynki zagraniczne i są to narzędzia typu Ahrefs, w zależności od tego, w jaki sposób chcemy podejść do przygotowywania naszej kampanii SEO. I poza tym narzędziem również polecam Semrusha do serwisów na rynkach zagranicznych. Są to moje podstawowe narzędzia, z których korzystam.

Maciej
Ok, są to narzędzia do analityki, do analizowania tego, w którym miejscu my jesteśmy, do analizowania tego, gdzie jest konkurencja. A powiedz mi, czy korzystasz też z narzędzi jakichś takich darmowych? Czy korzystasz z jakiś darmowych narzędzi, które na przykład ktoś, oglądając ten filmik mógłby sobie wejść? No bo Senuto ma swój 14-dniowy, chyba darmowy trial. Nie wiem jak Semstorm, ale Ahrefs i Semrush to są już trochę droższe zabawy. Nie dla każdego. Czy masz do polecenia jakieś darmowe narzędzia, które mogą pomóc zrobić SEO w łatwiejszy sposób? Mamy na przykład Screaming Frog, który jest darmowy w wersji troszeczkę ograniczony, ale czy są jakieś takie większe kombajnu? Czy masz coś do polecenia? Nawet jakąś taką aplikację webową, że się wchodzi na stronę i tam wrzucamy naszą stronę i ona nam „wypluwa”, powiedzmy jakiś audyt za darmo, tak? Czy masz takie, które są rzeczywiście godne polecenia?

Paweł
Jeśli chodzi o audyt, no to tutaj jednak bardziej bym polecał właśnie te płatne narzędzia. No bo możemy wykorzystać darmowe narzędzia typu Google Search Console i oczywiście powinniśmy je wykorzystywać, bo to jest pierwsze narzędzie, które wziąłbym pod uwagę, jeśli chodzi o wykonanie jakiejkolwiek analizy i audytu technicznego. Ale jestem zwolennikiem tego, że warto zapłacić za narzędzie, które jest płatne. I nawet chociażby w podstawowej jego wersji, bo jednak płatne narzędzia są dużo lepsze niż te darmowe. No bo jednak autorzy, którzy poświęcają czas, zwiększają zasoby tego narzędzia i dzięki temu będziemy w stanie wykryć więcej błędów, aniżeli używając narzędzi, które są darmowe. Czyli przykładowo jest to narzędzie Ahrefs. Warto zainwestować choćby w podstawową wersję tego narzędzia, abyśmy mogli otrzymać możliwość wykonywania automatycznego audytu na naszej stronie lub w sklepie internetowym. Wpinamy naszą stronę lub sklep w to narzędzie i w sposób automatyczny zlecamy wykonanie audytu. Boty Ahrefsa wejdą do naszego serwisu i od samego początku do końca, do ostatniej podstrony, przeanalizują każdą z podstron, przejdą po linkach wewnętrznych, przeanalizują mapę witryny i sprawdzą wszelkie błędy, jakie mógł oczywiście również napotkać robot indeksujący od Google’a. Sprawdzą kody statusów serwera, czy będą to „200”, czyli te właściwe i działające podstrony, czy będą to „404”, czy będą to pętle przekierowań, czyli jedno przekierowanie w drugie i dopiero finalnie „200”, czyli przekierowania „301”. No i najważniejsze błędy typu „404”, czyli nieistniejące podstrony, które możemy podlinkować czy to z artykułów blogowych, czy nawet z treści podstron. Także szedłbym w płatne narzędzia chociażby w podstawowym pakiecie i polecam je, pomimo że są płatne, to jednak w dużym stopniu pomagają w wykonaniu analizy i oszczędzą nam bardzo dużo czasu.

Maciej
Muszę przyznać, że te audyty, które robi Ahrefs są naprawdę dobrej jakości i bardzo fajnie uzupełniają dane z Screaming Frog. Screaming Frog nie ma najbardziej przyjaznego interfejsu dla użytkownika. Widziałem, że Ty też proponujesz Sitebulb, ale on nie ma chyba darmowej wersji?

Paweł
Powiem tak, że nawet jeśli ma, to jednak warto przejść na tą płatną wersję, bo płatne narzędzia, które mogą być po części darmowe, są mega ograniczone i mogą przejść do połowy naszych podstron i w pewnym momencie wyświetlić nam popup-a z informacją o tym, abyśmy opłacili to narzędzie i nasz audyt zostanie po prostu przerwany, zatrzymany w pewnym momencie, dlatego nie oszczędzałbym na analizie.

Maciej
Jasne. Właśnie, ja też zmierzam do tego, że Sitebulb ma o wiele bardziej przyjazny interfejs i pamiętam jak ja robiłem właśnie audyty stron przy pomocy Sitebulb, wiem, że w Screaming Frog teraz to się troszeczkę zmieniło, ale Sitebulb nadawał im priorytety, przedstawiał to w o wiele bardziej przyjaznej formie. I tak samo ten audyt Ahrefsa, który też crawluje nam stronę regularnie i wypluwa błędy, dzieląc je na priorytety, więc jesteśmy w stanie od razu stwierdzić „okej, to jest krytyczne, tym się powinienem zająć w pierwszej kolejności” i on też to przedstawia w taki sposób, że nawet wydaje mi się, że ktoś z niską wiedzą techniczną jest w stanie wdrożyć te zmiany, bo tam są zawsze opisy tego wszystkiego, dokładnie, co trzeba zrobić, gdzie ten błąd występuje i tak dalej. Także, jak najbardziej polecam. Wydaje mi się, że Ahrefs też ma darmową wersję tego. To się chyba nazywa „Webmaster Tools”, tylko tak jak właśnie mówisz – to jest darmowa wersja czegoś, co docelowo ma być płatne, więc to jest w jakimś tam stopniu ograniczone, ale do takiego regularnego sprawdzania „stanu zdrowia” swojej strony, to jak najbardziej ten Ahrefsowy audyt się przydaje. Dobra, no to powiedz mi jakby ktoś chciał robić SEO na własną rękę, to co byś mu doradził? W sensie, na czym powinien się skupić? Na co powinien zwrócić największą uwagę? No bo wiadomo, że będzie mu brakowało wiedzy technicznej, żeby zrobić jakąś profesjonalną migrację serwisu, czy właśnie przeanalizować logi serwera. Ale powiedzmy, że ktoś ma nie za wielką stronę, jakąś swoją z usługami, kilka usług albo kilka usług lokalnych, to co powinien w jakiej kolejności wykonać, tak żeby to przyniosło mu największy zwrot z inwestycji?

Paweł
Chciałbym jeszcze dodać jedną rzecz, o której właśnie przed chwilą rozmawialiśmy o Ahrefs i Sitebulb. Pamiętajmy jeszcze o tym, że te dwa narzędzia pomogą w wykonaniu audytu, ale jedno z tych narzędzi działa w chmurze, czyli Ahrefs, a drugie narzędzie jest desktopowe. Także weźmy pod uwagę to, że powinniśmy przeznaczyć duże zasoby naszego komputera, czyli pamięć RAM do tego, aby przeskanowała nasz serwis. Im większy serwis i im większa ilość podstron, no to, tym więcej pamięci będzie musiało alokować właśnie to oprogramowanie. A jeśli chodzi o porady dla początkującego SEO, to oprócz tego, o czym wspomnieliśmy na samym początku, czyli podłączenie Analytics i Search Console, warto by było wygenerować mapę linków i ją właśnie zgłosić do Google Search Console. Możemy do tego oczywiście wykorzystać zarówno Screaming Froga, który ma wbudowane narzędzie do moduł do generowania mapy, ale też możemy wejść na przykład na serwer do serwisu xml-sitemaps.com i w ten sposób możemy za darmo do 500 podstron wygenerować mapę linków. I to zadanie spełni swoją rolę dla stron usługowych, które nie zawsze zawierają tyle podstron. Czyli oprócz mapy linków przeszedłbym też do zainstalowania wtyczek. I oczywiście, jeśli korzystamy z narzędzi typu CMS WordPress do zarządzania treścią, no to mamy tutaj ogromną masę wtyczek, które warto by było zainstalować i te wtyczki zupełnie za darmo pomogą nam w optymalizacji. Możemy zainstalować wtyczkę, która wygeneruje mapę linków, ale możemy zainstalować przykładowo w WordPressie wtyczkę Yoast czy RankMath, które właśnie mają w swoich zasobach możliwość generowania mapy linków. Poza tą funkcją posiadają również kreator, za pomocą którego krok po kroku skonfigurujemy naszą stronę w taki sposób, aby te wtyczki w sposób automatyczny dokonały już pewnej optymalizacji pod SEO, czyli wyświetlały odpowiednie tytuły w pasku przeglądarki, które będą oczywiście składać się z tytułów podstron, co nie zawsze jest logiczne. Podczas optymalizacji nie zawsze o tym wszyscy pamiętamy, ale także wygenerują nam również znaczniki „Schema”, czyli znaczniki, które będą odpowiedzialne za to, aby nasza strona czy sklep internetowy zostały odczytywane w poprawny sposób przez roboty crawlujące oraz aby wiedziały jaka treść występuje i czego dotyczy na naszej stronie, a także jakiej tematyki dotyczy, na przykład czy jest to strona publikująca przepisy, czy wizytówka firmowa? I właśnie na podstawie tych znaczników w sposób automatyczny te wtyczki wygenerują i wprowadzą do naszego kodu źródłowego znaczniki „Schema”, a dopiero później roboty indeksujące ponownie powinny przecrawlować nasz serwis w sposób automatyczny i wyświetlić w wynikach organicznych poprawne treści. Bo pamiętajmy też o tym, że jeśli dobrze nie zoptymalizujemy naszych stron, no to w wynikach organicznych będą mogły się pojawiać tytuły, które sobie sam wybierze Google. Poza tymi wtyczkami poleciłbym także „Lazy Load”, czyli opóźnianie wczytywania niepotrzebnych zasobów podczas wczytywania. Bo pamiętajmy o tym, że istnieją podstawowe wskaźniki internetowe „Core Web Vitals” i są to znaczniki, które od pierwszego zapytania analizują czas wczytywania naszej strony internetowej.

Maciej
No właśnie. À propos „Core Web Vitals”, bo one były bardzo głośne, powiedzmy trzy lata temu, mniej więcej, gdy wchodziły, czy cztery. Czy taka osoba nietechniczna, która nie ma żadnego doświadczenia w programowaniu, czy jest w stanie rzeczywiście poprawić w znaczący sposób szybkość ładowania swojej strony, wskaźnik, jeżeli chodzi o „Core Web Vitals”? Bo są wtyczki, które „twierdzą”, że są w stanie w tym pomóc. Z tym że ja na przykład ze swojego prywatnego doświadczenia korzystałem z jakiegoś „WP Rocket” czy innych tego typu rzeczy, które mają w tym pomóc, to rzeczywiście trochę pomagało, ale z drugiej strony spotykałem się też z takimi stwierdzeniami, że one po prostu tak jakby „maskują” to przed Google, nie rozwiązują nam jakichś poważniejszych problemów. I tak na dobrą sprawę właśnie myślisz, że taka osoba nietechniczna jest w stanie przy pomocy wtyczki poprawić rzeczywiście szybkość ładowania strony? Czy będzie potrzebowała do tego pomocy jakiegoś doświadczonego web developera?

Paweł
Uważam, że to zależy też od zasobności tej strony internetowej, bo jeśli jest to prosta strona wizytówkowa, no to jesteśmy w stanie ją poprawić i jej wyniki i dopiero na podstawie właśnie tych wtyczek, które podałem oraz wtyczek, które wygenerują w locie z grafik typu „.jpg” czy „.png” format „.webp” i będą je przechowywać na swoim serwerze, to myślę, że to będzie bardzo duży skok i będziemy mogli sobie to sami wykonać własnoręcznie. A jeśli będziemy prowadzić już średni sklep na przykład na WordPressie, nawet z wykorzystaniem modułu „Woocommerce”, to przede wszystkim polecam wcześniej wykonać kopię sklepu produkcyjnego i utworzyć środowisko testowe i dopiero wtedy skopiowałbym tam nasz sklep i tam wykonałbym test narzędzi do automatycznej optymalizacji. Bo pamiętajmy o tym, że te narzędzia mogą nie zawsze działać, bo mogą przekonwertować naszą grafikę, zmniejszyć jej wagę, ale przede wszystkim zniszczyć jej jakość. A jeśli nie będziemy posiadać kopii, a ta grafika zostanie „przemielona” na naszym serwerze, no to niestety już tego nie przywrócimy.

Maciej
Jeszcze na koniec takie pytanko, jaki jest Twoim zdaniem największy błąd, który popełniają właśnie osoby, które chcą robić coś na własną rękę? Jakie jest największe „niezrozumienie”, jeżeli chodzi o SEO, które najbardziej negatywnie wpływa na to, że nie będą w stanie zajmować wysokich pozycji w Google?

Paweł
Jeśli chodzi o błędy, to wydaje mi się, że oszczędność na zlecaniu pracy specjalistom, czyli tak jak wspomniałem niezlecanie pracy copywriterom, masowe tworzenie treści i generowanie jej w AI oraz jej publikacja. Poza treścią wydaje mi się, że brak i ignorowanie optymalizacji naszej strony internetowej czy sklepu internetowego i oczekiwanie na to, aż dojdzie do aktualizacji algorytmu, która „wyciągnie” w jakiś magiczny sposób lepsze wyniki w Google dla naszej strony. Tak samo i kupowanie dużej ilości słabej jakości linków, niekupowanie ich przykładowo na polskich platformach typu Whitepress czy nawet w sklepie SEO. Jeśli kupujemy dużą ilość linków bez również wcześniejszej konsultacji ze specjalistą, to możemy sobie również „przestrzelić” nasz serwis i go zaorać. Wydaje mi się, że ignorowanie możliwości konsultacji ze specjalistami to też jest również kolejny czynnik, który może spowodować bardzo duży spadek. Zachęcałbym do korzystania z usług konsultacji ze specjalistami. Chociażby godzinne konsultacje, podczas których można wyciągnąć bardzo dużej ilość informacji. Nie musi dojść do audytu, ale oczywiście również polecam zlecanie audytu specjalistom, chociażby w celu weryfikacji, czy wykonywane przez nas do tej pory zadania są wykonywane w sposób poprawny i zgodny z zaleceniami wyszukiwarki Google i jej algorytmów. Także myślę, że są to punkty, które których nie powinniśmy ignorować.

Maciej
No jasne jak najbardziej. Dobra, super. To dzięki wielkie za dzisiejsze spotkanie. Mam nadzieję, że dużo wiedzy dostarczyliśmy naszym oglądającym. Powiedz mi, jeżeli ktoś chciałby poznać więcej Twoich opinii, to jak może Cię znaleźć (oprócz kanału na YouTubie)?

Paweł
Myślę, że mogę zaprosić Was na mojego bloga na stronie mojej agencji SEO, który zostanie podlinkowany w opisie tego odcinka. Zapraszam też na mojego LinkedIna, na którym często dzielę się wiedzą na temat SEO i publikuję artykuły, chociażby zajawki do artykułów, które piszę lub czasem swoje przemyślenia związane z metodą prób i błędów na temat SEO oraz AI. Także myślę, że są to źródła, z których będziecie mogli czerpać wiedzę na temat SEO.

Maciej
Dobra. Ja również polecam. Sam oglądam, sam korzystam. Też się inspirowałem w dużym stopniu, także tam jest naprawdę dobra jakość. Także raz jeszcze dzięki za poświęcony czas, za podzielenie się wiedzą i zapraszamy na kanał Pawła. Także dzięki.

Paweł
A ja zapraszam na kanał Maćka. Także możecie oczywiście dzielić i share-ować wiedzę, którą Maciek szerzy, bo trzeba podkreślić to, że Maciek robi również świetną robotę. I ja oczywiście dziękuję za możliwość pogadania sobie tutaj z Tobą i podzielenia się wiedzą. Także sami widzicie, że nasza branża jest na tyle obszerna, że zawsze będzie miejsce na kolejnych specjalistów SEO. Nie bójcie się dokonywać testów, oglądajcie webinary, oglądajcie również zagraniczne kanały SEO, czytajcie blogi polskie, czytajcie również zagraniczne blogi, z których będziecie mogli zebrać najświeższą wiedzę, no bo przecież w Stanach wszystko wychodzi jako pierwsze.

Maciej
A masz do polecenia jakieś właśnie najlepsze wpisy blogowe albo kogo obserwować na LinkedIn’ie, żeby być na bieżąco z najnowszymi rzeczami w sensie i z polskiego rynku i z zagranicznego rynku? Masz kogoś, kogo tak śledzisz na bieżąco?

Paweł
Pozdrawiam Sebastiana Heymanna i Zgreda – Pawła Gontarka. Maciek, Ciebie oczywiście też obserwuję. To, co mogę jeszcze polecić oczywiście to blog Planety SEO. Jest to strona internetowa, która agreguje wpisy blogowe ze wszystkich polskich blogów na temat SEO. Także, jeśli chcecie w jednym miejscu sprawdzić co się dzieje na wszystkich blogach polskich, które są podłączone do Planety, to wpiszcie sobie planeta-seo.pl – pozdrawiam Pawła Rabinka, który jest autorem tego serwisu.

Maciej
No dobra, no to dzięki raz jeszcze i tym razem żegnamy się na stałe. Także dzięki za oglądanie i do zobaczenia.

Paweł
Dziękuję! Cześć!

 

Poszukujesz agencji SEO w celu wypozycjonowania swojego serwisu? Skontaktujmy się!

Podziel się treścią:
Kategoria: ,

Wpisy, które mogą Cię również zainteresować: