Panda
Update algorytmu pt. Panda został zastosowany jako prewencja przeciwko lawinie serwisów odznaczających się słabą jakością, wątłą treścią oraz w celu nagrodzenia dobrej jakości contentu w witrynach. Rosnące na potęgę „farmy treści” powodowały znaczący spadek jakości serwisów, co odbyło się ze szkodą dla użytkowników oraz robotów Google.
Algorytm Panda przypisywał serwisom klasyfikacje opartą na przybliżonej ludzkiej ocenie jakości. Aby w wyniku wpływu algorytmu Panda na widoczność serwisów w wynikach wyszukiwania serwis mógł się odbudować musiał zadbać o dobrej jakości content.
Poprawa zdolności do szybkiego indeksowania treści przez roboty odbiła się czkawką dla algorytmu, który zaczął przyswajać dużo słabej jakości treści.
Według oficjalnych źródeł Google – „Ta aktualizacja ma na celu obniżenie rankingu witryn o niskiej jakości — witryn o niskiej wartości dodanej dla użytkowników, kopiujących treści z innych witryn lub witryn, które po prostu nie są zbyt przydatne. Jednocześnie zapewni lepsze rankingi witryn wysokiej jakości — witryn z oryginalną treścią i informacjami, takimi jak badania, szczegółowe raporty, przemyślane analizy i tak dalej”[1].
Co wiadomo o algorytmie Panda?
Testy nad algorytmem miały ścisły związek z precyzyjnie wyznaczoną listą 23 pytań, na których został on oparty. Pytania takie jak m.in. „Czy ufasz informacjom zawartym w artykule?”, „Czy czułbyś się komfortowo, przekazując prywatne dane tej stronie?” miały być przez algorytm brane z „ludzkiej perspektywy”, aby jak najlepiej dopasować wskaźnik jakości do danego serwisu.
Większość ekspertów branży SEO uznała, że algorytm Panda wykorzystuje uczenie maszynowe do oceniania jakości treści dla strony.
Jak dopasować się do Pandy?
Głównym rozwiązaniem jest poprawa jakości i unikalności treści w serwisie.
Mity na temat algorytmu Panda
- Panda dotyczy zduplikowanego contentu – otóż nie dotyczy, zaprzeczył temu John Mueller, który wyjaśnił, że zjawisko powielania treści jest niezależne dla algorytmu[1]. Unikalne treści to jest to czego szuka algorytm, ale kwestia duplikowania treści jest trudniejsza do weryfikacji dla Pandy.
- Trzeba skasować słabej jakości treści z serwisu, aby uniknąć spadków – Google na początku nie udzielało precyzyjnych informacji dotyczących tego rozwiązania w przypadku spadków widoczności. O ile na początku pojawiały się głosy, że taki sposób może być skuteczny, to w roku 2017 John Mueller dał jasno do zrozumienia, że rekomendowanym sposobem przez Google zamiast usuwania lub wycinania, jest ulepszanie treści lub ewentualnie oznaczanie ich jako noindex[1].
- Liczba słów ma kluczowe znaczenie dla kryterium jakości – otóż dla robotów Google najważniejszym kryterium jest trafność odpowiedzi na dane zapytanie/problem/kwestię dla użytkownika. Jeśli strona w sposób wyczerpujący jest w stanie odpowiedzieć na to zapytanie, co znacząco zwiększa prawdopodobieństwo wysokiej pozycji w rankingu Google.
- Panda szczególnie nie lubi stron z linkami afiliacyjnymi i adsami – kwestią nie jest to, że sama Panda jakoś szczególnie ich nie lubi, chodzi o to, że nie są one ogólnie lubiane przez roboty Google i ich kryterium jakości zawsze będzie niskie.
- Techniczne SEO jest istotne dla Pandy – Panda skupiała się głównie na treści, więc pozostałe elementy SEO (które zawsze powinny być w jak najlepszym porządku) nie były przez Pandę brane pod uwagę jako kryterium naczelne.
W dniu 11 stycznia 2016 roku Google oznajmiło, że Panda została włączona do głównego algorytmu Google[1]. Obecnie Panda działa jako jeden z podstawowych sygnałów rankingowych.
Pingwin
O ile w przypadku Pandy nazwa wzięła się od nazwiska jednego z jej twórców – Navneet Panda – to Pingwin takiej genezy nie posiada.
Uruchomienie Pingwina w kwietniu 2012 roku spowodowane było występowaniem masowej ilości spamlinków oraz link buildingu opartego na złych praktykach. Przed Pingwinem liczyła się ilość, a nie jakość – liczba linków ponad wszystko, to odgrywało większą rolę w określaniu punktacji strony internetowej podczas indeksowania i analizowania przez Google. Generowało to sytuację, że strony słabej jakości z równie marnej jakości contentem znajdowały się wysoko w wynikach wyszukiwania z powodu dużej liczby linków.
Pingwin wraz ze swoim bratem Pandą zostali powołani do życia, aby skutecznie usprawniać jakość wyników wyszukiwania. Celem Pingwina było uzyskanie większej kontroli i skuteczności wyszukiwania serwisów, które posługiwały się technikami black hat przy budowaniu profilu linków.
Dzięki lepszemu zrozumieniu i przetworzeniu różnych typów linków Pingwin pracuje nad zapewnieniem, aby naturalne, wiarygodne i trafne linki nagradzały wskazywane przez nie witryny, podczas gdy manipulacyjne i spamerskie linki obniżony ranking strony.
Początkowe działania Pingwina obejmowały bardzo mały zakres wyszukiwanych haseł. Po 4 latach i 6 różnych wersjach algorytmu we wrześniu 2016 roku wyszedł Pingwin 4.0 – finalna wersja algorytmu, która podobnie jak Panda, została wdrożona do głównego algorytmu Google[1].
Wdrożenie do głównego algorytmu oznacza działanie konkretnej funkcjonalności w czasie rzeczywistym. Pingwin 4.0 różnił się od swoich poprzednich wersji tym, że miał za zadanie dewaluować negatywne linki, aniżeli karać serwisy z nich korzystające.
Wpływ na wyniki
Nie wszystkie efekty działania Pingwina wpływały na wyniki całej witryny – niektóre były częściowe i dotyczyły tylko niektórych grup słów kluczowych, które były mocno spamowane i nadmiernie zoptymalizowane, takie jak kluczowe produkty, a w niektórych przypadkach nawet marka.
Wpływ aktualizacji Penguin może również przenosić się między domenami, więc zmiana domeny i przekierowanie starej na nową może spowodować więcej problemów na dłuższą metę.
Eksperymenty i badania pokazują, że użycie przekierowania 301 lub 302 nie usunie efektu Pingwina, a na forum Google Webmasters John Mueller potwierdził, że użycie metaodświeżenia ze starej domeny do nowej może również spowodować komplikacje[1].
Jak się odbudować po Pingwinie?
Disavow tool to klucz do zapobieżenia długofalowym skutkowym Pingwina. Oficjalnym stanowiskiem Google jest, aby korzystać z narzędzia Disavow, jest to uznawane jako najprostsze rozwiązanie, aniżeli przesyłanie prośby o ponowne rozpatrzenie linków.
Rzetelne wyczyszczenie spamerskich linków to klucz do walki z efektami złowieszczego Pingwina.
Co zawrzeć w pliku do narzędzia Disavow
Warto pamiętać, że plik ten musi zawierać wszystkie linki, które mają być zignorowane, dzięki czemu nie będą miały wpływu na witrynę. Jeśli umieszczony został na liście link spamerski – to dobrze, jeśli link dobry – to źle. Warto wybierać więc mądrze.
W pliku dla narzędzia Disavow należy zawrzeć jedynie same czyste linki, nic ponadto. Google nie będzie odczytywało żadnych dodatkowych notatek czy komentarzy, jedynie linki. Po przesłaniu pliku dostarczone zostanie potwierdzenie, co nie oznacza jednak natychmiastowych efektów, bowiem Google musi jeszcze przetworzyć ponownie poszczególne linki zawarte w pliku, a następne zindeksować na nowo strony z nimi powiązane.
Istotne również, aby pamiętać, że jeśli został wcześniej przesłany plik Disavow do Google to nowo wysłany zastąpi plik stary, nie nastąpi dodanie do siebie linków tam zawartych. Z tego powodu istotne jest, aby lista zawsze zawierała pełny wykaz wszystkich aktualnych i starych linków, których chcemy się zrzec.
Rekomendowane jest, aby na listę, zamiast konkretnych linków umieszczać domeny.
Mity na temat algorytmu Pingwin
- Pingwin oznacza karę dla serwisu – nic bardziej mylnego. Pingwin jako algorytm w swej naturze działa samoczynnie – nie jest kierowany ani sterowany manualnie przez pracownika Google, wobec czego nie może oznaczać nałożenia kary na serwis za swoje przewiny sensu stricto. Wg Google to „tylko” algorytm 😊
- Google poinformuje Cię, gdy dostaniesz Pingwinem – otóż nie. Nie otrzymamy żadnej informacji dotyczącej obniżki widoczności naszego serwisu w wyniku działania algorytmu Pingwin, ani na Google Search Console, ani na Gmaila, ani nawet na smartwatcha. Po prostu nie.
- Użycie Disavow Tool to jedyna droga do odwrócenia trendu wywołanego Pingwinem – tak nie jest. Mimo że wdrożenie tej strategii jest skuteczne, to trwa dużo czasu i niesie ryzyko zmarnowania potencjalnych dobrych zasobów do linkbuildingu. Innym sposobem jest kontratak w postaci budowania profilu linków opartych na linkach wysokiej jakości dla serwisu. To zadziała!
- Nie da się podnieść po ciosie od Pingwina – nie jest to prawda. Mimo że Pingwin to potężny przeciwnik, poradzenie sobie z jego efektami jest możliwe, co zostało wspomniane powyżej. Niektórzy doradzają całkowite wyczyszczenie profilu linków i budowanie go od zera w oparciu o wysokiej jakości linki – piękna idea.
Koliber
Od jesieni 2013 roku update algorytmu Google w postaci Kolibra wpłynął na wyniki wyszukiwania użytkowników na całym świecie[1].
Aby zrozumieć, jak Koliber zmienił sposób działania wyszukiwarki należy pokrótce przypomnieć działanie wyszukiwarki wcześniej. Do 2013 zasady były zasadniczo proste – co użytkownik wpisał, to wyskakiwało – mało inwencji twórczej posiadała wyszukiwarka. Jak w chińskiej bajce – było to dobre, ale i niedobre. Dobre, bo często właśnie na tym nam zależy, aby w wynikach wyszukiwania znalazło się dokładnie to, o co prosimy. Druga strona medalu jednak pojawia się w momencie, gdy nie do końca wiemy, czego szukamy, a jednak chcielibyśmy to znaleźć. Tutaj z pomocą nadszedł Koliber i jego umiejętność odczytywania intencji użytkownika.
Cele i założenia Kolibra
We wrześniu 2013 roku ogłoszony został update algorytmu, który miał duży wpływ na około 90% wyszukiwań na świecie. Koliber oparty jest na trzech elementach:
- Conversational Search – zakłada możliwość korzystania z naturalnego języka, aby w następnie w indeksie wyszukiwania wyniki dotyczyły zarówno fraz głównych jak i long tailowych. Ma to za zadanie poszerzać zakres horyzontu tematycznego dla użytkownika.
- Human Search – „wczucie się” w intencje użytkownika pozwala Kolibrowi dopasować jak najlepsze wyniki wyszukiwania dla użytkowników, którzy błądzą przez temat niczym dzieci we mgle, aby w rezultacie otrzymać najlepiej dobrany do ich zapytania zakres serwisów.
- Voice Search – Koliber zapoczątkował możliwość korzystania z wyszukiwania głosowego w wyszukiwarce Google.
Połączenie wyżej wspomnianych elementów opartych na rozumieniu intencji, jak również dane o lokalizacji pozwalają na duże dopasowanie wyników wyszukiwania do zamierzeń użytkownika.
Postęp w wyszukiwaniu lokalnym
Używając wyszukiwania semantycznego i przetwarzania języka naturalnego, które uwzględniają sposób myślenia, pragnienia i korzystania z wyszukiwarek w celu znalezienia tego, czego szukają, stara praktyka oparta na słowach kluczowych w tytule i meta opisach witryny lokalnej firmy stała się trochę mniej ważna.
Koliber był następnym krokiem, który musiał nastąpić w kontekście progresu algorytmu wyszukiwarki. Ukłon dla intencji użytkownika to krok milowy w sposobie korzystania z Google, które dzięki Kolibrowi zyskało barwy dużo bardziej przyjazne.
Gołąb
Lipiec 2014 określa się datą wydania aktualizacji zwanej „Pigeon”, czyli Gołąb[1]. Aktualizacja ta miała za zadanie wpływ na wyniki wyszukiwania lokalnych firm. Oferowanie bardziej trafnych wyników wyszukiwania oznaczało „nagradzanie” firm posiadających silną widoczność organiczną oraz dobrze zaopiekowany pod kątem SEO serwis. Celem była egalitarna możliwość zaistnienia w wynikach wyszukiwania zarówno np. dla małej restauracji lokalnej, jak i wielkiej korporacji mającej swoją siedzibę tuż obok.
Co zmienił Gołąb?
Aby zmiany miały rację bytu, musiały zostać ulepszone sygnały rankingowe wyszukiwarki Google. Zmiany te musiały dotyczyć również usprawnienie pomiarów lokalizacji i odległości w Google Maps.
Przed pojawieniem się Gołębia można było dostrzec wyraźną różnicę pomiędzy wyszukiwaniem w Google Maps a wyszukiwaniem w tradycyjnym Google. Postęp aktualizacji algorytmu sprawił, że jest to obecnie dużo bardziej ujednolicone pod kątem wyglądu, jak i funkcjonalności. Nowa forma wyszukiwania lokalnego nabierała przez lata wyrazu, aby ostatecznie zatrzymać się na 3 wyświetlonych wraz z mapą Google wynikach.
Niestety przekazów na temat nowej aktualizacji algorytmu było ze strony Google niewiele. Powodowało to sporo domysłów na temat jego skuteczności za sprawą serii błędów pojawiających się w wynikach wyszukiwania lokalnego. Działo się to w krótkim czasie od wprowadzenia Gołębia.
Google „pomagał” użytkownikom, oferując potrzebne im informacje za pomocą mniejszej liczby kliknięć. Często odbywało się to kosztem ruchu w tych witrynach.
Podsumowanie
Wyjaśnienie tej niewielkiej grupy uroczych aktualizacji algorytmu pozwala dostrzec proces, jaki ma miejsce w ewolucji algorytmów Google. Wyżej opisane zwierzaki odpowiadają za dużą część efektów wyszukiwania, z jakimi mamy do czynienia dzisiaj. Opis kolejnych aktualizacji już wkrótce – stay tuned!