11 maja 2022 7 minut czytania Jan Raszyński

Aktualizacja algorytmu Google ‘FRED’ – czyli jakość, jakość i jeszcze raz jakość

Fred to kolejna aktualizacja algorytmu Google, która ujrzała światło dzienne 8 marca 2017 roku. Po wspomnianych we wcześniejszych tekstach zwierzęcych aktualizacjach oraz „Mobilegeddonie” – Fred wywołał zamęt wśród specjalistów SEO.

Czym był „FRED”?
• Jakich problemów dotykała aktualizacja algorytmu Google „FRED”?
• Co zrobić z serwisem, którego dotknęła aktualizacja algorytmu „FRED”?
• Czy Fred to tylko żart Google’a?

Spis treści

  1. Czym był Fred i jaki miał cel?
  2. Czego dotyczył FRED?
  3. Interesujesz się update’m? Google nie lubi tego
  4. Jak się podnieść po Fredzie?
  5. Dywagacje na temat Freda
  6. Fred to tylko żart
  7. Podsumowanie

Czym był Fred i jaki miał cel?

Fred stał się prekursorem nazewnictwa dla każdego nieokreślonego update’u algorytmu Google – nazwa wymyślona początkowo jako żart przez Gary’ego Illyesa zyskała na popularności i weszła do stałego użytkowania w środowisku SEO.

FRED jako żart Gary’ego Illyesa

Aktualizacja algorytmu Fred została wprowadzona w celu znajdowania tego, co Google postrzega jako wyniki niskiej jakości – chodziło głównie o witryny, które opierały się na słabej treści i agresywnym, mnogim umieszczaniu reklam w serwisach www.

Kiepska jakość treści, według algorytmów Google dotyczy kilku sytuacji, takich jak:

  • brak treści w serwisie, lub bardzo mała jej ilość,
  • treści generowane automatycznie,
  • treści kopiowane z innych serwisów,
  • keyword stuffing” – nagminne używanie słów kluczowych,
  • ukrywanie treści na stronie,
  • zbyt ogólne pisanie o konkretnych tematach (np. Ile kosztuje samochód? – Samochód nie jest tani, ale trudno określić, ile kosztuje, etc.).

Wiele z tych serwisów, których dotknęła aktualizacja algorytmu, było witrynami partnerskimi, uczestniczącymi w bardzo rozbudowanej sieci afiliacyjnej i znaczną część swojej przestrzeni poświęcały na reklamy, aniżeli dbały o jakość treści.

Agresywne taktyki monetyzacji, stosowane przez niektóre witryny, zdaniem Google, negatywnie wpływały na wrażenia użytkowników. Eksperci sądzą, że większość witryn, które straciły na Fredzie, ma podobne cechy, tj. słabe treści i agresywne reklamy.

Nie tylko zbyt intensywne, ale również i szkodliwe oraz „złośliwe” umieszczanie reklam, które jako cel miały wymusić kliknięcie przez użytkownika, np. za pomocą ukrycia przycisku „X”, mogło skutkować karami po wprowadzeniu Freda. Według niektórych celem były również słabej jakości linki zwrotne w serwisach. Oznacza to, że linki zwrotne do stron o słabym autorytecie domeny, nieaktualne, uszkodzone lub „nienaturalne” były dla Freda istotne tak bardzo, że niektórzy eksperci uważają, że jakość linków stała się cechą definiującą całą aktualizację.

Interesujące również jest to, że FRED zbiegł się w czasie z aktualizacją Google, która została skupiona wokół E-A-T.

Dla przypomnienia:

E – Expertise

A – Authoritativeness

T – Trustwothiness

Słynne Google’owe „jedzonko” opiera się na

– jakości,

– eksperckości,

– autorytatywności,

– wiarygodności,

Ale o tym więcej w innym artykule. 😊

Czego dotyczył FRED?

Fred nie był dramatycznym krokiem z dnia na dzień, ale raczej zwiększonym dostrojeniem zmian algorytmicznych, które już miały miejsce. Zbliżenie czasowe FRED-a i E-A-T mówi nam, że obszary serwisów objęte aktualizacją dotyczyły elementów, takich jak:

  • zbyt duża liczba reklam w serwisie,
  • słabej jakości treści,
  • mało treści w serwisie,
  • zbyt dużo afiliacji,
  • reklamy jako treść,
  • kiepski profil linków,
  • słaba jakość techniczna serwisu.

Interesujesz się update’m? Google nie lubi tego

Według eksperta Google Gary’ego Illyes’a, który w kontekście FRED’a z marca 2017 wypowiadał się w tej materii – nie jest dobre to, że ludzie skupiają się na każdej poszczególnej aktualizacji z dużym namaszczeniem. Jako argument opiera się na fakcie, że każda aktualizacja ma na celu jak najlepsze promowanie najbardziej jakościowych witryn. Według Gary’ego istotne jest, aby twórcy stron poświęcali więcej czasu na zaspokajaniu potrzeb użytkownika i poprawianiu jakości serwisu, aniżeli na analizie aktualizacji i tym, które kryteria są aktualnie dla algorytmu najważniejsze pod kątem widoczności.1

Gary kluczy, omija i nie mówi nam wszystkiego. Można jednak z filmu wskazanego w przypisie wyciągnąć pewne oczywiste kwestie, takie jak to, że:

– większość aktualizacji nie daje możliwości podjęcia działań (w tym sensie, że mało konkretnych działań można zrealizować, aby szybko uporać się z efektami aktualizacji),

– widoczność organiczna wszystkich witryn podlega wahaniom,

– warto przejrzeć wskazówki dla webmasterów w celu stałego ulepszania swojego serwisu.

Należy wspomnieć, że stałe ulepszanie serwisów dzięki wskazówkom dla webmasterów jest w naszej opinii lepsze, aniżeli czatowanie na nowe aktualizacje algorytmów i efekty z nimi związane. Wykorzystanie uczenia maszynowego działa w służbie ciągłej aktualizacji algorytmów, co powoduje, że eksperci SEO niejednokrotnie nie są w stanie zidentyfikować zakresu aktualizacji nawet kilka tygodni po fakcie jego opublikowania.

Jak się podnieść po Fredzie?

Ci, którzy chcieli odzyskać widoczność po tej aktualizacji, mieli przed sobą bardzo trudne zadanie. Zazwyczaj musieli ponownie sprawdzić strukturę swojej witryny, aby zredukować liczbę reklam, a ponadto ponownie przeglądać treść — strona po stronie — aby upewnić się, że faktycznie jest tam content wysokiej jakości.

Czy to z powodu złej jakości linków, nadmiernego umieszczania reklam, wątłych treści, czy też kombinacji tych trzech — Fred był bardzo uciążliwy dla wielu witryn. Oczywiście można to uznać za dobrą sytuację dla użytkowników, co przecież jest teoretycznie celem Google. Po Fredzie aktualizacje dotyczące jakości pojawiały się częściej i były bardziej zróżnicowane. Można przypisać to rozwojowi uczenia maszynowego.

Życie w ciągłym strachu przed kaprysami Google od dawna jest normą dla specjalistów SEO, ale jest kilka środków, które warto rozważyć, by żaden update nie był straszny.

W punktach wygląda to tak:

  • koncentracja na ogólnej jakości witryny,
  • audyt techniczny serwisu w celu wyłapania problemów teraz i w przyszłości,
  • zwiększona dbałość o jakość treści na stronie,
  • czysty profil linków bez toksycznych i niskiej jakości powiązań,
  • unikanie zbyt dużej liczby reklam na stronie.

Niektórzy webmasterzy na forach internetowych zgłaszali kolejne wzrosty ruchu po usunięciu lub znacznym zmniejszeniu zasobów reklamowych w serwisie, wzmacniając związek między wzmożonymi praktykami reklamowymi a karami od Google.

Dywagacje na temat Freda

Niektórzy eksperci uważają, że w przypadku Freda mamy do czynienia z połączeniem aktualizacji Pingwin i Panda. Witryny z niską zawartością mają zazwyczaj kiepskie praktyki związane z linkowaniem i są często przeładowane reklamami. Porównać można to do sytuacji, gdy Pingwin i Panda śledzą takie serwisy, a następnie są one degradowane z powodu złych praktyk, słabej treści i złego linkowania.

Dla szybkiego przypomnienia:

Panda (2011) – algorytm sprzeciwiający się: „farmom treści”, contentowi słabej jakości i małej ilości treści w serwisach,

Pingwin (2012) – algorytm sprzeciwiający się: spamlinkom i black hat linkbuildingowi.

Eksperci twierdzą jednak, iż podstawowym czynnikiem, na który uwagę miał zwrócić Fred, była jakość serwisów dla użytkownika, a przede wszystkim walka z agresywnymi taktykami monetyzacji, które powodowały złą ocenę i wrażenia internautów.

Biorąc pod uwagę ogół, nie jest istotne konkretnie to, który z czynników aktualizacji Fred był kluczowy – ważny jest natomiast zakładany cel, która powoduje, iż dzięki tej aktualizacji użytkownicy mogą dużo zyskać na jakości odwiedzanych serwisów.

Fred to tylko żart

Wielu ekspertów ma również przekonanie, że aktualizacja Fred to tylko żart wymyślony przez Illyesa zmęczonego ciągłymi dopytywaniami łowców update’ów, zaś fakt, że Google dokonuje mnóstwa aktualizacji w roku, nie może świadczyć o tym, że każdy z nich będzie przełomowy i trzeba robić z niego wielkie halo.

Podsumowanie

Fred jako mit, czy jako fakt nie powinien zmieniać podstawowej zasady budowania i opieki nad witrynami w sieci, które muszą dostarczać użytkownikowi jak najlepszą jakość i generować jak najwyższą wartość.

Zarówno specjaliści SEO, webmasterzy, developerzy czy właściciele podstron, którzy budują swoje strony w sposób optymalny, zgodny z dobrymi praktykami jak i zasadami nie powinni obawiać się o swoje witryny przy żadnej aktualizacji algorytmu.

Tak wygląda teoria – a w praktyce następny update, jak zwykle, może sporo namieszać. 😉

Źródła:

Blog
  • 11 grudnia 2023
    Link Juice – SEOwy napój mocy
    Jan Raszyński
  • 27 listopada 2023
    Pozycjonowanie strony na WordPressie. Praktyczne porady
    Jakub Iżycki
  • 13 listopada 2023
    Keyword stuffing – co to jest i jak działa na wyszukiwarkę?
    Mateusz Surowiec
  • 16 czerwca 2023
    Linkowanie wewnętrzne w SEO — klucz do sukcesu Twojej strony
    Marketing Match
  • 7 grudnia 2022
    Link kanoniczny — co to jest i kiedy używać kanonicznych adresów URL?
    Natalia Koncewicz
  • 9 listopada 2022
    Skuteczne YouTube SEO w 8 krokach
    Olga Zboina
  • 20 lipca 2022
    Raport SEO — co daje i z czego powinien się składać?
    Natalia Koncewicz
  • 6 lipca 2022
    Analiza konkurencji SEO. Jak ją znaleźć? Jaki ma wpływ na działania?
    Adriana Koczoń
  • 13 kwietnia 2022
    Mobilegeddon – armagedon czy straszak Google?
    Jan Raszyński
  • 9 marca 2022
    Core Web Vitals – podstawowe wskaźniki internetowe, czy zmienią oblicze SEO? – Opinie ekspertów
    Jan Raszyński
  • 9 lutego 2022
    Pozycjonowanie stron i sklepu internetowego w Shoper
    Marketing Match
  • 12 stycznia 2022
    Jak zoptymalizować treści pod SEO dzięki Surfer?
    Natalia Koncewicz
  • 25 listopada 2021
    Czym jest lokalne SEO?
    Olga Zboina
  • 1 września 2021
    Google update – aktualizacje algorytmu w zwierzęcym wydaniu
    Jan Raszyński
  • 12 sierpnia 2021
    Osierocone strony (orphaned pages): czym są i jak sobie z nimi radzić?
    Jacek Wawryszczuk
  • 28 lipca 2021
    Wyszukiwanie głosowe a SEO – czy nadszedł już czas na optymalizację?
    Natalia Koncewicz
  • 13 kwietnia 2021
    SEO dla Google vs Bing vs DuckDuckGo
    Olga Zboina
  • 31 marca 2021
    23 wtyczki SEO do Google Chrome, które ułatwiają specjalistom SEO życie
    Jacek Wawryszczuk
  • 17 marca 2021
    Błędy 404 „Strona nie istnieje” – Megaporadnik SEO
    Patryk Bosek
  • 17 lutego 2021
    PageRank Google – jak ustalana była do niedawna wartość stron internetowych przez roboty Google?
    Bartłomiej Giedyk
  • 3 lutego 2021
    Przyjazne Adresy URL – jak tworzyć linki zgodne ze sztuką SEO?
    Jacek Wawryszczuk
  • 20 stycznia 2021
    Meta description – co to jest, jak je tworzyć?
    Olga Zboina
  • 10 stycznia 2021
    Nagłówki HTML – jak z nich korzystać?
    Bartłomiej Giedyk
  • 6 listopada 2020
    Jak zadbać o SEO w kontekście Black Friday?
    Bartłomiej Giedyk
  • 1 października 2020
    Nowa funkcjonalność Linkbuildingowa w Ahrefsie – Link Opportunities
    Jan Raszyński
  • 28 kwietnia 2020
    Wizytówka Google Moja Firma – jak promować firmę na rynku lokalnym?
    Jan Raszyński
  • 26 sierpnia 2019
    Optymalizacja i pozycjonowanie – podstawowe narzędzia SEO
    Jan Raszyński
  • 12 sierpnia 2019
    Linkowanie wychodzące
    Patryk Bosek