12 lutego 2026 6 minut czytania Patryk Bosek

Google wprowadza limit 2 MB. Czy Twój CMS jest bezpieczny? [Badanie]

Spis treści

  1. Pułapka „cichej truncacji” i mit kompresji
  2. SEO vs GEO: AI nie lubi cyfrowego szumu
  3. Wyzwania dla systemów CMS: Od monolitów do mikro-zasobów
  4. Badanie wielkości plików wg. CMS
    1. Jakie są ograniczenia tego badania?
    2. Który CMS serwuje najcięższy fundament (HTML)?
    3. Czy Twój JavaScript to monolit czy rozproszona armia?
    4. Ile waży "ładny wygląd" w arkuszach CSS?
    5. Liczby zamiast obietnic: Czy Twój CMS przejdzie przez sito Google?
    6. WordPress i pułapka „pluginozy”
    7. Squarespace i Wix: Problem monolitycznego puchnięcia
    8. Webflow: Jakość > Ilość
  5. Podsumowanie

[ARTYKUŁ W BUDOWIE]

Oficjalna aktualizacja dokumentacji Google z lutego 2026 r. jasno definiuje granice: Googlebot pobiera i przetwarza tylko pierwsze 2 MB pliku HTML, JS oraz CSS. Choć na pierwszy rzut oka limit ten wydaje się hojny, w rzeczywistości stanowi on rygorystyczne sito, które odsiewa serwisy nieefektywne technologicznie.

Pułapka „cichej truncacji” i mit kompresji

Dla wielu deweloperów najpoważniejszym zaskoczeniem jest fakt, że Googlebot operuje na danych niekompresowanych.

  • Mechanizm działania: Jeśli Twój plik HTML po przesłaniu przez sieć (dzięki kompresji Brotli czy Gzip) waży 500 KB, ale po rozpakowaniu przez robota osiąga 2,5 MB – Googlebot „odcina” ostatnie 500 KB kodu.
  • Brak ostrzeżeń: Testy wykazują, że Google Search Console często nie zgłasza błędów przy przekroczeniu limitu. Strona figuruje jako „Zindeksowana”, podczas gdy w rzeczywistości połowa jej zawartości, w tym kluczowe linki wewnętrzne czy dane strukturalne (Schema), może być dla algorytmów niewidoczna.

SEO vs GEO: AI nie lubi cyfrowego szumu

W świecie GEO (Generative Engine Optimization) optymalizacja pod 2 MB nabiera nowego wymiaru. Modele AI, takie jak Gemini, Perplexity czy ChatGPT, działają w oparciu o architekturę RAG (Retrieval-Augmented Generation). Oznacza to, że muszą błyskawicznie wyekstrahować sens z Twojej strony, by użyć go jako cytatu w odpowiedziach generatywnych.

  • Czytelność maszynowa: Im mniej „śmieciowego” kodu otacza Twoją treść, tym większa szansa, że model AI poprawnie zinterpretuje kontekst i uzna Twoją stronę za wiarygodne źródło.
  • Ryzyko „halucynacji”: Jeśli bot AI otrzyma tylko ucięty fragment strony (przez limit 2 MB), może błędnie zinterpretować ofertę firmy lub pominąć istotne zastrzeżenia, co bezpośrednio uderza w wizerunek marki.

Wyzwania dla systemów CMS: Od monolitów do mikro-zasobów

Zmiana ta wymusza na twórcach systemów CMS (Content Management Systems) odejście od dotychczasowych praktyk:

  • Rozbicie monolitów: Platformy takie jak Wix czy Squarespace muszą wdrożyć technologię Code Splitting na szerszą skalę. Zamiast jednego, gigantycznego pliku JS, systemy te powinny serwować dziesiątki małych modułów, z których żaden nie zbliża się do granicy 2 MB.
  • Server-Side Rendering (SSR): Kluczowe informacje muszą być renderowane po stronie serwera i dostarczane w pierwszych kilobajtach kodu HTML, a nie generowane dynamicznie przez ciężkie skrypty na samym końcu dokumentu.

Badanie wielkości plików wg. CMS

Google zmieniło zasady gry: ich boty skanują obecnie tylko pierwsze 2 MB pliku HTML, JS oraz CSS. Wszystko, co znajduje się poniżej tej granicy, jest dla wyszukiwarki nieistniejące. W kontekście tych zmian, nasze badanie 234 179 domen nabiera krytycznego znaczenia. Zderzyliśmy teorię o „nowoczesnych platformach” z brutalną rzeczywistością wagową internetu.

Średnia wielkość pliku HTML w całym badaniu to 284,55 KB, a średnia liczba plików JS na stronę wynosi 31,22. Choć średnie wydają się bezpieczne, ekstrema są alarmujące. Znaleźliśmy aż 1502 domeny, których plik HTML przekracza limit 2 MB. Absolutnym rekordzistą jest strona hanusia-rabka.pl (Joomla), serwująca plik HTML o wielkości ponad 60 MB.

Oto jak popularne systemy radzą sobie z „dietą”, której wymaga dzisiejsze SEO.

Jakie są ograniczenia tego badania?

Zanim przejdziemy do konkretów, musimy jasno określić ramy, w jakich się poruszaliśmy:

  • Skanowane były tylko strony główne: Warto o tym pamiętać, gdyż strony kategorii czy rozbudowane listingi produktów w e-commerce mogą okazać się znacznie większe; nie jest to zatem ranking „ostateczny”.
  • Głębokość analizy zasobów: Z racji ogromnej liczby skanów, pliki CSS oraz JS były sprawdzane tylko do poziomu 1 (bez głębokiego rekurencyjnego przeszukiwania wszystkich skryptów).
  • Selekcja danych: Z podsumowania ostatecznego wykluczyliśmy witryny, których nie udało się przeskanować, oraz te z podejrzanie niską wielkością HTML; prawdopodobnie wiele „problematycznych” domen znajdowało się właśnie w odrzuconym segmencie.

Który CMS serwuje najcięższy fundament (HTML)?

Kod HTML to kręgosłup strony. Jeśli przekracza 2 MB, Googlebot „odcina” skanowanie, co może oznaczać, że Twoja treść czy meta tagi nigdy nie zostaną zaindeksowane. Wix jest tutaj systemowym liderem ryzyka – generuje kod średnio ponad 5-krotnie cięższy niż Webflow.

CMSŚrednia wielkość HTML (KB)Pliki HTML > 2MB (szt.)
WIX875,18796
MAGENTO363,3290
SHOPER319,8263
PRESTASHOP293,7272
SKY-SHOP277,687
SQUARESPACE260,6844
WORDPRESS209,58243
JOOMLA188,63108
DRUPAL181,0178
WEBFLOW159,541

Czy Twój JavaScript to monolit czy rozproszona armia?

JavaScript najbardziej obciąża urządzenia mobilne. Squarespace stosuje ryzykowną strategię „monolitu”, serwując największy pojedynczy plik JS w zestawieniu (średnio 1,27 MB). WordPress z kolei serwuje rekordową liczbę plików, co zmusza przeglądarkę do dziesiątek zbędnych połączeń.

CMSNajwiększy JS (KB)Średnia liczba plików JSPliki JS > 2MB
SQUARESPACE1272,8233,890
SKY-SHOP734,0114,550
PRESTASHOP637,1222,241
WEBFLOW606,2124,630
WORDPRESS436,7837,696
MAGENTO430,1231,081
JOOMLA335,1627,851
WIX254,3514,220

Ile waży „ładny wygląd” w arkuszach CSS?

Nadmiar stylów blokuje renderowanie strony. Choć pliki CSS rzadko przekraczają 2 MB, ich waga w przypadku platform e-commerce (Sky-Shop) i kreatorów wizualnych jest alarmująca. WordPress, mimo mniejszej średniej wagi pliku, posiada najwięcej domen przekraczających limit Google (23 sztuki).

CMSNajwiększy plik CSS (KB)Średnia liczba plików CSSPliki CSS > 2MB
SKY-SHOP884,523,240
SQUARESPACE876,396,560
MAGENTO459,1214,581
PRESTASHOP451,5613,550
WORDPRESS306,2317,9523
WEBFLOW276,643,390
JOOMLA266,1515,571
WIX25,003,100
DRUPALbrak danych15,021
SHOPERbrak danych3,410

Liczby zamiast obietnic: Czy Twój CMS przejdzie przez sito Google?

Dane z ponad 230 tysięcy domen obnażają strukturalne problemy najpopularniejszych systemów. Wybierając technologię, nie wybierasz tylko wyglądu panelu, ale konkretną architekturę danych, która może Cię wykluczyć z indeksu Google.

WordPress i pułapka „pluginozy”

WordPress to absolutny rekordzista pod względem liczby zasobów – serwuje średnio blisko 38 plików JavaScript oraz 18 plików CSS na każdą stronę główną. To podręcznikowy przykład „pluginozy”: każda wtyczka mająca poprawić UX lub SEO dodaje własne skrypty i style. Nawet jeśli pojedyncze pliki są małe, ich łączna liczba (średnio 55 zapytań na same style i skrypty) tworzy ogromny narzut komunikacyjny, który Googlebot musi przetworzyć.

Squarespace i Wix: Problem monolitycznego puchnięcia

Podczas gdy WordPress cierpi na rozdrobnienie, kreatory takie jak Squarespace i Wix stawiają na monolit. Wix serwuje niemal 1 MB kodu HTML na „dzień dobry”, co przy nowym limicie Google zostawia bardzo mało miejsca na realną treść strony. Z kolei Squarespace serwuje rekordowo ciężki plik JS (średnio 1272,82 KB), co w połączeniu z innymi zasobami sprawia, że niebezpiecznie zbliża się do granicy 2 MB, po której Google po prostu przestaje czytać kod.

Webflow: Jakość > Ilość

Wyniki Webflow pokazują, że nowoczesne podejście do generowania kodu działa. Średnio 159,54 KB HTML oraz tylko jedna domena przekraczająca limit 2 MB na 1453 przebadane to wynik deklasujący resztę stawki. To dowód na to, że da się budować wizualnie bez produkowania cyfrowych śmieci.

Podsumowanie

W 2026 roku waga strony przestała być tylko parametrem wpływającym na Core Web Vitals. Stała się kryterium kompletności indeksowania. Jeśli Twoja strona „waży” zbyt dużo, nie jest po prostu wolna – jest dla Google niekompletna.


Blog
  • 24 lutego 2026
    Twój klient właśnie wkleił Twoją ofertę do ChatGPT. Co usłyszał?
    Michał Padała
  • 23 maja 2024
    Podsumowanie pierwszego Google Search Central Live w Polsce – czy było warto?
    Emilia Pikora
  • 11 grudnia 2023
    Link Juice – SEOwy napój mocy
    Jan Raszyński
  • 27 listopada 2023
    Pozycjonowanie strony na WordPressie. Praktyczne porady
    Jakub Iżycki
  • 13 listopada 2023
    Keyword stuffing – co to jest i jak działa na wyszukiwarkę?
    Mateusz Surowiec
  • 16 czerwca 2023
    Linkowanie wewnętrzne w SEO — klucz do sukcesu Twojej strony
    Marketing Match
  • 7 grudnia 2022
    Link kanoniczny — co to jest i kiedy używać kanonicznych adresów URL?
    Natalia Koncewicz
  • 9 listopada 2022
    Skuteczne YouTube SEO w 8 krokach
    Olga Zboina
  • 20 lipca 2022
    Raport SEO — co daje i z czego powinien się składać?
    Natalia Koncewicz
  • 6 lipca 2022
    Analiza konkurencji SEO. Jak ją znaleźć? Jaki ma wpływ na działania?
    Adriana Koczoń
  • 11 maja 2022
    Aktualizacja algorytmu Google ‘FRED’ – czyli jakość, jakość i jeszcze raz jakość
    Jan Raszyński
  • 13 kwietnia 2022
    Mobilegeddon – armagedon czy straszak Google?
    Jan Raszyński
  • 9 marca 2022
    Core Web Vitals – podstawowe wskaźniki internetowe, czy zmienią oblicze SEO? – Opinie ekspertów
    Jan Raszyński
  • 9 lutego 2022
    Pozycjonowanie stron i sklepu internetowego w Shoper
    Marketing Match
  • 12 stycznia 2022
    Jak zoptymalizować treści pod SEO dzięki Surfer?
    Natalia Koncewicz
  • 25 listopada 2021
    Czym jest lokalne SEO?
    Olga Zboina
  • 1 września 2021
    Google update – aktualizacje algorytmu w zwierzęcym wydaniu
    Jan Raszyński
  • 12 sierpnia 2021
    Osierocone strony (orphaned pages): czym są i jak sobie z nimi radzić?
    Jacek Wawryszczuk
  • 28 lipca 2021
    Wyszukiwanie głosowe a SEO – czy nadszedł już czas na optymalizację?
    Natalia Koncewicz
  • 13 kwietnia 2021
    SEO dla Google vs Bing vs DuckDuckGo
    Olga Zboina
  • 31 marca 2021
    23 wtyczki SEO do Google Chrome, które ułatwiają specjalistom SEO życie
    Jacek Wawryszczuk
  • 17 marca 2021
    Błędy 404 „Strona nie istnieje” – Megaporadnik SEO
    Patryk Bosek
  • 17 lutego 2021
    PageRank Google – jak ustalana była do niedawna wartość stron internetowych przez roboty Google?
    Bartłomiej Giedyk
  • 3 lutego 2021
    Przyjazne Adresy URL – jak tworzyć linki zgodne ze sztuką SEO?
    Jacek Wawryszczuk
  • 20 stycznia 2021
    Meta description – co to jest, jak je tworzyć?
    Olga Zboina
  • 10 stycznia 2021
    Nagłówki HTML – jak z nich korzystać?
    Bartłomiej Giedyk
  • 6 listopada 2020
    Jak zadbać o SEO w kontekście Black Friday?
    Bartłomiej Giedyk
  • 1 października 2020
    Nowa funkcjonalność Linkbuildingowa w Ahrefsie – Link Opportunities
    Jan Raszyński
  • 28 kwietnia 2020
    Wizytówka Google Moja Firma – jak promować firmę na rynku lokalnym?
    Jan Raszyński
  • 26 sierpnia 2019
    Optymalizacja i pozycjonowanie – podstawowe narzędzia SEO
    Jan Raszyński
  • 12 sierpnia 2019
    Linkowanie wychodzące
    Patryk Bosek