Nur die ersten 15 MB von Webseiten werden von Googlebots gelesen. Diese Mitteilung von Google hat sehr viel Verwirrung mit sich gebracht. Die Information ist zwar nicht neu, wurde jedoch vor Kurzem erst an die Öffentlichkeit getragen. Oft wurde das Statement, Google crawle nur die ersten 15 MB des HTMLs von Webseiten, fehlinterpretiert. Viele nahmen diese Information von Google als Einschränkung für die eigene Webseite auf, da befürchtet wurde, dass bei der Platzierung von viel Text- und Bildmaterial auf der Seite das 15-MB-Limit schnell überschritten sein würde. Ein Einsparen von Content auf der eigenen Webseite ist selbstverständlich unerwünscht und zwingt den Betreiber der Seite, sich kurz und knapp zu halten, ohne die Möglichkeit zu haben, sein Produkt oder seine Dienstleistung ausführlich präsentieren zu können. Dies war die Sorge vieler Website-Betreiber. Doch die Sorge bleibt unberechtigt, da die Neuigkeit von Google von vielen fehlinterpretiert wurde.
Reicht das Limit von 15 MB überhaupt?
Die Bedenken, Webseiten könnten nicht mehr ganz gecrawlt werden und müssten gekürzt werden, sind vollkommen unbegründet. Die 15-MB-Begrenzung gilt nur für das HTML von Webseiten sowie für bestimmte Textdateien, die Google crawlen kann.
Google-Experte Gary Illyes erklärt, das Limit beziehe sich nur auf die Inhalte, welche der Googlebot bei seinem ersten Request erhält, nicht auf die mit einer Seite verbundenen Ressourcen. Um Missverständnisse rund um das Crawl-Limit aufzulösen, muss man sich nur eins vor Augen führen: Kaum eine Webseite erreicht überhaupt das 15-MB-Limit. Die Angst, das Limit könne die eigene Webseite in irgendeiner Art einschränken, ist also vollkommen unbegründet.