Aktualisierung der Webmaster-Richtlinien von Google: CSS-, JavaScript- und Bilddateien werden vom Googlebot ausgelesen

Der Suchmaschinengigant Google hat eine Anpassung in den technischen Richtlinien vorgenommen. Der Googlebot durchsucht ab sofort auch CSS-, JavaScript- und Bilddateien. Diese haben also fortan einen Einfluss auf die Indexierung und das Ranking einer Website. Um Rankingverluste zu vermeiden, sollte jeder Websitebetreiber überprüfen, dass er das Crawlen von CSS-, JavaScript- und Bilddateien auf seiner Website nicht geblockt hat.


Um festzustellen, welche Einschränkungen für die Suchmaschinen festgelegt wurden, müsst ihr die sogenannte robots.txt-Datei überprüfen. Diese wird im Stammverzeichnis der Domain eingefügt. Die robots.txt verhindert den Zugriff von Suchmaschinen auf bestimmte Seiten oder Verzeichnisse eines Webangebotes. Sie gibt also Einschränkungen für die Erfassung der Inhalte der Webpräsenz vor.

Bis heute haben einige Websitebetreiber den Crawlern den Zugriff auf CSS-, JavaScript- und Bilddateien untersagt. Ein Grund dafür ist beispielsweise, dass manche der Auffassung waren, dass diese Dateien keine für die Indexierung notwendigen Informationen beinhalten. Der Ausschluss der CSS-, JavaScript- und Bilddateien über die robots.txt sollte also z.B. dafür sorgen, dass die Ladezeiten gering gehalten werden, da Google schnelle Ladezeiten positiv bewertet. Auch sollte durch das Blocken bestimmter Elemente die Bandbreite der zu crawlenden Inhalte verringert werden, sodass sich der Crawler auf die Informationen die indexiert werden sollen konzentriert anstatt auf beispielsweise „unwichtige“ Bilder.

Seit Mai diesen Jahres imitiert Google beim Abruf von Websites allerdings moderne Browser. Zuvor haben die Google-Systeme lediglich textbasierte Browser imitiert. Dateien, die für das Design verantwortlich sind, so auch CSS- und JavaScript-Dateien, wurden nicht berücksichtigt. Das neue Indexierungssystem stellt Websites jedoch wie ein typischer moderner Browser dar, bei dem CSS und JavaScript aktiviert sind. Wenn nun also das Crawling der CSS und JavaScript-Dateien geblockt wird, wirkt sich dies direkt auf die Darstellung und Indexierung der Websiteinhalte durch die Google-Algorithmen aus. Man schadet der optimalen Indexierung der eigenen Website, was in der Konsequenz zu schlechteren Rankings führen kann.

Um die Änderungen zu verbreiten hat Google eine offizielle Meldung heraus gegeben sowie die technischen Webmaster Guidelines aktualisiert. Die offizielle Mitteilung samt Handlungsempfehlungen findet ihr hier: http://googlewebmastercentral-de.blogspot.de/2014/10/aktualisierung-der-technischen-richtlinien.html


Jeder Websitebetreiber sollte um Rankingverlusten vorzubeugen, die robots.txt-Datei überprüfen, um sicherzustellen, dass Bilddateien und insbesondere CSS und JavaScript nicht für den Googlebot ausgeschlossen wurden. Solltet ihr nicht wissen wo ihr die robots.txt-Datei findet, euch nicht im Klaren darüber sein, wie ihr feststellen könnt ob CSS und JavaScript blockiert sind oder die Änderungen nicht selbst durchführen möchtet, um Fehler, die zu Rankingverlusten führen können, zu vermeiden, helfen wir Euch gerne weiter! Einfach kurz unverbindlich anrufen unter 0711 – 7616160 oder eine Mail an info@schommer-media.de schicken.

Sag es weiter...
  • Facebook
  • Twitter
  • StumbleUpon
  • MySpace
  • del.icio.us
  • MisterWong
  • RSS
  • Add to favorites
  • email
  • PDF
Dieser Beitrag wurde unter Coding und Technik abgelegt und mit , , , , , , , , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

Hinterlasse eine Antwort

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

*


*

Du kannst folgende HTML-Tags benutzen: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>