Logfile Analyse in der Suchmaschinenoptimierung

Die Logfile Analyse ist im Bereich Suchmaschinenoptimierung ein Element, das meiner Meinung nach oft zu wenig Beachtung erhält. Stattdessen wird oft auf Datenbasis von Webanalysetools gearbeitet wie zum Beispiel Google Analytics, Omniture, Etracker oder wie die üblichen Verdächtigen auch heißen. Für eine Auswertung von Trafficzahlen, Suchbegriffe, und deren Landingpages eignen sich Webanalysetools recht gut. Auch wenn die Datenbasis der einzelnen Tools und damit deren Aussagekraft beachtet werden sollten. Denn einige der Tools liefern ihre Auswertungen aufgrund einer Extrapolation oder geben lediglich Trends an, wie es bei Google Analytics in “großen Accounts” der Fall ist.

Generell sind Webanalysetools in Zwei Gruppen zu differenzieren:

a) Tools die auf Logfiles aufsetzen und

b) Tools, die eine Datenermittlung auf Basis von Tracking Codes oder Javascript erhalten.

Für die Suchmaschinenoptimierung halten Webanalyse Tools, die auf Logfiles aufsetzen mehr Informationen Bereit. Diese liegen vor allem in Statuscodes wie 404, 301, 302,… Eine Auswertung dieser Codes gehört zu den SEO Basisarbeiten wie auch die Steuerung der Fälle wo entsprechende Codes auftreten. Wenn denn diese Daten vorliegen, was mit der Auswertung der Logfiles gegeben ist und entsprechend als Ergänzung bei jenen Tools erfolgen sollte, die nicht auf den Logfiles aufsetzen. Die SEO relevanten Kriterien gehen aber noch weiter!

Ein wesentlicher Aspekt der SEO ist die Auswertung und Steuerung des Crawler-Verhaltens. Hierbei geht es nicht nur um eine quantitative Steigerung der Crawler Zyklen oder des Volumens, sondern um eine gezielte Steuerung des Google Crawlers nach relevanten Bereichen. Die dazu benötigten Daten sind in der Regel nur durch Logfileanalysen zu gewinnen.
Im Zentrum dieses SEO Ansatzes steht der Trust Wert einer Domain und der damit verbundenen Crawler Aktivität.
Der Trust einer Domain ist nicht als Wert ablesbar wie z.B. der Pagerank Wert und daher im Vergleich mit anderen Domains als ein ”mehr oder weniger” erahn bar. Vom Trust Wert einer Domain hängt die Anzahl der indexierten Seiten ab, wie auch das Volumen und der Zyklus von Spidervorgängen. Der Trustwert an sich ist abhängig von der Qualität und dem Volumen der eingehenden Verlinkungen wie auch vom Alter einer Domain.
In entsprechenden Auswertungen der Logfiles kann das Indexierungsverhalten als ein Normalwert zu Beginn der SEO erhoben und dokumentiert werden. In den folgenden Maßnahmen kann durch die Sperrung von Bereichen oder gezielter Anreicherung der Verlinkung versucht werden die Crawler Aktivitäten in relevante Bereiche einer Website zu konzentrieren.
Als weiterer Punkt der Crawlersteuerung ist die Abdeckung der relevanten Bereiche einer Website zu nennen. Hierbei spielt die Fragestellung ob der Crawler alle Unterseiten eines Bereichs spidert oder die Indexierung in gewissen Tiefen abbricht. Auch bei diesem Aspekt kann über ein entsprechendes internes Linkbuilding / Informationsarchitektur eingesteuert werden, um die gewünschte Abdeckung im Crawling zu erreichen.

Die in der Logfile Auswertung gewonnenen Daten sollten mit vergleichbaren Websites abgeglichen werden (Peergroup) um eine Validierung und Interpretation der Daten zu ermöglichen. Eine Beobachtung der Werte auf eine Domain bezogen kann leicht zu falschen Annahmen und SEO Anpassungen führen, da die Werte auch von der jeweiligen Crawlingphase bei Google abhängig sind. Es ist z.b. beobachtbar, dass Google zeitweise wenig Crawler Aktivität zeigt und mehr mit der Bereinigung seines Index beschäftigt ist und danach recht stark crawlt. Diese Phasen sind nur im Abgleich mit anderen Benchmarkdaten lesbar.

Gerade bei großen Websites spielen die oben genannten SEO Aspekte eine erhebliche Rolle und erfordern folglich auch eine Auswertung der Logfiles und eine Dokumentation der entsprechenden Werte.

Schreibe einen Kommentar


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

« Zurück zur Übersicht