Startseite News Online-Marketing Agentur Die Logfile-Analyse: Was crawlt Google eigentlich die ganze Zeit?
Die Logfile-Analyse

Die Logfile-Analyse: Was crawlt Google eigentlich die ganze Zeit?

Eine Logfile-Analyse gibt Aufschluss über den Searchbot!

Welche Seiten Ihrer Webseite untersucht bzw. Crawlt Google? Um hinter diese Frage zu kommen, genügen herkömmliche Tools der Suchmaschinenoptimierung nicht aus. Auch mit der Google Search Console kommen Sie hier zu keinem schlüssigen Ergebnis. Wenn Sie wirklich detailliert wissen wollen, was Google wann crawlt, müssen Sie eine Logfile-Analyse starten.

Was ist ein Crawler?

Ein Webcrawler (auch Searchbot, Spider oder Robot) bezeichnet ein Computerprogramm, dass das Internet automatisiert nach bestimmten Informationen und Daten durchsucht. Diese gecrawlten Daten nutzen Suchmaschinen für die Indexierung von Webseiten nach vorgegebenen Kriterien. Auch der Crawler von Google findet und besucht Webseiten, deren verschiedensten Informationen er dann anschließend im Index speichert. Dieser Suchvorgang wiederholt sich, denn auch schon gefundene Webseiten besucht der Crawler immer wieder und schaut hier auch permanent nach Veränderungen, die dann für eine Aktualisierung des Index verantwortlich sind.

Dieser Vorgang ist aufwendig und kostet Google einiges an Ressourcen. Wenn die Signale, die Google erhält und auswertet, als unwichtig, minderwertig oder gar fehlerhaft indexiert werden, ist das schlecht für eine Webseite. Das von Google individuell festgesetzt Crawlbudget für diese Webseite sinkt und die Seite wird in Zukunft weniger gecrawlt. Das kann in der Folge ein schlechteres Ranking und eine langsamere Indexierung bedeuten.

Warum sollen Sie jetzt auf die Logfiles gehen?

Die Search Console zeigt zwar auf, wie viele Ihrer URLs Google gecrawlt hat. Welche das aber genau waren, ist nicht genau ersichtlich. Nur ein kleiner Teil kann man über den neuen Abdeckungs-Report einsehen. Die Informationen, welche URLs tatsächlich gecrawlt wurden und somit wie gut also die Ranking-Voraussetzungen sind, ist mit einer Auswertung der Logfiles einsehbar.

Was genau ist eigentlich ein Logfile?

Unter Logfiles versteht man Dateien, die der Server einer Webseite automatisch speichert. Diese Dateien im Access Logs zeigen Ihnen jeden Hit, d. h. jede Anfrage an den Server, auch die des Googlebots. Viele Seitenaufrufe bedeuten auch eine große Datei. Aufgrund dessen löscht der Server automatisch nach ein paar Wochen diese gespeicherten Logfiles. Also müssen Sie schnell sein und in regelmäßigen Abständen Ihre Daten sichern, wenn Sie hier Auswertungen vornehmen möchten. Jede vorhandene Log-Datei entspricht einem Aufruf. Wichtig für Sie ist, dass die Datei Sie über die IP des Aufrufenden sowie über den Zeitpunkt des Aufrufs informiert. Weiterhin können Sie unter anderem auch genau den URI (Uniform Resource Identifier), also den Pfad der aufgerufenen Seite mit dem Protokoll einsehen.

Achtung DSGVO!

Auch die IP wird in den Logfiles gespeichert. Deshalb greift hier auch die DSGVO. Sie sind auf der sicheren Seite, wenn Sie in den Logfiles die IP-Adresse anonymisieren.

Wie analysiere ich nur die Aufrufe des Googlebots?

Der User Agent identifiziert den typischen Googlebot meistens mit „Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)“ oder sogar im Zeitalter des Mobile First mit „Googlebot Smartphone“. Doch Vorsicht! Nicht jeder User Agent „Googlebot“ ist der Crawler von Google, verlassen Sie sich nicht allein auf den User Agent!

Den Googlebot verifizieren Sie durch IPs, die mit 66.249 anfangen und ganz sicher gehen Sie, wenn Sie Vergleiche in Ihrer Google Search Console ziehen. Nun bietet es sich für die Fülle der Datenmenge an, ein Tool zur Auswertung zu benutzen, in das Sie Ihre Daten einfach per Drag & Drop einfügen und hier dann die Bots der Suchmaschinen selbstständig herausgefiltert werden.

Was genau zeigt mir die Logfile-Analyse an?

  • Sie können hier sehen, wenn Google unliebsame Parameter crawlt. Entfernen Sie diese.
  • Fehlerhafte Canonicals werden aufgedeckt und können gesperrt werden.
  • Unwichtige Seitenregionen können Sie in der robots.txt sperren und Links entfernen.
  • Wichtige Links auf „nofollow“ setzten.
  • Gecrawlte 404-Seiten sollten Sie eventuell weiterleiten.
  • Sie können 301-Weiterleitungen korrigieren.
  • Wenn statische URLs gecrawlt werden, dann können Sie den http-Header konfigurieren.
  • Sie sehen, wenn nicht alle Ihre Produkte gecrawlt werden und können das durch Linkbuilding verbessern.
  • Wichtig bei einem Relaunch: Wie sieht es hier mit unerwünschten URLs aus?

Ein Blick in die Logfiles ist auf jeden Fall sinnvoll. Wenn Sie noch am Aufbau Ihrer Seite sind, warten Sie damit ab bis Sie sinnvolle Schlüsse aus einer Auswertung ziehen können. Wenn Sie allerdings eine große Webseite oder sogar einen Online-Shop betreiben, dann lohnt sich eine Auswertung der Logfiles in jedem Fall. Sie geben ein objektives, aufschlussreiches und ehrliches Bild über die Gesundheit und den Indexierungsstatus Ihrer Webseite. Vor allem im Bereich der Suchmaschinenoptimierung liefert die Logfile-Analyse Ihnen sehr wichtige Informationen.

Sie wünschen eine aufschlussreiche Analyse Ihrer Webseite?

Sie sehen im Logfile vor lauter Bäumen den Wald nicht?

Wenn Sie hier unsicher sind, aber Ihre Seite für den Crawler von Google fit machen möchten, so dass Ihr Ranking Sie auf die vorderen Plätze bringt – fragen Sie unsere Experten. Wir sind gerne dafür da, Ihnen diese Analyse kompetent abzunehmen oder Sie zu unterstützen und zu schulen. 

Luisa Nutzinger

Ihre Ansprechpartnerin

Luisa Nutzinger

Tel.: 07131 / 12 01 45 – 0

E-Mail: l.nutzinger@econsor.de

Zwei Marketing-Profis sitzen an einem Schreibtisch und besprechen angeregt Inhalte auf einem Laptop. Die Frau gestikuliert freundlich, während der Mann auf den Bildschirm schaut. Die Szene vermittelt eine kooperative Arbeitsatmosphäre in einer Agentur bei einem SEO-Audit.

SEO-Controlling: Wie man SEO-Maßnahmen erfolgreich kontrolliert und den Erfolg misst

SEO (Suchmaschinenoptimierung) ist eine der besten Methoden, um die Sichtbarkeit und Reichweite einer Website zu erhöhen. Doch SEO ist kein einmaliges Projekt, sondern eine langfristige Strategie, die kontinuierlich weiterentwickelt werden muss. Nur durch regelmäßige Anpassungen, präzise Analysen und eine klare Ausrichtung auf Nutzersignale bleibt eine Seite langfristig erfolgreich. Genau hier kommt das SEO-Controlling ins Spiel. ...

Mehr erfahren

Eine Gruppe von vier Personen bespricht auf einem modernen Touchscreen-Monitor eine Präsentation. Eine Person zeigt mit einem Stift auf die Bildschirmansicht, während die anderen aufmerksam zuhören. Der Raum ist modern gestaltet mit dunklen Wänden und einem Schreibtisch, auf dem ein Laptop und eine Tasse stehen.

Online-Marketing KPI – Welche brauche ich? 

Digitale Marketingmaßnahmen bieten heute mehr Möglichkeiten denn je – doch genau diese Vielfalt macht Entscheidungen anspruchsvoller. Kampagnen laufen parallel, Zielgruppen agieren dynamisch, Daten entstehen im Sekundentakt. Für Unternehmen ist die Frage nicht, ob sie messen sollten. Die Frage ist, was sie messen müssen, um Fortschritt und Wirkung zu erkennen.  Hier werden Online-Marketing KPIs zum entscheidenden ...

Mehr erfahren

Mitarbeiter beraten sich gemeinsam zu etwas.

Die wichtigsten KPI im E-Commerce: Ein Leitfaden für Unternehmer und Marketing-Manager

Im E-Commerce ist es entscheidend, den Überblick über die richtigen Kennzahlen (KPIs) zu behalten, um fundierte Entscheidungen treffen und das Wachstum Ihres Unternehmens nachhaltig vorantreiben zu können. Doch welche KPIs sind wirklich wichtig und wie können sie Ihnen helfen, den Erfolg Ihres Online-Shops zu maximieren? Key Performance Indicators – Was sind KPI im E-Commerce? KPI ...

Mehr erfahren

ECONSOR gewinnt den German Marketing Award 2025

Auszeichnung für den digitalen Markenrelaunch: ECONSOR zählt offiziell zu den besten Agenturen im deutschsprachigen Raum. ECONSOR wird für den eigenen Markenrelaunch mit dem renommierten German Marketing Award 2025 ausgezeichnet. Verliehen wurde der Preis von Make a Brand – einer der bedeutendsten Auszeichnungen für Markenkommunikation im deutschsprachigen Raum. Damit gehört ECONSOR zu den führenden Agenturen, wenn ...

Mehr erfahren

Interview: GEO vs. SEO – So verändert sich digitale Sichtbarkeit

Künstliche Intelligenz verändert die Suche im Internet – und mit ihr die Spielregeln für digitales Marketing. Im Interview mit Sebastian Kübler und Luisa Nutzinger von ECONSOR erfahren Marketing-Profis, was hinter GEO (Generative Engine Optimization) steckt, warum SEO die Basis bleibt – und welche 3 konkreten To-Dos jetzt auf jede Marketingagenda gehören. GEO vs. SEO – ...

Mehr erfahren

Mitarbeiter präsentiert Kennzahlen

KI im Marketing und Vertrieb: So sichern Unternehmen ihre Sichtbarkeit in ChatGPT & Co.

KI im Marketing und Vertrieb – der Paradigmenwechsel Die Spielregeln für digitale Sichtbarkeit ändern sich rasant: ChatGPT zählt 800 Millionen wöchentliche Nutzer, Google Gemini ist auf dem Siegeszug und viele weitere KI-Lösungen revolutionieren ihren Markt. Künstlicher Intelligenz hat das Suchverhalten grundlegend verändert und so die Regeln beeinflusst, wie Menschen Informationen finden und Kaufentscheidungen treffen. Anstelle von ...

Mehr erfahren