Startseite News Online-Marketing Agentur Die Logfile-Analyse: Was crawlt Google eigentlich die ganze Zeit?
Die Logfile-Analyse

Die Logfile-Analyse: Was crawlt Google eigentlich die ganze Zeit?

Eine Logfile-Analyse gibt Aufschluss über den Searchbot!

Welche Seiten Ihrer Webseite untersucht bzw. Crawlt Google? Um hinter diese Frage zu kommen, genügen herkömmliche Tools der Suchmaschinenoptimierung nicht aus. Auch mit der Google Search Console kommen Sie hier zu keinem schlüssigen Ergebnis. Wenn Sie wirklich detailliert wissen wollen, was Google wann crawlt, müssen Sie eine Logfile-Analyse starten.

Was ist ein Crawler?

Ein Webcrawler (auch Searchbot, Spider oder Robot) bezeichnet ein Computerprogramm, dass das Internet automatisiert nach bestimmten Informationen und Daten durchsucht. Diese gecrawlten Daten nutzen Suchmaschinen für die Indexierung von Webseiten nach vorgegebenen Kriterien. Auch der Crawler von Google findet und besucht Webseiten, deren verschiedensten Informationen er dann anschließend im Index speichert. Dieser Suchvorgang wiederholt sich, denn auch schon gefundene Webseiten besucht der Crawler immer wieder und schaut hier auch permanent nach Veränderungen, die dann für eine Aktualisierung des Index verantwortlich sind.

Dieser Vorgang ist aufwendig und kostet Google einiges an Ressourcen. Wenn die Signale, die Google erhält und auswertet, als unwichtig, minderwertig oder gar fehlerhaft indexiert werden, ist das schlecht für eine Webseite. Das von Google individuell festgesetzt Crawlbudget für diese Webseite sinkt und die Seite wird in Zukunft weniger gecrawlt. Das kann in der Folge ein schlechteres Ranking und eine langsamere Indexierung bedeuten.

Warum sollen Sie jetzt auf die Logfiles gehen?

Die Search Console zeigt zwar auf, wie viele Ihrer URLs Google gecrawlt hat. Welche das aber genau waren, ist nicht genau ersichtlich. Nur ein kleiner Teil kann man über den neuen Abdeckungs-Report einsehen. Die Informationen, welche URLs tatsächlich gecrawlt wurden und somit wie gut also die Ranking-Voraussetzungen sind, ist mit einer Auswertung der Logfiles einsehbar.

Was genau ist eigentlich ein Logfile?

Unter Logfiles versteht man Dateien, die der Server einer Webseite automatisch speichert. Diese Dateien im Access Logs zeigen Ihnen jeden Hit, d. h. jede Anfrage an den Server, auch die des Googlebots. Viele Seitenaufrufe bedeuten auch eine große Datei. Aufgrund dessen löscht der Server automatisch nach ein paar Wochen diese gespeicherten Logfiles. Also müssen Sie schnell sein und in regelmäßigen Abständen Ihre Daten sichern, wenn Sie hier Auswertungen vornehmen möchten. Jede vorhandene Log-Datei entspricht einem Aufruf. Wichtig für Sie ist, dass die Datei Sie über die IP des Aufrufenden sowie über den Zeitpunkt des Aufrufs informiert. Weiterhin können Sie unter anderem auch genau den URI (Uniform Resource Identifier), also den Pfad der aufgerufenen Seite mit dem Protokoll einsehen.

Achtung DSGVO!

Auch die IP wird in den Logfiles gespeichert. Deshalb greift hier auch die DSGVO. Sie sind auf der sicheren Seite, wenn Sie in den Logfiles die IP-Adresse anonymisieren.

Wie analysiere ich nur die Aufrufe des Googlebots?

Der User Agent identifiziert den typischen Googlebot meistens mit „Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)“ oder sogar im Zeitalter des Mobile First mit „Googlebot Smartphone“. Doch Vorsicht! Nicht jeder User Agent „Googlebot“ ist der Crawler von Google, verlassen Sie sich nicht allein auf den User Agent!

Den Googlebot verifizieren Sie durch IPs, die mit 66.249 anfangen und ganz sicher gehen Sie, wenn Sie Vergleiche in Ihrer Google Search Console ziehen. Nun bietet es sich für die Fülle der Datenmenge an, ein Tool zur Auswertung zu benutzen, in das Sie Ihre Daten einfach per Drag & Drop einfügen und hier dann die Bots der Suchmaschinen selbstständig herausgefiltert werden.

Was genau zeigt mir die Logfile-Analyse an?

  • Sie können hier sehen, wenn Google unliebsame Parameter crawlt. Entfernen Sie diese.
  • Fehlerhafte Canonicals werden aufgedeckt und können gesperrt werden.
  • Unwichtige Seitenregionen können Sie in der robots.txt sperren und Links entfernen.
  • Wichtige Links auf „nofollow“ setzten.
  • Gecrawlte 404-Seiten sollten Sie eventuell weiterleiten.
  • Sie können 301-Weiterleitungen korrigieren.
  • Wenn statische URLs gecrawlt werden, dann können Sie den http-Header konfigurieren.
  • Sie sehen, wenn nicht alle Ihre Produkte gecrawlt werden und können das durch Linkbuilding verbessern.
  • Wichtig bei einem Relaunch: Wie sieht es hier mit unerwünschten URLs aus?

Ein Blick in die Logfiles ist auf jeden Fall sinnvoll. Wenn Sie noch am Aufbau Ihrer Seite sind, warten Sie damit ab bis Sie sinnvolle Schlüsse aus einer Auswertung ziehen können. Wenn Sie allerdings eine große Webseite oder sogar einen Online-Shop betreiben, dann lohnt sich eine Auswertung der Logfiles in jedem Fall. Sie geben ein objektives, aufschlussreiches und ehrliches Bild über die Gesundheit und den Indexierungsstatus Ihrer Webseite. Vor allem im Bereich der Suchmaschinenoptimierung liefert die Logfile-Analyse Ihnen sehr wichtige Informationen.

0 Gedanken zu „Die Logfile-Analyse: Was crawlt Google eigentlich die ganze Zeit?“

  1. Der Artikel erklärt sehr gut was Google macht und warum ein Blick in die Logfiles aufschlussreich sein kann, aber es ist nicht nur der Google Bot unterwegs. Hier mal eine Liste der Top 10 Web-Crawler User-Agents die zum Teil auch in den Logfiles auftauchen könnten:

    1. Google = Googlebot
    2. Bing = Bingbot
    3. Yahoo = Slurp
    4. DuckDuckGo = DuckDuckBot
    5. Baidu = Baiduspider
    6. Yandex = YandexBot
    7. Sogou = Sogou
    8. Exalead = Exabot
    9. Facebook = facebot
    10. Alexa = ia_archiver

    Antworten

Schreibe einen Kommentar

Arbeiten am Laptop in der Internetagentur Karlsruhe

KI Texte schreiben: So setzen Sie KI Texte im Marketing richtig ein

Die Entwicklung künstlicher Intelligenz (KI) hat die Landschaft des digitalen Marketings grundlegend verändert. Insbesondere durch die Fähigkeit, effektiv und effizient Texte zu generieren. Diese Technologie bietet Marketingspezialisten wie Ihnen neue Wege zur Content-Erstellung. Wirft aber auch Fragen zur Qualität, Anwendungsbereichen und den ethischen Grenzen der Automatisierung auf. Wie gut ist KI im Texte schreiben? KI-Textgeneratoren wie ...

Mehr erfahren

Frau sitzt am PC umgeben von Kartons und Kleidung

Wie Sie Onlineshop und Webseiten Traffic erhöhen – kostenlos und ohne Werbung

Jeder, der einen Onlineshop oder eine Webseite betreibt, kennt die Herausforderung, Besucher auf die eigene Plattform zu locken. Traffic zu generieren bedeutet mehr potenzielle Kunden und damit höhere Umsätze. Doch wie können Sie mehr Traffic auf Ihren Onlineshop oder Ihre Webseite bringen – und das ohne einen Cent für Werbung auszugeben? Genau das erfahren Sie ...

Mehr erfahren

Frau auf Sofa kauft in einem Onlineshop ein.

Die Bedeutung von Personalisierung im E Commerce

Kunden erwarten beim Online-Shopping heutzutage maßgeschneiderte Erlebnisse und Empfehlungen. Deswegen und auch wegen der immer größer werdenden Konkurrenz, gewinnt Personalisierung im E Commerce immer weiter an Bedeutung. Aber wie können Sie das in Ihrem Online-Shop einbinden? Was ist personalisiertes Marketing? Personalisierung im E Commerce bedeutet, Ihre Kunden basierend auf Verhaltensdaten oder demografischen Informationen gezielt anzusprechen. ...

Mehr erfahren

Mitarbeiter der Relaunch Agentur analysieren einen Internetauftritt.

SEO für den Relaunch: So verbessern Sie Ihr Ranking

Suchmaschinenoptimierung beim Relaunch ist entscheidend für den Erfolg einer neuen Webseite. Mit gezielten SEO-Maßnahmen beim Relaunch wird nachhaltig eine bessere Platzierung der neuen Webseite in den Suchmaschinenergebnissen erreicht.
Mitarbeiter beraten sich zu Relaunch-Projekt.

KI-Einsatz beim Relaunch von Internetseiten und Online-Shops

Möglichkeiten für den KI-Einsatz beim Relaunch Die Integration von Künstlicher Intelligenz (KI) in Relaunch-Projekte eröffnet mittelständischen Unternehmen zahlreiche Chancen. Der KI-Einsatz beim Relaunch kann in verschiedenen Phasen des Projekts stattfinden, um die Effizienz zu steigern, Kosten zu senken und die Ergebnisse zu verbessern. Im Fokus dieser Betrachtung steht dabei ChatGPT, die künstliche Intelligenz von OpenAI, ...

Mehr erfahren

Olanung einer Webseite mit Wireframes.

Inhaltskonzept beim Relaunch – Wie Sie Ihre Website optimal strukturieren

Ein Website-Relaunch ist nicht nur eine technische Aufgabe, sondern vor allem eine inhaltliche Herausforderung. Um eine effektive und benutzerfreundliche Website zu schaffen, muss das Inhaltskonzept sorgfältig geplant werden. In unseren Workshops zur Erstellung eines Inhaltskonzepts bei einem Relaunch bearbeiten wir diese Schlüsselkomponenten: Struktur, Informationsarchitektur sowie Text- und Bildkonzept. Struktur Die Struktur einer Website bildet das Fundament ...

Mehr erfahren

SEO & SEA-Experten im Austausch, wie Synergien mit beiden erreicht werden können

SEO vs SEA im Vergleich – welche Maßnahme bringt Sie besser nach vorne?

SEO und SEA bringen Ihnen Webseiten-Besucher. Wir klären darüber auf, was Sie tun müssen, damit Ihr Webauftritt bei Google oben erscheint und welche Maßnahme sinnvoller ist.
Eine Grafik, bei welcher Google Analytics gegen matomo steht

Google Analytics 4 (GA4) vs. Matomo – Vergleich der beliebtesten Analyse-Tools

Das Webanalyse-Tool Matomo wird von Millionen von Webseiten und Anwendungen weltweit genutzt. Nach der Veröffentlichung der EU-DSGVO wächst der Bedarf an datenschutzfreundlichen Webanalysediensten zunehmend. Das macht das Tool auch in Deutschland sehr beliebt.
Eine Person mit Tablet und Stift, die das Ranking überprüft nach der SEO Performance-Optimierung

Mit SEO Performance-Optimierung Rankings verbessern

SEO – Rankings mit Performance-Optimierung verbessern Suchmaschinenoptimierung (SEO) ist für viele Unternehmen eine wichtige Strategie, um mehr Traffic und damit potenzielle Kunden auf ihre Webseite zu locken. Eine Möglichkeit, um die Rankings in den Suchmaschinenergebnissen zu verbessern, ist die SEO Performance-Optimierung. Warum eine gute Performance für SEO wichtig ist Die Performance einer Webseite hat einen ...

Mehr erfahren

Experten für Webauftritte bei der Konzeption von 23 Maßnahmen für den Online-Markenauftritt

23 Maßnahmen für die Online-Strategie Ihrer Marke in 2023

Ihr Webauftritt ist die zentrale Anlaufstelle für Ihre Kunden. Er ist ein unschätzbares Werkzeug für jedes Unternehmen und steht 2023 auf jeden Fall an erster Stelle.
Zwei Grafiken zu Google Optimize und deren Alternative

Google Optimize wird eingestellt – was das für Sie bedeutet & welche Alternativen es gibt

Google Optimize ist eines der beliebtesten und führenden Tools für Webseitenbetreiber, die A/B-Tests nutzen, um die Leistung ihres Online-Angebots zu maximieren. Da die Nutzerzahlen in den vergangenen Jahren nach und nach gesunken sind, hat Google angekündigt, dass Google Optimize eingestellt wird. Als erfahrene Online-Marketing-Agentur beleuchten wir die Hintergründe und zeigen auf, welche Alternativen zukünftig eingesetzt ...

Mehr erfahren

Was ist die Google Search Console? – das müssen Sie über das Tool wissen

Die Google Search Console ist für jeden hilfreich, der einen Webauftritt hat, egal, ob Sie Starter, Groß- oder Kleinunternehmer sind.