Technisches SEO

Log-Datei-Analyse für SEO: Crawler-Verhalten verstehen

Server-Logs sind das ehrlichste SEO-Instrument das du hast — hier siehst du, was Googlebot wirklich tut, nicht was du glaubst dass er tut. Lerne, wie du Log-Dateien auswertest, Crawl-Verschwendung erkennst und deine Website für den Bot optimierst.

Von Laurenz Thümmler 13 Min. Lesezeit
Log-Datei-Analyse für SEO: Server-Logs auswerten und Crawler-Verhalten von Googlebot verstehen

1. Was sind Server-Log-Dateien?

Jedes Mal, wenn jemand — ob Mensch, Bot oder Crawler — deine Website besucht, protokolliert dein Webserver diesen Zugriff automatisch in einer Log-Datei (auch Access-Log oder Server-Log genannt). Diese Datei ist ein vollständiges, unverändertes Protokoll aller HTTP-Anfragen, die dein Server empfangen hat.

Im Gegensatz zu Tools wie Google Analytics (die JavaScript benötigen und Besucher nur nach dem Laden der Seite erfassen) sieht ein Server-Log alles: Auch Bots die kein JavaScript ausführen, auch Seitenaufrufe bei denen Analytics blockiert ist, und auch Ressourcen wie CSS- und JavaScript-Dateien.

Für SEO sind Server-Logs besonders wertvoll, weil sie zeigen, wie Googlebot (und andere Suchmaschinen-Crawler) sich auf deiner Website verhalten — welche Seiten er besucht, wie oft, und welche er ignoriert.

Wo findest du deine Log-Dateien?

  • Apache: /var/log/apache2/access.log
  • Nginx: /var/log/nginx/access.log
  • cPanel/Plesk: Im Hosting-Panel unter "Logs" oder "Statistiken"
  • Managed Hosting: Beim Anbieter anfragen oder per FTP/SFTP unter logs/
  • CDN (Cloudflare etc.): Im Dashboard als "Enterprise Log Share" (Enterprise-Plan)

2. Warum Log-Datei-Analyse für SEO wichtig ist

Die meisten SEO-Maßnahmen basieren auf Annahmen: "Ich glaube, Google crawlt meine Seiten regelmäßig." Mit einer Log-Datei-Analyse weißt du es mit Sicherheit.

✅ Was Log-Analyse zeigt

  • • Welche Seiten Googlebot crawlt (und welche nicht)
  • • Wie oft Google bestimmte URLs besucht
  • • Welche HTTP-Status-Codes Google sieht (200, 301, 404...)
  • • Ob wichtige Seiten ignoriert werden
  • • Wie viel Crawl-Budget für nutzlose URLs verschwendet wird
  • • Ob Crawl-Fehler auftreten
  • • Welche Bot-Version Googlebot verwendet

❌ Was Analytics nicht zeigt

  • • Bot-Traffic (gefiltert in GA)
  • • Seiten ohne erfolgreichen Seitenaufbau
  • • Fehlgeschlagene Crawls (404, 500)
  • • Ressourcen-Requests (CSS, JS, Bilder)
  • • Besuche mit deaktiviertem JavaScript
  • • Ad-Blocker-gefilterte Aufrufe
  • • Crawl-Frequenz pro URL

Ein häufiges Ergebnis von Log-Analysen: Google crawlt täglich hunderte von URL-Varianten (Filterseiten, Paginierungsseiten, Session-URLs) und vergeudert dabei sein Crawl-Budget — während wichtige Produktseiten nur einmal pro Woche besucht werden. Ohne Log-Analyse würdest du dieses Problem nie entdecken.

3. Aufbau einer Server-Log-Datei

Das Standard-Format für Apache und Nginx heißt Combined Log Format. Jede Zeile entspricht einer HTTP-Anfrage und besteht aus mehreren Feldern:

66.249.66.1 - - [11/Apr/2026:08:42:17 +0200] "GET /blog/meta-tags-richtig-einsetzen HTTP/1.1" 200 15234 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)"
Feld Wert im Beispiel Bedeutung
IP-Adresse 66.249.66.1 IP des Besuchers/Bots
Zeitstempel [11/Apr/2026:08:42:17] Datum und Uhrzeit des Zugriffs
HTTP-Methode + URL GET /blog/meta-tags... Welche URL wurde angefragt
HTTP-Status 200 Antwort-Code (200=OK, 404=Nicht gefunden)
Bytes gesendet 15234 Größe der Antwort in Bytes
User-Agent Googlebot/2.1 Browser/Bot-Identifikation

4. Googlebot in Log-Dateien erkennen

Der User-Agent ist entscheidend: Googlebot identifiziert sich im Log mit einem charakteristischen String. Es gibt verschiedene Googlebot-Varianten, die du kennen solltest:

🤖

Googlebot (Desktop-Crawler)

Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)

Der Haupt-Crawler für Text-Inhalte

📱

Googlebot Smartphone (Mobile-First)

Mozilla/5.0 (Linux; Android 6.0.1; Nexus 5X Build/MMB29P) ... (compatible; Googlebot/2.1)

Wichtigster Crawler seit Mobile-First Index

🖼️

Googlebot-Image

Googlebot-Image/1.0

Crawlt Bilder für Google Bilder-Suche

AdsBot-Google

AdsBot-Google (+http://www.google.com/adsbot.html)

Prüft Landing Pages für Google Ads

⚠️ Vorsicht bei User-Agent-Fälschungen

Nicht jeder Eintrag mit "Googlebot" im User-Agent ist auch wirklich Google. Böswillige Bots fälschen oft den User-Agent. Überprüfe die IP-Adresse: Googles offizielle IPs findest du über einen Reverse-DNS-Lookup (host 66.249.66.1 sollte crawl-66-249-66-1.googlebot.com zurückgeben). Seriöse Log-Analyse-Tools machen das automatisch.

5. Tools für die Log-Analyse

Du brauchst kein teures Enterprise-Tool für eine erste Log-Analyse. Hier sind die wichtigsten Optionen:

🆓 Kostenlos

  • Grep/AWK (Kommandozeile): Für technisch versierte Nutzer. Schnell für spezifische Abfragen.
  • GoAccess: Open-Source-Dashboard im Terminal oder Browser. Echtzeit-Analyse großer Log-Dateien.
  • Screaming Frog Log Analyser: 1.000 Zeilen kostenlos. GUI-basiert, einsteigerfreundlich.
  • Google Search Console: Kein Log-Zugriff, aber ergänzende Crawl-Daten.

💰 Kostenpflichtig

  • Screaming Frog Log Analyser Pro: Unbegrenzte Logs, Bot-IP-Verifizierung, ab ~£199/Jahr.
  • Botify: Enterprise-Lösung, kombiniert Logs + Crawl + Analytics. Ab ~$500/Monat.
  • JetOctopus: Mittelklasse, gutes Preis-Leistungsverhältnis für größere Websites.
  • Oncrawl: Verbindet Log-Analyse mit SEO-Audit. Gut für E-Commerce.

💡 Profi-Tipp: GoAccess in der Kommandozeile

# Nur Googlebot-Zugriffe analysieren:
grep "Googlebot" /var/log/nginx/access.log | goaccess - --log-format=COMBINED

# Alle Googlebot-URLs der letzten 7 Tage:
grep "Googlebot" access.log | awk '{print $7}' | sort | uniq -c | sort -rn | head -50

# 404-Fehler die Googlebot sieht:
grep "Googlebot" access.log | grep '" 404 ' | awk '{print $7}' | sort | uniq -c | sort -rn

6. Schritt-für-Schritt: Log-Analyse durchführen

Hier ist ein praktischer Workflow für deine erste SEO-fokussierte Log-Datei-Analyse:

1

Log-Datei beschaffen

Lade die Access-Logs der letzten 30 Tage von deinem Server herunter. Bei großen Websites reichen 7 Tage. Achte darauf, dass die Logs vollständig sind (nicht nur komprimierte .gz-Dateien).

2

Googlebot-Einträge filtern

Filtere alle Zeilen mit "Googlebot" im User-Agent heraus. Bei Screaming Frog Log Analyser wird das automatisch gemacht. Auf der Kommandozeile: grep -i "googlebot" access.log > googlebot.log

3

Gecrawlte URLs identifizieren

Erstelle eine Liste aller URLs, die Googlebot gecrawlt hat, und zähle die Häufigkeit pro URL. Welche Seiten werden täglich gecrawlt? Welche nie?

4

HTTP-Status-Codes analysieren

Segmentiere die gecrawlten URLs nach Status-Code: Wie viele 200 (OK), 301 (Redirect), 404 (Nicht gefunden), 500 (Server-Fehler)? Jeder Nicht-200-Status den Google sieht ist eine potenzielle Ranking-Einbuße.

5

Mit Sitemap abgleichen

Vergleiche die gecrawlten URLs mit deiner sitemap.xml: Gibt es wichtige Seiten in der Sitemap, die Googlebot nie besucht? Das sind kritische Lücken.

6

Crawl-Effizienz berechnen

Teile die Anzahl nützlicher gecrawlter URLs (= indexierbare Seiten) durch alle gecrawlten URLs. Werte unter 50% bedeuten: über die Hälfte des Crawl-Budgets wird verschwendet.

7. Typische SEO-Probleme in Log-Dateien

Diese Probleme tauchen in Log-Analysen am häufigsten auf:

🚨 Crawl-Budget-Verschwendung durch URL-Parameter

URLs wie /produkte?sort=preis&filter=farbe&page=3&session=abc123 erzeugen tausende URL-Varianten. Googlebot crawlt jede davon als eigene URL — und verbraucht dein Crawl-Budget für wertlose Duplikate. Lösung: URL-Parameter in der Google Search Console konfigurieren, robots.txt für Parameter-URLs, oder Canonical-Tags nutzen.

⚠️ 404-Fehler auf gecrawlten Seiten

Wenn Googlebot viele 404-Seiten crawlt, verschwendet er Zeit und sendet negatives Signal. Häufige Ursache: gelöschte Seiten ohne 301-Redirect, kaputte interne Links. Lösung: 301-Redirects für gelöschte Seiten setzen, interne Links aktualisieren.

⚠️ Wichtige Seiten werden selten gecrawlt

Neue Blog-Artikel oder wichtige Produktseiten die nur 1x pro Monat gecrawlt werden, erhalten Ranking-Updates sehr langsam. Lösung: PageRank intern auf wichtige Seiten lenken (mehr interne Links), XML-Sitemap optimieren, IndexNow nutzen.

ℹ️ Übermäßiges Crawlen von Ressourcen

Wenn Googlebot viele CSS/JS/Bild-Ressourcen crawlt, ist das normal — aber Millionen von Ressourcen-Crawls können auf fehlende Optimierungen hinweisen. Lösung: Ressourcen nicht in robots.txt blockieren (Google muss CSS/JS sehen können!), aber unnötige Ressourcen reduzieren.

🔍 Unerwartet gecrawlte URLs

URLs die nicht in deiner Sitemap stehen und auch nicht indexiert werden sollten — z.B. Admin-Seiten, Staging-Bereiche, interne Suchseiten. Lösung: Diese URLs mit robots.txt oder noindex blockieren, interne Links zu diesen Seiten entfernen.

8. Crawl-Budget durch Log-Analyse optimieren

Das Crawl-Budget ist die Anzahl an Seiten, die Googlebot bereit ist, innerhalb eines bestimmten Zeitraums auf deiner Website zu crawlen. Große Websites haben ein begrenztes Budget — jede verschwendete Crawl-Ressource kostet eine nützliche.

Crawl-Budget-Optimierung in 5 Schritten

  1. 1. Nie gecrawlte wichtige Seiten: Finde Seiten in deiner Sitemap die Googlebot ignoriert und erhöhe ihre interne Verlinkung.
  2. 2. Oft gecrawlte unwichtige Seiten: Filtere URL-Parameter, duplizierte Seiten und Admin-URLs via robots.txt oder noindex aus dem Crawl heraus.
  3. 3. Server-Reaktionszeit: Ein langsamer Server = weniger Seiten pro Crawl-Session. Verbessere TTFB und Server-Performance.
  4. 4. Redirect-Ketten minimieren: Jeder Redirect kostet Crawl-Budget. Direkt auf die finale URL zeigen.
  5. 5. 404-Seiten bereinigen: Jede gecrawlte 404-Seite ist Verschwendung. Entweder redirecten oder aus allen internen Links entfernen.

Ergänze deine Log-Analyse immer mit Daten aus der Google Search Console (Abdeckungsbericht → "Crawling-Fehler") und — sofern du großes Traffic-Volumen hast — einem Sitemap-Validator um sicherzustellen, dass alle gecrawlten URLs valide und indexierbar sind.

9. Log-Analyse-Checkliste

Nutze diese Checkliste für deine monatliche Log-Datei-Analyse:

Technische SEO-Probleme auf deiner Website aufdecken

Shift07 analysiert deine Website auf über 50 technische SEO-Faktoren — kostenlos, ohne Registrierung.

Kostenlose SEO-Analyse starten →

Fazit: Log-Dateien als ehrlichste SEO-Datenquelle

Log-Datei-Analyse ist kein Luxus für Enterprise-Websites — sie ist das direkteste Fenster in Googles Crawl-Verhalten auf deiner Website. Während Google Search Console gefilterte und aggregierte Daten zeigt, spiegeln Server-Logs die Realität unverfälscht wider.

Starte mit einem einfachen Grep-Befehl auf deinen Access-Logs oder mit GoAccess (kostenlos). Schon eine 30-minütige Analyse kann kritische Crawl-Probleme aufdecken, die du mit anderen SEO-Tools nie entdeckt hättest.

Kombiniere die Erkenntnisse aus deiner Log-Analyse mit einer vollständigen SEO-Analyse deiner Website, um ein vollständiges Bild deiner technischen SEO-Situation zu bekommen. So kannst du dein Crawl-Budget optimal einsetzen und sicherstellen, dass Google deine wichtigsten Inhalte regelmäßig und effizient crawlt.