Du hast wochenlang an deiner Website gearbeitet — und trotzdem findet dich niemand bei Google. Ein häufiger Grund: Google hat deine Seiten schlicht noch nicht indexiert. Oder schlimmer: etwas blockiert aktiv die Indexierung.
Die gute Nachricht: Du kannst in wenigen Minuten prüfen, ob und wie deine Website bei Google indexiert ist. Dieser Artikel zeigt alle Methoden — vom einfachen Google-Trick bis zur professionellen Search Console.
Was bedeutet Indexierung bei Google?
Googles Crawler (Googlebot) besucht Websites, liest ihre Inhalte und nimmt diese in seinen Index auf — eine riesige Datenbank aller bekannten Webseiten. Nur indexierte Seiten können in den Suchergebnissen erscheinen.
Der Prozess läuft in drei Schritten:
- Crawlen: Googlebot besucht die URL und liest den HTML-Quellcode
- Rendern: Google führt JavaScript aus und sieht die fertige Seite
- Indexieren: Der Seiteninhalt wird im Google-Index gespeichert
Wichtig: Gecrawlt ≠ indexiert. Google kann eine Seite besuchen, aber trotzdem entscheiden, sie nicht aufzunehmen — zum Beispiel wenn der Inhalt dünn ist, eine Canonical auf eine andere URL zeigt oder ein noindex-Tag gesetzt ist.
Methode 1: Der site:-Operator (Schnellcheck)
Der einfachste Weg zu prüfen, ob deine Domain bei Google bekannt ist, ist der site:-Operator in der Google-Suche:
site:deinedomain.de
Google zeigt dir alle indexierten URLs deiner Domain. Erscheinen gar keine Ergebnisse, ist deine Domain entweder sehr neu oder hat ein ernstes Indexierungsproblem.
Was du siehst — und was es bedeutet
- Viele Ergebnisse: Google kennt deine Website und indexiert Seiten aktiv
- Wenige Ergebnisse: Manche Seiten werden möglicherweise blockiert oder sind doppelt (Duplicate Content)
- 0 Ergebnisse: Domain nicht indexiert — entweder sehr jung oder aktiv blockiert
- Viel mehr als erwartet: Möglicherweise werden URL-Parameter oder Sitzungs-IDs als separate Seiten indexiert
Einzelne URLs prüfen
Du kannst auch eine konkrete URL überprüfen:
site:deinedomain.de/kontakt
Erscheint genau diese URL in den Ergebnissen, ist sie indexiert. Erscheint sie nicht, aber andere Seiten deiner Domain schon, liegt das Problem spezifisch bei dieser Seite.
Einschränkung: Der site:-Operator liefert nur Näherungswerte. Google zeigt nicht alle indexierten URLs an und die Zahl ist oft ungenau. Für präzise Daten brauchst du die Search Console.
Methode 2: Google Search Console (Empfohlen)
Die Google Search Console (früher Webmaster Tools) ist das offizielle Google-Tool für Webmaster — und deine wichtigste Quelle für Indexierungsdaten.
So richtest du die Search Console ein
- Gehe zu search.google.com/search-console
- Property hinzufügen: entweder "Domain" (alle Subdomains) oder "URL-Präfix" (spezifische URL)
- Verifizieren: z.B. über HTML-Tag im <head>, DNS-Eintrag oder Google Analytics
- 24–48 Stunden warten, bis erste Daten erscheinen
Der Bericht "Seiten" (ehemals Abdeckung)
Unter Indexierung → Seiten siehst du eine Übersicht aller bekannten URLs — aufgeteilt nach Status:
- Indexiert: Google hat diese Seite in den Index aufgenommen — alles gut
- Gecrawlt, aber nicht indexiert: Google hat die Seite besucht, aber für unwürdig befunden. Häufiger Grund: dünner Content
- Erkannt, aber nicht gecrawlt: Google kennt die URL (z.B. aus der Sitemap), hat sie aber noch nicht besucht — oft nur eine Frage der Zeit
- Ausgeschlossen: Seite wird aktiv nicht indexiert — durch noindex-Tag, Canonical, robots.txt o.ä.
- Fehler: Crawl-Fehler, 404-Seiten, Server-Fehler — müssen aktiv behoben werden
Was du als Erstes prüfen solltest
Öffne den Bericht und sortiere nach Anzahl der URLs pro Status. Schau besonders auf:
- "Gecrawlt, aber nicht indexiert" mit vielen URLs → Content-Qualität verbessern
- "Ausgeschlossen" durch Benutzer → noindex-Tags prüfen
- "Ausgeschlossen" durch robots.txt → robots.txt prüfen
- Viele 404-Fehler → fehlende Weiterleitugen einrichten
Methode 3: Das URL-Prüftool (für einzelne Seiten)
Für eine detaillierte Analyse einer einzelnen URL bietet die Search Console das URL-Prüftool. Du findest es oben in der Search Console — einfach eine URL eingeben und Enter drücken.
Was das Tool zeigt
- Indexierungsstatus: "URL ist bei Google" oder nicht
- Letzter Crawl: Wann hat Googlebot die Seite zuletzt besucht?
- Gerenderte Seite: Screenshot, wie Google deine Seite sieht (nach JavaScript-Rendering)
- Canonical URL: Welche URL betrachtet Google als Haupt-URL?
- Crawl erlaubt?: Wird die URL durch robots.txt blockiert?
- Indexierung erlaubt?: Gibt es ein noindex-Tag?
Indexierung anfordern
Hast du eine neue oder überarbeitete Seite und willst Google aktiv informieren? Klicke im URL-Prüftool auf "Indexierung anfordern". Google wird die URL bevorzugt crawlen — meistens innerhalb weniger Stunden bis Tage.
Tipp: Nutze "Indexierung anfordern" gezielt für wichtige neue Inhalte — z.B. nach einem neuen Blog-Artikel oder einer überarbeiteten Landing Page. Für die regelmäßige Indexierung sorgt eine gut gepflegte Sitemap.xml.
Warum ist eine Seite nicht indexiert?
Es gibt viele mögliche Gründe. Hier sind die häufigsten:
1. Noindex-Meta-Tag
Das wichtigste und häufigste Problem. Prüfe, ob im <head> deiner Seite steht:
<meta name="robots" content="noindex">
Dieses Tag sagt Google explizit: "Bitte diese Seite nicht in den Index aufnehmen." Manchmal wird es versehentlich auf der gesamten Website gesetzt — z.B. in WordPress unter Einstellungen → Lesen → "Suchmaschinen davon abhalten".
2. Robots.txt-Sperrung
Eine robots.txt-Disallow-Regel kann Googlebot am Crawlen hindern:
User-agent: *
Disallow: /blog/
Wichtig: Robots.txt verhindert das Crawlen, aber nicht unbedingt die Indexierung. Google kann eine URL trotzdem indexieren, wenn sie in anderen Seiten verlinkt ist — nur ohne den Inhalt gelesen zu haben. Mehr dazu in unserem Artikel zur robots.txt-Konfiguration.
3. Canonical auf eine andere URL
Zeigt der Canonical-Tag auf eine andere URL, wird diese Seite als Duplikat behandelt und nicht indexiert. Prüfe:
<link rel="canonical" href="https://example.de/andere-seite/">
Der Canonical sollte normalerweise auf die eigene URL zeigen, außer du willst bewusst Duplicate Content konsolidieren. Mehr dazu in unserem Artikel zu Canonical-Tags.
4. Dünner oder duplizierter Content
Google indexiert bevorzugt Seiten mit einzigartigem, hochwertigem Inhalt. Seiten mit weniger als 300 Wörtern, Seiten die nur anderen Seiten ähneln oder Seiten ohne klaren Mehrwert werden oft ignoriert — auch wenn kein technisches Blockierungs-Tag existiert.
5. Website zu neu
Neue Domains brauchen Zeit. Google muss erst Vertrauen aufbauen. Eine neue Website kann 4–12 Wochen brauchen, bis sie regelmäßig gecrawlt wird. Acceleratoren: Backlinks von anderen Websites, Sitemap einreichen, Social-Media-Präsenz.
6. Crawl-Fehler
Server-Fehler (500er), zu viele Weiterleitungen oder Timeout-Fehler können Googlebot abschrecken. In der Search Console unter "Seiten" → "Crawl-Fehler" siehst du die betroffenen URLs.
7. JavaScript-Rendering-Probleme
Wenn dein Inhalt ausschließlich per JavaScript geladen wird und Google ihn nicht rendern kann, bleibt die Seite inhaltsleer — und damit nicht indexierungswürdig. Das URL-Prüftool zeigt dir den Screenshot der gerenderten Seite.
Probleme lösen: Schritt für Schritt
Seite nicht indexiert, obwohl sie es sollte
- URL-Prüftool aufrufen → Grund für Nicht-Indexierung lesen
- noindex-Tag prüfen und entfernen falls vorhanden
- robots.txt prüfen — blockiert sie den Pfad?
- Canonical-Tag prüfen — zeigt er korrekt?
- Content-Qualität bewerten — mind. 500 Wörter, einzigartiger Inhalt?
- Indexierung anfordern über das URL-Prüftool
- URL zur Sitemap hinzufügen und Sitemap einreichen
Viel weniger Seiten indexiert als erwartet
- Search Console → Seiten-Bericht → alle Ausschlussgründe prüfen
- Sitemap.xml einreichen falls noch nicht geschehen
- Interne Verlinkung verbessern — jede Seite sollte mindestens von einer anderen Seite verlinkt werden
- Crawl-Budget optimieren — wichtige Seiten priorisieren
- Duplicate Content bereinigen
Seiten werden indexiert, die es nicht sollten
- noindex-Tag auf betroffene Seiten setzen
- Bei URL-Parametern: Search Console → URL-Parameter-Verwaltung
- Bei Staging-Websites: Passwortschutz oder robots.txt Disallow
- Canonical-Tags setzen um Duplikate zu konsolidieren
Checkliste: Indexierung prüfen
Schnell-Checkliste Indexierung
- ✓Google Search Console eingerichtet und verifiziert
- ✓site:-Operator zeigt erwartete Anzahl URLs
- ✓Kein unerwünschtes noindex-Tag auf wichtigen Seiten
- ✓robots.txt blockiert keine wichtigen Seiten
- ✓Canonical-Tags zeigen korrekt auf Haupt-URLs
- ✓Sitemap.xml erstellt und in Search Console eingereicht
- ✓Kein "Gecrawlt, aber nicht indexiert"-Problem bei wichtigen Seiten
- ✓Crawl-Fehler im Seiten-Bericht auf 0 reduziert
- ✓Wichtige neue Seiten über URL-Prüftool zur Indexierung angemeldet
Fazit
Indexierung ist die Grundvoraussetzung für jedes Ranking. Ohne Indexierung — kein Traffic. Die gute Nachricht: Die meisten Indexierungsprobleme sind technischer Natur und lassen sich mit etwas Diagnose schnell beheben.
Nutze regelmäßig das URL-Prüftool und den Seiten-Bericht in der Search Console, um den Überblick zu behalten. Und wenn du eine vollständige technische SEO-Analyse deiner Website willst, probiere unsere kostenlose SEO-Analyse auf Shift07 — sie prüft alle wichtigen Faktoren auf einmal.
Verwandte Artikel
Sitemap.xml erstellen und einreichen
So hilfst du Google, alle deine Seiten zu finden.
Crawl-Budget optimieren
Wie Google deine Website crawlt — und wie du es steuerst.
robots.txt richtig konfigurieren
Steuere welche Seiten Googlebot crawlen darf.
Canonical-Tags erklärt
Duplicate Content vermeiden mit Canonical-Tags.