← Blog / Technisches SEO

Indexierung prüfen: Ist deine Website bei Google?

Eine Website zu haben reicht nicht — Google muss sie auch finden und indexieren. So prüfst du den Indexierungsstatus jeder Seite und löst häufige Probleme.

von Laurenz Thümmler 10 Min. Lesezeit
Indexierung prüfen: Ist deine Website bei Google?

Du hast wochenlang an deiner Website gearbeitet — und trotzdem findet dich niemand bei Google. Ein häufiger Grund: Google hat deine Seiten schlicht noch nicht indexiert. Oder schlimmer: etwas blockiert aktiv die Indexierung.

Die gute Nachricht: Du kannst in wenigen Minuten prüfen, ob und wie deine Website bei Google indexiert ist. Dieser Artikel zeigt alle Methoden — vom einfachen Google-Trick bis zur professionellen Search Console.

Was bedeutet Indexierung bei Google?

Googles Crawler (Googlebot) besucht Websites, liest ihre Inhalte und nimmt diese in seinen Index auf — eine riesige Datenbank aller bekannten Webseiten. Nur indexierte Seiten können in den Suchergebnissen erscheinen.

Der Prozess läuft in drei Schritten:

  1. Crawlen: Googlebot besucht die URL und liest den HTML-Quellcode
  2. Rendern: Google führt JavaScript aus und sieht die fertige Seite
  3. Indexieren: Der Seiteninhalt wird im Google-Index gespeichert

Wichtig: Gecrawlt ≠ indexiert. Google kann eine Seite besuchen, aber trotzdem entscheiden, sie nicht aufzunehmen — zum Beispiel wenn der Inhalt dünn ist, eine Canonical auf eine andere URL zeigt oder ein noindex-Tag gesetzt ist.

Methode 1: Der site:-Operator (Schnellcheck)

Der einfachste Weg zu prüfen, ob deine Domain bei Google bekannt ist, ist der site:-Operator in der Google-Suche:

site:deinedomain.de

Google zeigt dir alle indexierten URLs deiner Domain. Erscheinen gar keine Ergebnisse, ist deine Domain entweder sehr neu oder hat ein ernstes Indexierungsproblem.

Was du siehst — und was es bedeutet

  • Viele Ergebnisse: Google kennt deine Website und indexiert Seiten aktiv
  • Wenige Ergebnisse: Manche Seiten werden möglicherweise blockiert oder sind doppelt (Duplicate Content)
  • 0 Ergebnisse: Domain nicht indexiert — entweder sehr jung oder aktiv blockiert
  • Viel mehr als erwartet: Möglicherweise werden URL-Parameter oder Sitzungs-IDs als separate Seiten indexiert

Einzelne URLs prüfen

Du kannst auch eine konkrete URL überprüfen:

site:deinedomain.de/kontakt

Erscheint genau diese URL in den Ergebnissen, ist sie indexiert. Erscheint sie nicht, aber andere Seiten deiner Domain schon, liegt das Problem spezifisch bei dieser Seite.

Einschränkung: Der site:-Operator liefert nur Näherungswerte. Google zeigt nicht alle indexierten URLs an und die Zahl ist oft ungenau. Für präzise Daten brauchst du die Search Console.

Methode 2: Google Search Console (Empfohlen)

Die Google Search Console (früher Webmaster Tools) ist das offizielle Google-Tool für Webmaster — und deine wichtigste Quelle für Indexierungsdaten.

So richtest du die Search Console ein

  1. Gehe zu search.google.com/search-console
  2. Property hinzufügen: entweder "Domain" (alle Subdomains) oder "URL-Präfix" (spezifische URL)
  3. Verifizieren: z.B. über HTML-Tag im <head>, DNS-Eintrag oder Google Analytics
  4. 24–48 Stunden warten, bis erste Daten erscheinen

Der Bericht "Seiten" (ehemals Abdeckung)

Unter Indexierung → Seiten siehst du eine Übersicht aller bekannten URLs — aufgeteilt nach Status:

  • Indexiert: Google hat diese Seite in den Index aufgenommen — alles gut
  • Gecrawlt, aber nicht indexiert: Google hat die Seite besucht, aber für unwürdig befunden. Häufiger Grund: dünner Content
  • Erkannt, aber nicht gecrawlt: Google kennt die URL (z.B. aus der Sitemap), hat sie aber noch nicht besucht — oft nur eine Frage der Zeit
  • Ausgeschlossen: Seite wird aktiv nicht indexiert — durch noindex-Tag, Canonical, robots.txt o.ä.
  • Fehler: Crawl-Fehler, 404-Seiten, Server-Fehler — müssen aktiv behoben werden

Was du als Erstes prüfen solltest

Öffne den Bericht und sortiere nach Anzahl der URLs pro Status. Schau besonders auf:

  • "Gecrawlt, aber nicht indexiert" mit vielen URLs → Content-Qualität verbessern
  • "Ausgeschlossen" durch Benutzer → noindex-Tags prüfen
  • "Ausgeschlossen" durch robots.txt → robots.txt prüfen
  • Viele 404-Fehler → fehlende Weiterleitugen einrichten

Methode 3: Das URL-Prüftool (für einzelne Seiten)

Für eine detaillierte Analyse einer einzelnen URL bietet die Search Console das URL-Prüftool. Du findest es oben in der Search Console — einfach eine URL eingeben und Enter drücken.

Was das Tool zeigt

  • Indexierungsstatus: "URL ist bei Google" oder nicht
  • Letzter Crawl: Wann hat Googlebot die Seite zuletzt besucht?
  • Gerenderte Seite: Screenshot, wie Google deine Seite sieht (nach JavaScript-Rendering)
  • Canonical URL: Welche URL betrachtet Google als Haupt-URL?
  • Crawl erlaubt?: Wird die URL durch robots.txt blockiert?
  • Indexierung erlaubt?: Gibt es ein noindex-Tag?

Indexierung anfordern

Hast du eine neue oder überarbeitete Seite und willst Google aktiv informieren? Klicke im URL-Prüftool auf "Indexierung anfordern". Google wird die URL bevorzugt crawlen — meistens innerhalb weniger Stunden bis Tage.

Tipp: Nutze "Indexierung anfordern" gezielt für wichtige neue Inhalte — z.B. nach einem neuen Blog-Artikel oder einer überarbeiteten Landing Page. Für die regelmäßige Indexierung sorgt eine gut gepflegte Sitemap.xml.

Warum ist eine Seite nicht indexiert?

Es gibt viele mögliche Gründe. Hier sind die häufigsten:

1. Noindex-Meta-Tag

Das wichtigste und häufigste Problem. Prüfe, ob im <head> deiner Seite steht:

<meta name="robots" content="noindex">

Dieses Tag sagt Google explizit: "Bitte diese Seite nicht in den Index aufnehmen." Manchmal wird es versehentlich auf der gesamten Website gesetzt — z.B. in WordPress unter Einstellungen → Lesen → "Suchmaschinen davon abhalten".

2. Robots.txt-Sperrung

Eine robots.txt-Disallow-Regel kann Googlebot am Crawlen hindern:

User-agent: *
Disallow: /blog/

Wichtig: Robots.txt verhindert das Crawlen, aber nicht unbedingt die Indexierung. Google kann eine URL trotzdem indexieren, wenn sie in anderen Seiten verlinkt ist — nur ohne den Inhalt gelesen zu haben. Mehr dazu in unserem Artikel zur robots.txt-Konfiguration.

3. Canonical auf eine andere URL

Zeigt der Canonical-Tag auf eine andere URL, wird diese Seite als Duplikat behandelt und nicht indexiert. Prüfe:

<link rel="canonical" href="https://example.de/andere-seite/">

Der Canonical sollte normalerweise auf die eigene URL zeigen, außer du willst bewusst Duplicate Content konsolidieren. Mehr dazu in unserem Artikel zu Canonical-Tags.

4. Dünner oder duplizierter Content

Google indexiert bevorzugt Seiten mit einzigartigem, hochwertigem Inhalt. Seiten mit weniger als 300 Wörtern, Seiten die nur anderen Seiten ähneln oder Seiten ohne klaren Mehrwert werden oft ignoriert — auch wenn kein technisches Blockierungs-Tag existiert.

5. Website zu neu

Neue Domains brauchen Zeit. Google muss erst Vertrauen aufbauen. Eine neue Website kann 4–12 Wochen brauchen, bis sie regelmäßig gecrawlt wird. Acceleratoren: Backlinks von anderen Websites, Sitemap einreichen, Social-Media-Präsenz.

6. Crawl-Fehler

Server-Fehler (500er), zu viele Weiterleitungen oder Timeout-Fehler können Googlebot abschrecken. In der Search Console unter "Seiten" → "Crawl-Fehler" siehst du die betroffenen URLs.

7. JavaScript-Rendering-Probleme

Wenn dein Inhalt ausschließlich per JavaScript geladen wird und Google ihn nicht rendern kann, bleibt die Seite inhaltsleer — und damit nicht indexierungswürdig. Das URL-Prüftool zeigt dir den Screenshot der gerenderten Seite.

Probleme lösen: Schritt für Schritt

Seite nicht indexiert, obwohl sie es sollte

  1. URL-Prüftool aufrufen → Grund für Nicht-Indexierung lesen
  2. noindex-Tag prüfen und entfernen falls vorhanden
  3. robots.txt prüfen — blockiert sie den Pfad?
  4. Canonical-Tag prüfen — zeigt er korrekt?
  5. Content-Qualität bewerten — mind. 500 Wörter, einzigartiger Inhalt?
  6. Indexierung anfordern über das URL-Prüftool
  7. URL zur Sitemap hinzufügen und Sitemap einreichen

Viel weniger Seiten indexiert als erwartet

  1. Search Console → Seiten-Bericht → alle Ausschlussgründe prüfen
  2. Sitemap.xml einreichen falls noch nicht geschehen
  3. Interne Verlinkung verbessern — jede Seite sollte mindestens von einer anderen Seite verlinkt werden
  4. Crawl-Budget optimieren — wichtige Seiten priorisieren
  5. Duplicate Content bereinigen

Seiten werden indexiert, die es nicht sollten

  1. noindex-Tag auf betroffene Seiten setzen
  2. Bei URL-Parametern: Search Console → URL-Parameter-Verwaltung
  3. Bei Staging-Websites: Passwortschutz oder robots.txt Disallow
  4. Canonical-Tags setzen um Duplikate zu konsolidieren

Checkliste: Indexierung prüfen

Schnell-Checkliste Indexierung

  • Google Search Console eingerichtet und verifiziert
  • site:-Operator zeigt erwartete Anzahl URLs
  • Kein unerwünschtes noindex-Tag auf wichtigen Seiten
  • robots.txt blockiert keine wichtigen Seiten
  • Canonical-Tags zeigen korrekt auf Haupt-URLs
  • Sitemap.xml erstellt und in Search Console eingereicht
  • Kein "Gecrawlt, aber nicht indexiert"-Problem bei wichtigen Seiten
  • Crawl-Fehler im Seiten-Bericht auf 0 reduziert
  • Wichtige neue Seiten über URL-Prüftool zur Indexierung angemeldet

Fazit

Indexierung ist die Grundvoraussetzung für jedes Ranking. Ohne Indexierung — kein Traffic. Die gute Nachricht: Die meisten Indexierungsprobleme sind technischer Natur und lassen sich mit etwas Diagnose schnell beheben.

Nutze regelmäßig das URL-Prüftool und den Seiten-Bericht in der Search Console, um den Überblick zu behalten. Und wenn du eine vollständige technische SEO-Analyse deiner Website willst, probiere unsere kostenlose SEO-Analyse auf Shift07 — sie prüft alle wichtigen Faktoren auf einmal.

Ist deine Website richtig indexiert?

Shift07 prüft deine Website auf alle wichtigen SEO-Faktoren — inklusive technische Probleme die die Indexierung verhindern könnten.

Kostenlose SEO-Analyse starten