Kostenloses SEO-Tool

Robots.txt-Tester

Simuliere ob Googlebot oder andere Crawler deine URLs crawlen dürfen. Paste deine robots.txt und teste beliebige Pfade sofort.

robots.txt Inhalt

Tipp: Du findest deine robots.txt unter https://deine-domain.de/robots.txt

URLs zum Testen

Nur den Pfad eingeben, z.B. /blog/artikel

Wie funktioniert robots.txt?

User-agent: Googlebot

Gibt an, für welchen Crawler die folgenden Regeln gelten. * gilt für alle Crawler.

Disallow: /admin/

Verbietet den Crawler-Zugriff auf diesen Pfad und alle Unterseiten.

Allow: /admin/logo.png

Allow hat Vorrang vor Disallow wenn beide auf eine URL passen und die Pfadlänge gleich ist.