Der Googlebot konnte nicht auf Ihre „robots.txt“-Datei zugreifen und hat das Crawling Ihrer Website vorsichtshalber verschoben, damit auf keinen Fall nicht zugelassene Seiten gecrawlt werden.
meine robots lautet:
Alle Dateien für alle Roboter erlauben
User-agent: *
Disallow:
ist daran was falsch?