Brauche ganz dringend eine robots.txt

wie erstelle ich diese? kann mir jemand helfen?

grund:

Der Googlebot konnte nicht auf Ihre „robots.txt“-Datei zugreifen und hat das Crawling Ihrer Website vorsichtshalber verschoben, damit auf keinen Fall nicht zugelassene Seiten gecrawlt werden.

Zum Bleistift
User-agent: *
Disallow: /vsnfd/

http://de.wikipedia.org/wiki/Robots_Exclusion_Standard

habe jetzt das geschrieben

ALLE Dateien für ALLE Roboter ERLAUBEN

User-agent: *
Disallow:

ist das ok so?

Robots do read English

habe jetzt das geschrieben

ALLE Dateien für ALLE Roboter VERBIETEN

User-agent: *
Disallow:

ist das ok so?

http://dict.leo.org/?lp=ende&search=disallow&searchL…

Moin,

ALLE Dateien für ALLE Roboter VERBIETEN

Im Beitrag von paku steht da aber nicht „verbieten“ sondern „erlauben“ und das macht Deine Antwort seltsam…

Gruß,
-Efchen