Googlebot konnte nicht auf 'robots.txt' zugreifen

Der Googlebot konnte nicht auf Ihre „robots.txt“-Datei zugreifen und hat das Crawling Ihrer Website vorsichtshalber verschoben, damit auf keinen Fall nicht zugelassene Seiten gecrawlt werden.

meine robots lautet:

Alle Dateien für alle Roboter erlauben

User-agent: *
Disallow:

ist daran was falsch?

Moin,

Der Googlebot konnte nicht auf Ihre „robots.txt“-Datei
zugreifen

meine robots lautet:
ist daran was falsch?

Laut der Fehlermeldung konnte Google nicht auf die Datei zugreifen. Das heißt aber auch, dass Google sie nicht lesen kann und daher der Inhalt nicht die Ursache für die Fehlermeldung ist.

Zusammen mit Deinen anderen geposteten Probleme würde ich sagen, hast Du ein Problem mit Deinem Webhoster, der irgendwas nicht auf die Reihe kriegt. Billighoster?

Gruß,
-Efchen

Hallo,

das könnte aber auch schlicht heissen, dass er die Datei robots.txt nicht findet, wo sie erwartet wird.

LG
Petra

ne, kein billighoster :smile:

von den kostenlosen/billig webhostern bin ich schon seit jahren weg.

lieber zahl ich und hab vernünftigen, zuverlässigen webspace. die informieren z.B. wochen vorher, wenn reparaturen anstehen, und die werden dann auch nur nachts gemacht, etc.

Meine robots liegt hier: www.bonetrip.com/robots.txt

das ist doch richtig so, oder?

Meine robots liegt hier: www.bonetrip.com/robots.txt
das ist doch richtig so, oder?

Ja. Sehe ich so.
http://de.selfhtml.org/diverses/robots.htm

Ich habe jetzt meine website komplett gelöscht und nochmal sauber hochgeladen, so das eventuell alte Links nicht mehr existieren sollten.

Bei Google habe ich alle Fehler als „behoben“ markiert.

Jetzt warte ich mal einige Tage, ob mir Google wieder Fehler meldet.

Schreibe dann hier wieder :smile: