Suchmaschinen verbieten

Hi zusammen,

erstellt man eine Webseite, wird sie mglw recht schnell von google & Co durchforstet und bei der Suche nach einer Datei bekommt man dann als Suchergebnis den direkten Zugriff auf die Datei oder eine Art Inhaltsverzeichnis. Das will ich verhindern. Nach dem, was ich dazu weiß (ist leider momentan noch wenig) genügt es, eine Datei --.htaccess mit geschickt formuliertem Inhalt dort abzulegen. Weiß jemand mehr und ist willig, mir was zu verraten?
Falls von Bedeutung, es geht um 1&1.

Micha

Hallo Micha,

wenn es dir nur um Suchmaschinen geht ist die robots.txt evtl. geeigneter.
Siehe dazu z.B.:
http://de.selfhtml.org/diverses/robots.htm
http://www.bjoernsworld.de/suchmaschinen/robots-txt…
http://de.wikipedia.org/wiki/Robots_Exclusion_Standard

Eine allgemeine Anleitung zur .htaccess findest du z.B. unter
http://de.selfhtml.org/servercgi/server/htaccess.htm

Gruss
Stefan

Prima! Habe alles gefunden was ich brauche um weiterzukommen. Ich danke dir!

Micha

Hallo,

m.e. geht es um zwei unterschiedliche dinge. Richtig ist - wie ja bereits gesagt - das man vermittels der robots.txt suchmaschinen die Indexierung der Web-Seite verbieten kann.

Ob jemand direkten Zugriff auf Dateien oder Verzeichninsbäume hat, ist eine Frage der Rechtevergabe (reimt sich ja sogar!).

Diese solltest Du auf jeden Fall einmal überprüfen,denn potentielle angreifer werden sich kaum von robots.txt abschrecken lassen, eher im Gegenteil.

mfg tf