Hallo, ich habe ein paar php-Scripts.
Mein Webserver liefert zwar access.log-Dateien.
Die erscheinen mir aber sehr unübersichtlich.
Die meisten Zugriffe scheinen von robots zu kommen.
Ich speichere außerdem selbst die Aktivitäten
meiner Scripts in Log-Dateien. Hier kann ich
allerdings gar nicht bequem feststellen,
ob der Zugriff von einem robot kommt.
Einzig ist es wohl so, dass robots nichts posten.
Wenn ein Script also etwas über HTTP-POST empfängt, kann es kein robot sein.
Aber sicher gibt es da elegantere Methoden, oder?
Hallo,
Für die „offiziellen“ Robots (also keine Spammer) kannst du den User-Agent, die freiwillig übermittelte Browserkennung, überprüfen. Diese findest du bei PHP in der Server-Variable [1] als $_SERVER[‚HTTP_USER_AGENT‘]. Eine Liste von User-Agents gibt es auf [2], du könntest dir da die wichtigsten (Google, Bing, Yahoo, etc.) raussuchen und gegenprüfen.
–
[1] http://php.net/manual/en/reserved.variables.server.php
[2] http://www.user-agents.org/index.shtml
sorry - mit dem Thema habe mich noch gar nicht befasst.
Sorry, da müsste ich mich auch durch Google schlau machen. Auf jeden Fall kann ich mich erinnern, dass man für die Google-Bots leicht Angaben findet, wie man sie erkennen kann.
Hi,
schau mal, ob du damit was anfangen kannst:
http://de.selfhtml.org/servercgi/server/htaccess.htm
Mit .htaccess-Dateien kannst du auch angeben, ob Robots überhaupt zugreifen dürfen, bzw. auf was sie zugreifen dürfen.
Hallo Rüdiger,
hier habe ich zurzeit auch keine Idee.
Tut mir Leid.
Frohe Ostern,
Frank
Guten Abend,
es geht also mehr um Statistiken?
Die sämtliche Informationen speichert und übersichtlich ausgibt?