Bis vor Kurzem musste man bei Captcha immer eine wechselnde einfache Frage beantworten, oder in einigen Fotos etws anklicken o. ä.
Jetzt steht da nur noch „Ich bin kein Roboter“ und davor ein Ankreuzfeld.
Was bringt das? Es sollte für einen Programmierer eines Robots doch kein Problem sein, auf einer Seite nach dem o. a. Text zu suchen, und, wenn er sie findet, das Feld davor zu aktivieren.
Also mit anderen Worten: das ich bin kein Bot Feld erscheint eh nur dann, wenn die Seite bzw recaptcha dich als höchstwahrscheinlich Mensch bewertet hat.
Hth
J~
so neu ist dieses Google-Captcha gar nicht. Ich kenne es schon einige Jahre.
Google gibt nicht genau bekannt, wie dieser Captcha funktioniert. Wohl auch, um es Spamern zu erschweren, dieses Captcha mit Bots zu umgehen.
Mit einiger Wahrscheinlichkeit überwacht Google bereits vor erscheinen des Captchas einige Daten, um die Wahrscheinlichkeit abzuschätzen, dass man einen echten Nutzer vor sich hat. Analysten gehen davon aus, dass die IP-Adresse beachtet wird, die Verweildauer und die Art, wie die Maus bewegt wird, eine Rolle spielt.
Offenbar ist es nicht ganz so einfach, dass mit einem Bot zu umgehen. Sonst hätte sich dieses System sicher nicht durchgesetzt.
Mich erschreckt eher, wie gut Google uns Nutzer des Internets kennt, um anhand der Verhaltens abzuschätzen, ob wir Menschen oder Algorithmen sind.
Naja, wir reden hier von Software und Daten. Wo befinden sich die? Im Hauptspeicher.
Für jede Webseite, die man anschaut, wird im Browser ein Document Object Model (DOM) aufgebaut. Und die Maus ist Teil des DOMs. Per Javascript kann man auf das DOM zugreifen und die Mausbewegungen sehen.
Das heisst aber noch lange nicht, dass diese Maus-Events dadurch automatisch auf dem Server landen, der die Seite zur Verfügung stellt. Aber wenn der Serverbetreiber (Seitenbetrieber) will, ist es ein leichtes, die Mausbewegungen auszulesen.