Zunächst mal steht mit so einem Ding ein dauerhaft lauschendes Mikro in der Wohnung. Wann das genau was übermittelt lässt sich nicht wirklich sagen. Bevor es mir gelang, dem Sprach-Assistenten in meinem neuen Handy die Zügel bestmöglich anzulegen, hatte ich zumindest recht häufig das zweifelhafte Vergnügen, dass es meinte sein Keyword gehört und dann Dinge „irgendwohin“ geschickt zu haben, von denen ich dies nicht bewusst wollte. Und auch wenn die Dinger in einer Momentaufnahme nur nach dem Keyword anfangen Daten zu senden weißt Du ohne offene Protokolle nie, was da genau übertragen wird. Das können durchaus auch Dinge sein, die weit über das hinaus gehen, was Du nach dem Keyword konkret als Befehl gesprochen hast. Mit der ganzen Sensorik dieser Assistenten werden auch ohne Mikro z.B. jede Menge Telemetriedaten ununterbrochen erzeugt, die man dann „bei Gelegenheit“ mal wieder mit übertragen kann. Du weißt auch nie, was für zusätzliche Keywords das Gerät ggf. erkennt und auswertet, und ob auch solche Daten dann „bei Gelegenheit“ mit übermittelt werden. Auch gab es mehrfach Belege dafür, dass Gespräche nicht nur vollautomatisiert nur zum Zwecke der Umsetzung des entsprechenden Befehls verarbeitet wurden, sondern durchaus auch als Klartext gespeichert und individuell von Menschen verarbeitet wurden. Insofern sollte man sich nicht der trügerischen Sicherheit einer vollkommen anonymen KI hingeben, die nur „bla bla Küchenlicht einschalten bla bla versteht“, sondern sich vor Augen halten, dass „Alexa - zieh Dich schon mal aus, ich besorge es Dir gleich - **schalt das Küchenlicht ein“ durchaus dazu führen kann, dass jemand irgendwo auf der Welt genau diesen Satz vollständig frei Haus geliefert bekommt.
Da denke ich mir, dass es doch eigentlich gar keinen Spaß mehr macht, im Rahmen von Observierungen heimlich still und leise eine Wanze zu montieren, stundenlange Tapes aufzuzeichnen und die dann hinterher gelangweilt abzuhören, wenn Ich mich doch in den Sprachassistenten einhacken könnte, der mir sekundengenau aufzeichnet, wer wann mit wem im Haus war, und der mir die interessanten Gesprächsschnipsel nach ein paar Keywords gesammelt wunderbar vorausgewertet liefert.
Und es geht bei all der Spielerei doch nicht darum, tatsächlich dem Anwender das Licht einzuschalten, sondern jeden auch absichtlich gesprochenen Befehl und jede absichtlich in das Gerät gesprochene Frage und Äußerung umfassend auszuwerten und hierüber extrem detaillierte Anwenderprofile zu erzeugen, von denen man nie weiß, wer sie wann zu welchen Zwecken sich ggf. zunutze macht. Erste Strafverfahren, in denen die Daten smarter Geräte zulasten eines Beschuldigten ausgewertet wurden, gab es bereits. So wurde schon 2017 in Connecticut und erneut im Sommer dieses Jahres in Griechenland Mörder aufgrund der Daten von Fitnesstrackern überführt. Kann man natürlich jetzt auch toll finden, dass diese Mörder überführt wurden, kann man aber natürlich auch kritisch sehen, wenn aufgrund der Daten solcher Geräte der intimste Lebensbereich so umfassend ausgeforscht wird, dass dadurch Beweismittel entstehen, gegen die man als Unschuldiger dann erst einmal wieder ankommen muss.
Ich bin ein absoluter Fan von technischen Spielereien, bastel gerne an meiner Hausautomatisation (ohne nicht durchschaubare Datensammelei nicht hinreichend nachvollziehbarer Clouddienste), programmiere inzwischen ein wenig an Microcontrollern rum, … Aber so ein Ding kommt mir so schnell nicht ins Haus. Ich habe mal mit einer Lösung gespielt, die tatsächlich so offen war, dass man erkennen konnte, dass ein Clouddienst tatsächlich für nicht mehr und nicht weniger als die reine Auswertung des Sprachkommandos genutzt wurde und bei der keine fertigen „Skills“ etwas über eingesetzte konkrete Geräte, … verrieten, aber auch damit würde man natürlich Risiken in Bezug auf falsch verstandene Keywords und die manuelle Auswertung ggf. über einen Befehl hinausgehender Dinge eingehen, die mir angesichts des Nutzen der ganzen Geschichte als unverhältnismäßig erschienen.