Googles Assistenzwanze: Auch Bettgespräche werden von Menschen ausgewertet

Paar liegt im Bett.Wer Assistenzsysteme nutzt, muss davon ausgehen, dass auch intimste Gespräche von Mitarbeitern der Unternehmen angehört und ausgewertet werden. Gemeinfrei-ähnlich freigegeben durch unsplash.com Becca Tapert

Wer die Assistenzsysteme Google Home und den Google Assistant auf dem Mobiltelefon benutzt, muss damit rechnen, dass die Mitschnitte auch von Personen abgehört werden. Das hat der belgische Sender VRT NWS herausgefunden.

VRT News konnte etwa 1.000 Mitschnitte anhören, die eine Quelle der Redaktion zugespielt hatte. Google anonymisiert die Mitschnitte bevor sie an die Mitarbeiter gelangen. Der Redaktion gelang es jedoch durch die Inhalte, in denen beispielsweise Adressen genannt wurden, Nutzer:innen der Systeme zu identifizieren. Diese Menschen konfrontierte die Redaktion mit den Mitschnitten.

Bettgespräche und Unterhaltungen zwischen Eltern und Kindern

Laut den Daten, die VRT NWS vorliegen, sprang in etwa 15 Prozent der Fälle der Mitschneidemodus des Systems an, obwohl die Nutzer:innen nicht „OK, Google“ sagten. Das ist insbesondere bedeutsam, da für den Google Assistant gar kein Endgerät wie der Amazon Echo Dot nötig ist, sondern die App auf dem Mobiltelefon einfach mitschneidet. Bei den unaufgefordert mitgeschnittenen Konversationen handelte es sich unter anderem um Bettgespräche, Unterhaltungen zwischen Eltern und Kindern sowie berufliche Telefongespräche.

Gegenüber heise.de versucht ein Google-Sprecher den Fall jetzt herunterzuspielen: „Bei Google können einige Mitarbeiter auf einige Audioausschnitte aus dem Assistant zugreifen, um das Produkt zu trainieren und zu verbessern. Diese sind aber nicht mit persönlich identifizierbaren Informationen verknüpft und die Audiosequenzen sind verzerrt.“ Dies steht in klarem Widerspruch zu den Rechercheergebnissen von VRT NWS.

Wer Assistenzwanzen nutzt, muss mit De-Anonymisierung rechnen

Weltweit sollen mehr als 1.000 Personen im Auftrag von Google für die Auswertung von Mitschnitten der Assistenzsysteme zuständig sein, sie arbeiten bei Subunternehmen. Für den flämisch-niederländischen Sprachraum liegt die Zahl etwa bei einem Dutzend, heißt es im Bericht.

Die Fälle bei Amazon und Google beweisen, was davor schon im Raum stand: Jede Nutzung von Spracherkennungssystemen führt dazu, dass die teilweise intimen Interaktionen auch von Menschen ausgewertet werden, um die Künstliche Intelligenz weiter zu trainieren. Die angebliche Anonymisierung funktioniert nicht, da sich durch die Inhalte der Mitschnitte Personen klar erkennen lassen.

Die Assistenzwanzen führen außerdem zu Begehrlichkeiten bei Innenministerien und Ermittlungsbehörden. Zuletzt hatte auch der wissenschaftliche Dienst des Deutschen Bundestags vor den Datenschutzrisiken bei der Nutzung von Assistenzsystemen gewarnt.

Wer nicht will, dass fremde Menschen privateste Dinge mithören, sollte kein Assistenzsystem in die eigene Wohnung lassen und auch die Apps auf dem Mobiltelefon deaktivieren.

Korrektur: In einer früheren Version dieses Artikels stand, dass Google immer abgestritten habe, dass die Aufzeichnungen auch an menschliche Ohren gelangen könnten. Das stimmt nicht, Google gab dies spätestens im April 2019 gegenüber Bloomberg zu.


Hilf mit! Mit Deiner finanziellen Hilfe unterstützt Du unabhängigen Journalismus.

Quelle: Netzpolitik