Sprachassistenten funktionieren wie Wanzen, die in Unrechtsregimen zur heimlichen Überwachung in Wohnungen versteckt werden. Siri, Alexa, Cortana und andere sollen uns helfen, aber nicht belauschen.
Sie werden gekauft, freiwillig in Wohnungen gestellt und sie begleiten uns in Hand- und Westentaschen und wir tragen sie als Uhren an unseren Handgelenken. Die Systeme hören nicht nur zu, sondern sie antworten auch.
Man kann sie zur Steuerung von Haushaltsabläufen, als Fremdenführer und als Gesundheitsratgeber und zur Kinderunterhaltung benutzen. Sie sind praktisch, denn sie vernetzen uns mit Stromanbietern, Supermärkten, Sicherheitsdiensten, Autos und vielem mehr.
Sprachassistenten verhören sich bei Aktivierungsansprache
Damit das alles datenschutzkonform ist, braucht man zum einen eine Einwilligung der Betroffenen in die gewichtigen Eingriffe in die Kommunikation zu Alltags- und Intimthemen. Zum anderen ist es wichtig, dass die digitalen Helfer zuverlässig nur dann "zuhören", wenn man sie dazu auffordert. Die Anbieter versprechen, dass das funktioniert.
Nun haben Wissenschaftler herausgefunden, dass die Sprachassistenten sich bei der Aktivierungsansprache "verhören". Sie springen auch dann an, wenn Worte fallen, die sie mit dem Aktivierungswort verwechseln. Dazu hat man Geräte etwa mit Fernsehserien in deutscher und englischer Sprache über einen längeren Zeitraum dauerbeschallt.
Die Forscher listeten über 1.000 Tonsequenzen, auf die Sprachassistenten falsch reagieren. So springt Alexa etwa bei "unacceptable" und "election" und Googles Assistent bei "OK, cool" an. Spricht man deutsch, "hört" Alexa zum Beispiel bei "Am Sonntag" hin und Siri bei "Daiquiri".
Damit die Assistenten besser werden, werden ihre Aufnahmen laut Nutzungsbedingungen von Menschen abgehört. Sie sollen die Systeme, bei denen es sich um eine Art "künstlicher Intelligenz" handelt, korrigieren und trainieren.
Entwickler von Alexa, Siri und Co. hören auch zu
Mit anderen Worten hören nicht nur Maschinen zu, sondern auch Menschen, die den Maschinen zuhören und deren Aufnahmen transkribieren, um sie zu korrigieren. Das ist technisch notwendig, um die Spracherkennung zu verbessern.
Datenschutzrechtlich sind diese Mitschnitte, die von Arztgesprächen über Kindersorgen und vertraulichen Gesprächen im Unternehmen bis zum Sex alles wiedergeben können, unzulässig. Die Datenethikkommission hat sich in ihrem Abschlussbericht mit den Potenzialen und Risiken von Sprachassistenten befasst.
Sie weist insbesondere auf die Gefahr einer umfassenden Profilbildung durch die Dauererfassung des Lebens in Echtzeit hin und verlangt, technische Schutzvorkehrungen vor ungewollter Überwachung in die Systeme zu programmieren. Zu Recht, denn eines ist klar: Technisch sind Sprachassistenten Wanzen.
"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.