Das Handy hört überall mit

Die Berichte von Whistleblowern zeigen, wie wenig Rücksicht Amazon, Google und Apple auf den Datenschutz nehmen. Nach Kritik sollen Nutzer mehr Einflussmöglichkeiten erhalten.

Matthias Schüssler

Digitale Sprachassistenten sind freundlich, hilfsbereit und zuvorkommend – und ein Fiasko für die Privatsphäre. In den letzten Tagen und Wochen rissen die Meldungen zu Datenschutzproblemen nicht ab. Und eines ist klar: Es war ein Fehler anzunehmen, dass die Unterhaltungen mit Siri, Google Assistant und Amazon Echo so privat bleiben wie mit einem echten menschlichen Gegenüber. Das haben die Hersteller zwar nie explizit versprochen, aber der Begriff des digitalen Assistenten legt Diskretion nahe. Jedenfalls sind die Hinweise auf die Fallstricke im Kleingedruckten der Datenschutzerklärungen versteckt.

Doch eben: Damit die Spracherkennung überhaupt funktioniert, braucht es das Internet. Die Analyse der Anweisungen findet (bislang) nicht auf dem Gerät statt, sondern auf den Servern der Betreiber. Und da die Assistenten Anweisungen oft nicht oder falsch verstehen, speichern die Betreiber die Aufnahmen. Diese können hinterher von menschlichen Experten transkribiert und analysiert werden. Das hilft, die Algorithmen zu verfeinern und die Assistenten praxistauglicher zu machen.

Aufnahmen in Chats geteilt

Aber natürlich ergibt sich auch ein Missbrauchspotenzial: Im April deckte Bloomberg auf, dass Amazon Tausende Personen zur Transkription beschäftigt. Sie verschriftlichen während eines Arbeitstages Hunderte von Aufnahmen. Es komme auch vor, dass Aufnahmen in internen Chaträumen geteilt werden, schrieb Bloomberg: Weil Worte unverständlich sind oder eine Aufnahme Heiterkeit auslöst. Diese Woche wurde bekannt, dass Mitarbeiter teilweise auch von zu Hause aus Transkriptionen vornehmen. Sollen sich wirklich Telearbeiter um so vertrauliche Dinge kümmern? Amazon jedenfalls betonte, man poche auf die Einhaltung strenger Richtlinien.

Wenn sich Analyse-Teams über private Aufnahmen aus den Küchen, Wohn- und Schlafzimmern der Kunden amüsieren, ist das befremdlich genug. Vor allem stellt sich aber die Frage, ob Nutzer auch identifizierbar sind. Die Zeitschrift «c’t» hat einen Fall aufgedeckt, bei dem ein Amazon-Kunde seine persönlichen Daten angefordert und wegen eines Fehlers die Aufnahmen erhalten hat, die zu einem anderen Nutzer von Amazons Assistentin Alexa gehörten. Diese Aufnahmen enthielten genügend persönliche Informationen, sodass die Journalisten den Betroffenen ausfindig machen und informieren konnten. Amazon hat die Betroffenen entschädigt – mit zwei Exemplaren seiner vernetzten Echo-Lautsprecherbox.

Bis vor kurzem taten es alle

Auch Apple und Google stehen in der Kritik. Beide Konzerne lassen beziehungsweise liessen Aufnahmen transkribieren. Das haben in beiden Fällen Whistleblower publik gemacht. Der belgische Sender VRT NWS hat Hunderte Aufnahmen zugespielt erhalten, die von Google Assistant her rührten. Nebst Anfragen zum Wetterbericht enthielten sie auch Sprachbefehle, mit denen Nutzer Pornovideos abgerufen haben.

Im Fall von Apple hatte die britische Zeitung «The Guardian» von einem Whistleblower erfahren, dass das Unternehmen regelmässig Aufnahmen an Vertragspartner schickte. Auch Apple verfolgt das Ziel, seine Sprachassistentin Siri zu verbessern. Der anonyme Informant sagte der Zeitung, ihm kämen oft höchst vertrauliche Dinge zu Ohren: Gespräche zwischen Ärzten und Patienten, Verhandlungen bei Drogendeals. Und die Geräuschkulisse von Leuten beim Sex.

Dass solche Alltagssituationen aufgenommen werden, liegt daran, dass die Assistenten oft versehentlich aktiv werden. Vor allem die Apple Watch und Apples vernetzter Lautsprecher Homepod gehen in Lauschposition, auch wenn die Schlüsselphrase zur Aktivierung («Hey Siri») gar nicht gefallen ist. Es gibt anscheinend diverse Geräusche, die das auslösen – zum Beispiel Reissverschlüsse. Nach einer solchen Aktivierung wird alles aufgezeichnet, was zu hören ist, bis 30 Sekunden lang.

Nicht so richtig anonym

Die Aufnahmen von Siri sind nicht mit einer Apple-ID verknüpft oder irgendwie personalisiert. Dennoch sagte der Whistleblower dem «Guardian», eine Identifizierung der Personen sei nicht schwierig, wenn in den Aufnahmen entsprechende Anhaltspunkte enthalten seien.

Letzte Woche haben die Hersteller reagiert: Apple hat in einer ersten Stellungnahme mitgeteilt, es würden weniger als ein Prozent aller Aufnahmen gegengehört. In einem zweiten Statement hat der Konzern letzten Freitag erklärt, das Programm zur Siri-Qualitätsverbesserung sei vorerst gestoppt. Wenn es wieder aufgenommen werde, sollten die Nutzer die Möglichkeit haben, ihre Teilnahme zu verweigern. Amazon seinerseits hat die Kontrollmöglichkeiten für die Nutzer verbessert (siehe Kasten).

Datenschutz nicht erfüllt

Auch Google hat die Auswertung der Sprachaufnahmen für mindestens drei Monate ausgesetzt. Das ist die direkte Folge eines Verfahrens, das der Hamburgische Beauftragte für Datenschutz gegen Google eröffnet hat: «Es bestehen erhebliche Zweifel daran, dass die Regeln der europäischen Datenschutz-Grundverordnung (DSGVO) eingehalten werden», hat der Datenschützer Google vorgehalten. Denn obwohl auch der Suchmaschinenkonzern seine Aufnahmen anonymisiert, enthalten sie oft genug Informationen für eine Identifikation der Beteiligten.

Rechtsanwalt Martin Steiger weist in einem Blogbeitrag darauf hin, dass die DSGVO auch für Schweizer Nutzer gilt, wenn die Anbieter oder ihre europäischen Tochterunternehmen in der EU angesiedelt sind. Und Steiger wirft eine interessante Frage auf. Laut DSGVO müssen auch Dritte ihre Einwilligung zur Datenauswertung geben: «Muss jemand, der Amazon Alexa verwendet, in Zukunft gewährleisten, dass jeder Besucher vor dem Betreten der Wohnung ausdrücklich und informiert einwilligt, dass alles, was er sagt, an Amazon übermittelt werden kann?»

Update

Google Schweiz bat uns um die Ergänzung des folgenden Statements: «Wir haben diese Tests von Audioaufnahmen für den Google Assistant gestoppt, kurz nachdem wir von der Veröffentlichung vertraulicher niederländischer Audiodaten erfahren haben. Wir stehen mit der Hamburger Datenschutzbehörde in Kontakt und prüfen, wie wir zum einen Audioaufnahmen testen und zum anderen unseren Nutzern die Verwendung ihrer Daten besser erklären können. Die Tests tragen dazu bei, dass Spracherkennungssysteme für mehr Menschen, mit unterschiedlichen Akzenten und Dialekten, funktionieren. Im Zuge dieser Tests werden die Audioclips nicht mit den Nutzerkonten verknüpft. Im übrigen werden die Tests nur bei etwa 0,2 Prozent aller Clips durchgeführt.»

Selbst im Schlafzimmer ist man nicht zwingend vor den digitalen Assistenten sicher. Foto: Getty Images, iStockphoto

Tipps für den Umgang mit digitalen Assistenten

So entschärfen Sie die grössten Risiken für die Privatsphäre

  • Damit die Assistenten nicht unerwünschterweise zuhören, schalten Sie die Aktivierung per Sprache ab. Beim iPhone wählen Sie in den Einstellungen bei «Siri & Suchen» die Option «Auf Hey Siri achten» ab. Siri wird dann durch langes Drücken auf den Home- bzw. die Seitentaste eingeschaltet. Bei Android-Tele­fonen deaktivieren Sie den Akti­vierungsbefehl «OK Google» in den Einstellungen bei «Assistant», indem Sie das Häkchen bei «Mit Voice Match zugreifen» entfernen. Je nach Telefonmodell kann die Vorgehensweise variieren.
  • Amazon bietet neu eine Option, mit der Sie die Auswertung der Sprachaufnahmen untersagen. Schalten Sie auf der Seite mit den Einstellungen zur Privatsphäre die Option «Beim Entwickeln neuer Funktionen mithelfen» ab. Im «Sprachaufnahmen-Verlauf» gibt es die Möglichkeit, vorhandene Aufzeichnungen zu löschen.
  • Viele der vernetzten Lautsprecher haben einen Knopf, mit dem das Mikrofon physisch getrennt wird. Bei Amazon Echo gibt es dafür einen Mikrofon-Knopf, ebenso bei Google Home. (schü)

Quelle: Newsnetz, Mittwoch, 7. August 2019

Rubrik und Tags:

Faksimile
190807 TA Seite 25.pdf

Die Faksimile-Dateien stehen nur bei Artikeln zur Verfügung, die vor mindestens 15 Jahren erschienen sind.

Metadaten
Thema: Newsnetz
Nr: 15290
Ausgabe:
Anzahl Subthemen: 1

Obsolete Datenfelder
Bilder:
Textlänge:
Ort:
Tabb: FALSCH