Startseite News Whistleblower: Externe Apple-Dienstleister lauschen Siri-Gesprächen

Whistleblower: Externe Apple-Dienstleister lauschen Siri-Gesprächen

Ein anonymer Mitarbeiter hat pikante Informationen zur Handhabung Apples mit Siri-Aufnahmen preisgegeben. Welche Probleme sieht der Whistleblower?
Quelle: Bild: Apple

Digitale Sprachassistenten wie Siri erfreuen sich stetig wachsender Beliebtheit und gehören immer öfters zur Grundausstattung nicht nur von Smart Speakern, sondern auch Soundbars, Receivern und anderer Hardware.

Mit Blick auf den Datenschutz äußern Verbraucherschützer allerdings vermehrt ernsthafte Bedenken – und das nicht grundlos, wie ein Bericht der britischen Tageszeitung The Guardian zeigt.

Drogen, Sex & mehr: Siri versorgt Apple mit privaten Aufnahmen

Dass Entwickler gängiger Sprachassistenten vereinzelte Konversationen zur Verbesserung ihrer Dienste auswerten, ist längst bekannt. Von einem anonymen Whistleblower, der bei Apple tätig ist, will der Guardian nun aber pikante Details über das Ausmaß fragwürdigen Umgangs mit der Privatsphäre erfahren haben.

Schon die Art der Datenverarbeitung könnte demnach zum Augenbrauenheben anregen. Offenbar verlagert Apple die Verarbeitung etwaiger Siri-Anfragen nämlich an externe Dienstleister. Offiziell sollen diese nur auswerten, ob eine Siri-Interaktion absichtlich oder versehentlich gestartet ist, ob sie zu einem zufriedenstellenden Ergebnis geführt hat und so weiter. Dabei kommen besagte Dienstleister aber wohl in den „Genuss“ äußerst privater Angelegenheiten.

Immer mehr Geräte unterstützen Sprachassistenten wie Apples Siri, Amazons Alexa, den Google Assistant und Co. | Bild: Sonos Inc.

„Manchmal hört man eindeutig Doktor und Patient über die medizinische Vorgeschichten sprechen. Oder man hört jemanden, vielleicht mit einem laufenden Motor im Hintergrund – du kannst dir nicht sicher sein, aber das klingt eindeutig nach einem Drogendeal. Und man hört Menschen beim Geschlechtsverkehr, der versehentlich auf dem Home Pod oder der Apple Watch aufgezeichnet wird.“

Und damit nicht genug: Dem anonymen Mitarbeiter zufolge sind etwaige Aufnahmen stets von äußerst expliziten Nutzerdaten begleitet – darunter Informationen zu Standorten, Kontaktdetails und Apps.

Versehentliche Siri-Auslöser an der Tagesordnung

In der technischen Umsetzung von Sprachassistenten und entsprechender Hardware-Lösungen gibt es merkbare Fortschritte zu verzeichnen. Aktuell kommen „versehentliche Konversationen“ mit Siri aber wohl noch ziemlich häufig vor.

Jetzt ansehen: Aktuelle und kommende Smart Speaker 2019

„Das Geräusch eines Reißverschlusses wertet Siri häufig als Signalwort“, so zitiert der Guardian den Whistleblower weiter. Es gebe auch andere versehentliche Auslöser – etwa, wenn eine Apple Watch angehoben wird und Sprache vernimmt. Ein Umstand, der offenbar gar nicht so selten vorkommt:

„Die Häufigkeit versehentlicher Auslöser über die Uhr ist unglaublich hoch. Die Uhr kann Schnipsel aufnehmen, die 30 Sekunden lang sind – das ist nicht lange, aber man bekommt eine gute Vorstellung davon, was vorgeht.“

Allgemeine Sicherheitsbedenken zu Sprachassistenten werden durch gewisse Patentunterlagen der Konkurrenz nicht gerade gemindert, denen zufolge Amazons Alexa etwa in Zukunft permanent lauschen könnte – und nicht nur bei Aktivierung durch ein Signalwort.

Whistleblower beklagt mangelhafte Transparenz

Apple selbst verschweigt in einer Stellungnahme gegenüber dem Guardian übrigens nicht, dass der Konzern „einen kleinen Anteil“ der Aufnahmen zur Verbesserungen des Siri-Dienstes auswertet. Etwaige Anfragen sollen dabei aber nicht mit der Apple ID zusammenhängen und Mitarbeiter sich streng an die Verschwiegenheitsvorschriften Apples halten müssen.

Der anonyme Apple-Mitarbeiter wirft dem Konzern jedoch vor, die angeblichen Details über das interne Vorgehen und die technischen Unzulänglichkeiten dieser Datenverarbeitung nicht eindeutig zu kommunizieren.

Die Häufigkeit versehentlicher Siri-Aktivierungen und auch die Tatsache, dass dabei entstandene Aufnahmen theoretisch bei externen Dienstleistern auf der ganzen Welt landen können, müssten den Nutzern bewusst sein:

„Es gibt keine großen Sicherheitsüberprüfungen, wer da arbeitet. Und die Menge an Daten, die wir durchschauen dürfen, ist ziemlich breit. Eine Person mit Name, Adresse und so weiter zu identifizieren wäre gerade durch zufällige Aufnahmen nicht schwer.“

Nutzt du Siri oder einen der anderen Sprachassistenten? Hast auch du Sicherheitsbedenken im Umgang mit einer künstlichen Intelligenz? Teile deine Meinung mit uns in den Kommentaren!

Weiterführende Links:
» Bundestagsgutachten: Alexa birgt Gefahren – besonders für Kinder
» F’xa: Aktivisten entwickeln feministische Sprachassistenten
» Apple HomePod erhält Stimmerkennung, Handoff & mehr

Kommentieren
Damit du kommentieren kannst, logge dich ein mit deinen Hifi-Forum-Zugangsdaten oder registriere dich hier kostenlos.