Sprachassistenten, die sich in den vergangenen Jahren über vernetzte Echo-Lautsprecher von Amazon oder das iPhone von Apple ausbreiteten, galten mal als die Zukunft, mal als halb gare Spielerei. Aber in diesem Jahr kam ein unangenehmes Geheimnis der Branche ans Licht.
Damit die Software die Nutzer richtig gut verstehen kann, müssen immer wieder Aufzeichnungen von Dialogen nachträglich von Menschen angehört werden. Den weitaus meisten Nutzern war das nicht bewusst. Auch weil die Praxis in Unterlagen bestenfalls irgendwo ganz tief im Kleingedruckten erwähnt wurde. Oder gar nicht.
Der Ball kam ins Rollen im April. Der Finanzdienst Bloomberg enthüllte, dass einige Mitschnitte von Unterhaltungen mit Amazons Assistenzsoftware Alexa an diversen Standorten rund um die Welt ausgewertet werden, unter anderem in Boston, Costa Rica, Indien und Rumänien.
Und zwar nicht nur direkt beim Konzern, sondern auch bei Dienstleistungsfirmen. Ein Mitarbeiter aus Boston sagte, er habe zum Beispiel Aufzeichnungen mit den Worten «Taylor Swift» analysiert und sie mit der Anmerkung versehen, dass die Nutzer die Sängerin meinten.
Andere Angestellte erinnerten sich, wie sie in den Aufnahmen Kinder ihre Adressen und Telefonnummer sagen hörten, jemand Sexspielzeug bestellte und einsame Leute Alexa ihre Geheimnisse und Ängste anvertrauten. Danach wurde Schritt um Schritt klar, dass es bei Siri von Apple und dem Google Assistant im Prinzip genauso läuft.
Die Dienste-Anbieter stehen vor einem realen Problem. Nutzer erwarten, dass ein Sprachassistent sie optimal versteht. Aber wie verbessert man die Software bei Fehlern, wenn man nicht genau weiss, wo und wie sie sich geirrt hat? Das sei insbesondere wichtig bei speziellen Fällen wie Dialekten oder Akzenten, die man schlecht mit einem generellen Anlernen der Programme abdecken könne, heisst es in der Branche.
Ein ebenso schwieriger Fall sind die fehlerhaften Aktivierungen, bei denen die Sprachassistenten zu Unrecht glauben, ihr Weckwort wie «Alexa» oder «Hey, Siri» gehört zu haben. Hier ist es für die Entwickler wichtig, zu wissen, welche Laute oder Situationen genau zu dem Missverständnis führten, um sie Software entsprechend anzupassen.
Allerdings sind die Aufzeichnungen nach fehlerhaften Auslösungen auch potenziell besonders bedenklich aus Datenschutz-Sicht: Denn sie enthalten Sätze, die höchstwahrscheinlich nicht für den Sprachassistenten bestimmt waren, sondern aus Unterhaltungen zwischen den Nutzern stammen dürften.
Der Mitarbeiter eines Apple-Dienstleisters erzählte der Zeitung «Guardian», auf den Aufnahmen seien zum Teil sehr private Details zu hören. So schnappe Siri auch Fragmente von Gesprächen mit medizinischen oder geschäftlichen Inhalten, mögliche kriminelle Aktivitäten oder auch Nutzer beim Sex auf, sagte er.
Nach den Enthüllungen war die bisherige Praxis nicht mehr aufrechtzuerhalten. Der Apple-Konzern, für den die Kritik angesichts des jahrelangen Datenschutz-Versprechens besonders schmerzhaft war, zog die Reissleine und kündigte an, Aufnahmen nur noch nach ausdrücklicher Erlaubnis der Nutzer von Menschen auswerten zulassen. Zudem geschieht das nur noch beim Unternehmen selbst und nicht mehr bei Dienstleistern. Auch Google entschied sich für ein «Opt-In»-Verfahren mit vorheriger Zustimmung.
Amazon hingegen wählte die schwächere Datenschutz-Lösung. Der Online-Händler bevorzugte ein sogenanntes Opt-out, bei dem die Nutzer einer Verwendung ihrer Mitschnitte zwar widersprechen können, sie aber standardmässig vorausgesetzt wird. Amazon sehe darin die bessere Lösung für die Nutzer, sagt Gerätechef Dave Limp.
Es könne natürlich sein, dass die Konkurrenten weiter beim maschinellen Lernen seien als Amazon – was er sehr bezweifele –, «oder ihre Dienste werden sich nicht so schnell verbessern». Er hoffe, «dass wir eines Tages keine Beteiligung von Menschen brauchen werden» – noch sei das aber notwendig. Zugleich seien die Reaktionen in den Medien stärker gewesen als bei den Nutzern: «Die Kunden haben nicht aufgehört, Alexa zu nutzen.»
(oli/sda/apa/dpa)
Und nun stellen wir uns den Televisor/die Wanze freiwillig in die Wohnung.
Was ist wenn Polizei/Politiker eine Möglichkeit finden Amazon & Co zu zwingen das Mikrofon einzuschalten um den Raum abzuhören? "Ich habe nichts zu verbergen?"
Nicht nur sich datentechnisch nackig auszuziehen bei Facebook und Instagram, nun auch noch freiwilliges Kaufen einer Wanze.
Und Arbeitgeber lehnen einen schonmal ab wenn man nicht in "Social Media" ist, da könne man sich dann ja gar kein Bild machen...
Also sind die meisten Nutzer extrem naiv und dumm?
Wie soll das auch sonst funktionieren... 🤦♂️ schon nur das es bei "Hey Siri" reagiert, sollte jedem klar machen das es eben IMMER mithört. Anders wäre es ja gar nicht möglich.