Digital
Wir verwenden Cookies und Analysetools, um die Nutzerfreundlichkeit der Internetseite zu verbessern und passende Werbung von watson und unseren Werbepartnern anzuzeigen. Weitere Infos findest Du in unserer Datenschutzerklärung.
Bild

Beim nachträglichen Anhören sollen Apple-Mitarbeiter herausfinden, welche Worte oder Geräusche die versehentliche Aktivierung auslösten. bild: shutterstock

Hey, Siri, kann ich nun wieder unbelauscht Sex haben?

Als erster Anbieter von Sprachassistenten will Apple explizit um Erlaubnis zum Anhören von Mitschnitten fragen und kündigt weitere Änderungen an.



Was ist passiert?

Apple wird als erster Anbieter von Sprachassistenten die User ab Herbst ausdrücklich um eine Erlaubnis zum nachträglichen Anhören von Mitschnitten durch Mitarbeiter fragen.

Dies dürfte mit iOS 13 im September passieren.

Der iPhone-Konzern hatte diesen Schritt bereits Anfang des Monats in Aussicht gestellt, nachdem das Bekanntwerden der Praxis massive Kritik ausgelöst hatte.

Ausserdem wird Apple von Unterhaltungen der Nutzer mit der Sprachassistentin Siri keine Aufzeichnungen mehr langfristig speichern.

Zu den nun von Apple angekündigten Änderungen gehört auch, dass die ausgewählten Mitschnitte nur noch von Apple-Mitarbeitern und nicht mehr bei externen Dienstleistern angehört werden. Bereits vergangene Woche war von Kündigungen bei einem entsprechenden Dienstleister in Irland berichtet worden.

Wo ist das Problem?

Bei sprachgesteuerter Assistenzsoftware wie Amazons Alexa, dem Google Assistant und Siri wurden Fragmente von Mitschnitten seit Jahren zum Teil auch von Menschen angehört und abgetippt, um die Qualität der Spracherkennung zu verbessern. Es geht dabei zum Beispiel um Fälle, in denen die Sprachassistenten den Befehl nicht verstanden, die falsche Erkennung von Aktivierungswörtern sowie den Umgang mit neuen Sprachen und Dialekten.

Die Anbieter betonen, dass die Aufnahmen davor anonymisiert würden. Den Nutzern war die Praxis allerdings weitestgehend nicht bewusst, bis vor einigen Monaten erste Medienberichte dazu auftauchten.

Was ist mit Google, Amazon und Microsoft?

Google und Apple setzten die Auswertung der Sprachaufnahmen durch Menschen vor einigen Wochen aus, Amazon gibt Nutzern die Möglichkeit, die Nutzung von Mitschnitten zur Verbesserung des Dienstes abzulehnen.

Microsoft hatte ebenfalls eingeräumt, dass Gespräche von Nutzern über Skype und und mit dem Sprachassistenten Cortana von Mitarbeitern nachträglich angehört werden können. Dies diene der Verbesserung von auf Spracherkennung basierenden Angeboten. Voraussetzung für eine Auswertung sei aber die Zustimmung der Nutzer.

Warum prescht Apple vor?

Der Fokus auf Siri war durch einen Bericht der Zeitung «Guardian» Ende Juli gelenkt worden. Der Mitarbeiter eines Apple-Dienstleisters erzählte, auf den Aufnahmen seien zum Teil sehr private Details zu hören. So schnappe Siri auch Fragmente von Gesprächen mit medizinischen oder geschäftlichen Inhalten, mögliche kriminelle Aktivitäten oder auch Nutzer beim Sex auf, sagte er.

Apple geriet durch die Enthüllungen besonders unter Druck, weil der Konzern sich seit Jahren als Hüter der Privatsphäre seiner Nutzer gegen Konkurrenten wie Google oder Facebook profilieren will. Der Konzern verwies aber ursprünglich nur in einem Sicherheitsdokument darauf, dass auch «eine geringe Anzahl von Transkriptionen» für die Verbesserung des Dienstes eingesetzt werden könne. Nach dem Papier im Bereich für Entwickler musste man allerdings erst suchen – und die Nutzer wurden bei der Einrichtung von Siri bisher nicht explizit auf diese Möglichkeit hingewiesen.

Was ist mit «Hey, Siri»?

Die fehlerhaften Aktivierungen, bei denen Apples Sprachassistentin glaubt, die Weckworte «Hey, Siri» gehört zu haben, sind ein besonderes Problem. Denn dabei können Sätze und Unterhaltungen aufgezeichnet werden, die nicht an die Sprachassistentin gerichtet waren.

Beim nachträglichen Anhören sollen die Mitarbeiter herausfinden, welche Worte oder Geräusche die versehentliche Aktivierung auslösten, um die Software entsprechend anzupassen.

Apple verspricht nun:

«Unser Team wird daran arbeiten, jede Aufnahme, die als unbeabsichtigter Auslöser von Siri erkannt wurde, zu löschen.»

Sprich: Man will sich Mühe geben, kann aber nicht garantieren, dass nicht auch in Zukunft sensible Gespräche ungewollt von Dritten mitgehört und ausgewertet werden.

Wer auf Nummer sicher gehen will, muss Siri wohl oder übel in den System-Einstellungen vollständig deaktivieren.

Bild

screenshot: watson

Wie will Apple Anonymität gewährleisten?

Das ungewollte Zuhören Dritter ist das eine, richtig gefährlich würde es aber, wenn die Identität der abgehörten Personen bekannt wären. Dies sei laut Apple nicht möglich, zumindest nicht, was den registrierten Besitzer oder die Besitzerin des betroffenen Gerätes betrifft. Der Konzern betont die Vorkehrungen zur Gewährleistung der Anonymität:

«Siri verwendet eine zufällige Kennung – eine lange Folge an Buchstaben und Zahlen, die einem einzelnen Gerät zugeordnet sind – um Daten während der Verarbeitung zu verfolgen, anstatt diese über Apple-ID oder Telefonnummer mit der Identität zu verknüpfen.»

Wie lange werden Audio-Aufnahmen gespeichert?

Nach früheren Angaben von Apple wurde weniger als ein Prozent der Aufnahmen in meist nur wenige Sekunden langen Fragmenten von Menschen ausgewertet.

Laut den Angaben in dem Sicherheitspapier für Software-Entwickler konnten Mitschnitte bisher bis zu zwei Jahre lang für die Verbesserung des Dienstes verwendet werden, dabei wurde nach sechs Monaten eine Kopie ohne persönliche Informationen abgespeichert.

Die Ankündigung von Apple deckt sich weitgehend mit den Forderungen auch von deutschen Datenschützern, die unter anderem verlangen, dass die Nutzer explizit um eine Erlaubnis zur Auswertung von Mitschnitten durch Menschen gefragt werden müssten.

Mehr Informationen:

(dsc/sda/awp/dpa)

Wie Apple Geschichte schrieb

Zuviel am Handy? Dr. Watson weiss, woran du leidest

Play Icon

Mehr zu Apple Siri, Google Assistant und Amazon Alexa

Apple stoppt Auswertung von Siri-Aufnahmen durch Menschen weltweit

Link zum Artikel

Auch Facebook liess Sprachaufnahmen von Nutzern abtippen

Link zum Artikel

Microsoft räumt Abhören von Skype- und Cortana-Gesprächen ein

Link zum Artikel

Apple-Mitarbeiter hören sich deine Siri-Gespräche an – jup, auch das Bettgeflüster

Link zum Artikel

Amazon-Mitarbeiter hören und tippen heimlich Alexa-Sprachaufnahmen ab: Das steckt dahinter

Link zum Artikel

Zu gruselig! Alexa und Siri hören dieses geheime Kommando, das du nicht hörst

Link zum Artikel
Alle Artikel anzeigen

Mehr zu Apple Siri, Google Assistant und Amazon Alexa

Apple stoppt Auswertung von Siri-Aufnahmen durch Menschen weltweit

5
Link zum Artikel

Auch Facebook liess Sprachaufnahmen von Nutzern abtippen

1
Link zum Artikel

Microsoft räumt Abhören von Skype- und Cortana-Gesprächen ein

5
Link zum Artikel

Apple-Mitarbeiter hören sich deine Siri-Gespräche an – jup, auch das Bettgeflüster

84
Link zum Artikel

Amazon-Mitarbeiter hören und tippen heimlich Alexa-Sprachaufnahmen ab: Das steckt dahinter

8
Link zum Artikel

Zu gruselig! Alexa und Siri hören dieses geheime Kommando, das du nicht hörst

21
Link zum Artikel

Mehr zu Apple Siri, Google Assistant und Amazon Alexa

Apple stoppt Auswertung von Siri-Aufnahmen durch Menschen weltweit

5
Link zum Artikel

Auch Facebook liess Sprachaufnahmen von Nutzern abtippen

1
Link zum Artikel

Microsoft räumt Abhören von Skype- und Cortana-Gesprächen ein

5
Link zum Artikel

Apple-Mitarbeiter hören sich deine Siri-Gespräche an – jup, auch das Bettgeflüster

84
Link zum Artikel

Amazon-Mitarbeiter hören und tippen heimlich Alexa-Sprachaufnahmen ab: Das steckt dahinter

8
Link zum Artikel

Zu gruselig! Alexa und Siri hören dieses geheime Kommando, das du nicht hörst

21
Link zum Artikel

Abonniere unseren Newsletter

19
Bubble Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 48 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
19Alle Kommentare anzeigen
    Alle Leser-Kommentare
  • Ebulwi 30.08.2019 14:30
    Highlight Highlight Lasst sie lieber zuhören, die Folgen könnten sonst ...
    Benutzer Bild
  • Ebulwi 30.08.2019 14:08
    Highlight Highlight Wer weiß?
    Benutzer Bild
  • Ebulwi 30.08.2019 13:47
    Highlight Highlight Zum Foto, mit dem Ihr den Artikel bebildert, hätte ich mal eine Frage.

    Ihr setzt Euch doch für die LGBTQ-Community ein, habt sogar einen extra Kanal dafür, warum verwendet Ihr hier wieder ein Standard-weißes-Hetero-Pärchen-Bild?

    Mit einem entsprechenden Bild könntet Ihr hier ganz einfach, ohne Artikel, ohne aufwendige Recherche, sogar ganz ohne Worte, ein Zeichen setzen. Es sind oft die kleinen Dinge, die auf lange Sicht wirken.

    Nur so ein Gedanke.
    • @schurt3r 30.08.2019 14:11
      Highlight Highlight Hey, danke für die Anregung!

      Ein guter Gedanke, den ich (und hoffentlich viele Kollegen und Kolleginnen) gerne beherzigen werde.

      Diversität statt 0815-Stock-Photos 👍
  • Mein Name ist Hase 30.08.2019 12:27
    Highlight Highlight ich finde es herzig wenn uns gesagt wird das nicht mehr gelauschscht wird. Nur, wieso glauben alle das dass der Wahrheit entspricht? Es ist ja nicht so das in der Vergangenheit die Wahrheit gesagt wurde.
  • Fírnen 29.08.2019 22:23
    Highlight Highlight Man kann auch einfach die 'Hey Siri' Funktion ausschalten.
  • bebby 29.08.2019 20:44
    Highlight Highlight Ich habe Siri gefragt:
    Hörst Du eigentlich immer zu?
    Siri: Du hast meine volle Aufmerksamkeit
    ich: kann ich Dich abschalten?
    Siri: Tut mir leid, das geht leider nicht.
    Jetzt weiss ich, wieso sie eine Frauenstimme hat ;-)
  • Supermonkey 29.08.2019 19:07
    Highlight Highlight Wie man es schafft während dem Sex Siri zu aktivieren ist mr nach wie vor ein Rätsel... Vielleicht bin ich auch einfach zuwenig versaut...
    • bebby 29.08.2019 20:56
      Highlight Highlight Siri reagiert auf laute Geräusche.
    • Charlie Brown 30.08.2019 06:38
      Highlight Highlight Vielleicht ein Thurgauer, der mit einer unbekannten Sex hat und diese beim Vorspiel noch sietzt?

      „Hei Sie! Riebet sie e chli min ...“ und schon ist Siri auf Empfang. Darum ist ja Empfängnisverhütung so wichtig. Oder so.
  • efrain 29.08.2019 14:48
    Highlight Highlight "Siri verwendet eine zufällige Kennung – eine lange Folge an Buchstaben und Zahlen, die einem einzelnen Gerät zugeordnet sind"
    Soll das ein Witz sein? Das heisst doch gerade, dass Apple genau weiss, von welchem User eine Aufnahme stammt - nix anonymisiert. Apple weiss, welcher User auf welchem Gerät aktiv ist. Man bräuchte als Apple-Mitarbeiter also nur Zugriff auf beide Datenbanken, um die Verbindung herzustellen. 🤨
    • Financegozu 29.08.2019 19:15
      Highlight Highlight Apple weiss nur welches *Gerät* betroffen ist. Ob dies mein Gestöhne oder das meiner Freundin ist weiss Apple nicht.
    • Sam12 30.08.2019 09:29
      Highlight Highlight @Financegozu stimmt, denn das Gerät ist ja sicher nicht noch mit einer persönlichen Apple ID bei Apple angemeldet. Das wäre ja der Horror.
  • Alathea 29.08.2019 14:12
    Highlight Highlight 'Prescht vor' - Apple ist zu diesem Zeitpunkt der einzige grosse Anbieter der ein Opt-out nicht ermöglicht. Nachbessern triffts eher aber klingt halt PR technisch nicht so geil...
    • Financegozu 29.08.2019 19:10
      Highlight Highlight Ach ja? Kann ich bei Alexa out-opten (oder wie immer das heissen mag)? Zeig mir mal wie, bitte!
    • bebby 29.08.2019 20:57
      Highlight Highlight Was ich noch toll fände: ein Zwiegespräch zwischen Siri und Alexa.
    • Alathea 29.08.2019 22:06
      Highlight Highlight @financegozu ja kannst du. Man kann 1. Das mikrofon ausschalten wenn man z.b. intime gespräche führt und 2. Bei den einstellungen (via computer oder smartphone) klar einstellen ob z.b. aufnahmen gespeichert werden dürfen etc.
    Weitere Antworten anzeigen

Diese wichtige Handy-Funktion kann dein Leben retten – 68% der Schweizer kennen sie nicht

Zwei Drittel der Schweizer haben keine Ahnung, wie man rasch per Tastenkombination mit dem Handy einen Notruf absendet. Die internationale Notrufnummer kennen rund 40 Prozent nicht. Damit gefährden sie ihre eigene Rettung und die Rettung anderer.

Smartphones von Apple, Samsung, Huawei, etc. können über eine vom Handy-Hersteller eingerichtete Tastenkombination einen Notruf absetzen. Wer sich in einer Notsituation befindet und die Notrufnummer nicht wählen kann oder sich – beispielsweise im Schockzustand – nicht daran erinnert, kann so trotzdem jederzeit Hilfe rufen.Das Problem: 68 Prozent der Schweizer wissen nicht, wie man auch bei gesperrtem Handy schnell per Tastenkombination einen Notruf absendet. Gar nur eine von fünf …

Artikel lesen
Link zum Artikel