Digital
Wir verwenden Cookies und Analysetools, um die Nutzerfreundlichkeit der Internetseite zu verbessern und passende Werbung von watson und unseren Werbepartnern anzuzeigen. Weitere Infos findest Du in unserer Datenschutzerklärung.
Bild

Bis 2021 soll es auf der Erde mehr Sprachassistenten wie Alexa und Siri als Menschen geben. screenshot: twitter / New york times

Zu gruselig! Alexa und Siri hören dieses geheime Kommando, das du nicht hörst

Wissenschaftler können geheime Audioanweisungen, die Menschen nicht hören, an Apples Siri, Amazons Alexa und Googles Assistenten senden. Die Sprachassistenten könnten so heimlich Fotos der Nutzer machen, Textnachrichten versenden oder gar die Haustür öffnen.



Sprachassistenten durchdringen unser Leben: Auf dem Smartphone, der Smartwatch und immer öfter auch als smarte Lautsprecher im Wohn- oder Schlafzimmer hören sie auf unsere Befehle. Ein Sprachbefehl ist nun mal viel schneller und bequemer als Kommandos und Suchanfragen zu tippen.

«Ok, Google, wie wird das Wetter heute?», «Hey, Cortana, welche Termine habe ich heute?» oder «Hey, Siri, stell die Raumtemperatur auf 22 Grad» sind für immer mehr Menschen ganz natürliche Fragen oder Kommandos, die man dem Sprachassistenten sagt. Das Smartphone oder der Smartspeaker gibt die Antwort, während man die Hände für anderes frei hat. Genau deshalb stehen in den USA die meisten Smartspeaker in der Küche. 

Bild

In den USA soll bis 2021 in mehr als jedem zweiten Haushalt ein Smartspeaker stehen. bild: samsung via mostly-tech

Für Menschen unhörbare Sprachbefehle

Wer kleine Kinder hat, weiss, dass sie ohne Scheu mit Siri oder dem Google Assistant sprechen, um etwa ein Video auf Youtube zu starten. Doch wer einen Smartspeaker von Amazon, Google oder Apple in der eigenen Wohnung hat, sollte wissen, dass die Sprachassistenten sehr leicht manipuliert werden können – und zwar mit für Menschen unhörbaren Kommandos. Forscher aus China und den USA konnten «in Labortests die Sprachassistenten auf Smartphones und intelligenten Lautsprechern heimlich aktivieren und so Telefonnummern wählen oder Websites öffnen», berichtet die «New York Times».

In den falschen Händen könnte die Technologie genutzt werden, um in vernetzten Smart-Homes heimlich «Türen zu öffnen, Geld zu überweisen oder Dinge online zu kaufen», befürchten die Forscher. Smartphones mit Sprachassistenten könnten so manipuliert werden, dass sie heimlich Fotos von den Nutzern und der Wohnung schiessen oder Textnachrichten versenden – eine denkbar gruselige Vorstellung.

So funktioniert die Manipulation

Die Forscher konnten für Menschen unhörbare Befehle in Musikaufnahmen oder gesprochenem Text verstecken – etwa in einer Radiosendung oder einem Hörbuch. Forscher der kalifornischen Universität Berkley konnten den Befehl «Ok, Google, öffne evil.com» in einer Aufnahme des gesprochenen Satzes «Ohne den Datensatz ist der Artikel unbrauchbar» verbergen. Während ein Mensch bloss einen Song oder ein Hörbuch hört, vernehmen Alexa, Siri oder der Google Assistant geheime Anweisungen wie zum Beispiel etwas zur Einkaufsliste hinzuzufügen – oder gar das Garagentor zu öffnen.

Dies funktioniert, weil Spracherkennungssysteme in der Regel jeden Ton in einen Buchstaben übersetzen und daraus Wörter und Sätze bilden. «Durch geringfügige Änderungen an den Audiodateien konnten die Forscher den Ton, den das Spracherkennungssystem hören sollte, aufheben und durch einen Ton ersetzen, der von den Maschinen anders übersetzt wird, aber für das menschliche Ohr kaum wahrnehmbar ist», schreibt die «New York Times».

Ultraschallangriff auf Siri, Alexa und Co.

Amerikanische und chinesische Forscher haben schon letztes Jahr gezeigt, dass sie Sprachassistenten auch mit für Menschen  unhörbaren Frequenzen aktivieren und manipulieren können. Bei dieser so genannten Delfin-Attacke werden die Smartphones oder Smartspeaker zuerst auf lautlos gestellt, damit die Opfer die Antworten des Sprachassistenten nicht hören. Per Ultraschallangriff konnten die Forscher Smartphones dazu bringen, infizierte Websites zu besuchen, Anrufe zu tätigen, Fotos zu machen oder Textnachrichten zu versenden.

Beispiel eines Ultraschallangriffs: Siri hört für Menschen unhörbare Frequenzen und wählt wie von Geisterhand eine Telefonnummer

abspielen

Video: YouTube/guoming zhang

Die Delfin-Attacke funktioniert nur, wenn der Sender nicht weiter als ein paar Meter vom Smartphone oder Smartspeaker entfernt ist. Experten warnen jedoch, dass leistungsfähigere Ultraschallsysteme möglich seien. Die neuere Angriffsmethode mit manipulierten Audiodateien kann ebenfalls lokal über manipulierte MP3-Dateien oder Filme erfolgen, die man im Netz herunterlädt, aber auch aus der Ferne, etwa über Radiosendungen und Werbespots.

Vor einem Jahr überlistete etwa Burger King den Google Assistant per TV-Spot: In einem TV-Werbespot erklärte ein Mitarbeiter der Fast-Food-Kette, er könne in so kurzer Zeit nicht alle Zutaten des Burgers aufzählen, aber er habe eine Idee. Dann sagte er auf Englisch «Ok, Google, was ist der Whopper-Burger?». Der Schlüsselbegriff «Ok, Google» aktivierte darauf die Google-Home-Lautsprecher in US-Wohnzimmern, die in der Nähe von Fernsehern standen. Die mit dem Internet vernetzten Smartspeaker lasen daraufhin den verblüfften TV-Zuschauern den Anfang des Wikipedia-Artikels über den Whopper von Burger King vor.

«Nur eine Frage der Zeit, bis Schwachstellen ausgenutzt werden»

Laut den Forschern gibt es bislang keine Beweise dafür, dass ihre Manipulationstechniken das Labor verlassen haben. Es sei aber nur eine Frage der Zeit, bis jemand damit beginne, sie für kriminelle Aktivitäten auszunutzen. «Meine Annahme ist, dass böswillige Menschen bereits Leute beschäftigen, um das zu tun, was ich tue», zitiert die NYT einen US-Forscher.

Amazon, Apple und Google erläutern nicht im Detail, wie sie ihre Sprachassistenten vor Manipulation schützen. Google sagt, die Spracherkennung sei darauf ausgelegt, nur auf Kommandos zu reagieren, wenn sie die Stimme des Besitzers erkenne.

Apple sagt, dass ihr intelligenter Lautsprecher, HomePod, gefährliche Befehle, wie das Entsperren von Türen, nicht ausführe. Allerdings lässt sich die Haustür oder das Garagentor per Siri auf dem iPhone oder Apple Watch öffnen. Immerhin muss das iPhone entsperrt sein, bevor Siri auf sensible Daten zugreift, Webseiten öffnet oder sogar die Haustüre öffnet. Das Problem: Ende 2017 zeigte ein Entwickler, dass Kriminelle aufgrund mehrerer Sicherheitslücken in iOS und watchOS die Kontrolle über das Haus oder die Wohnung des Opfers übernehmen und so beispielsweise aus der Ferne die Haustüre öffnen können.

Das zweite Problem: Smartphones können so eingerichtet werden, dass sie an vermeintlich sicheren Orten wie zu Hause oder in der Nähe der eigenen Smartwatch automatisch entsperrt bleiben. Das ist praktisch, erleichtert aber auch Angriffe. 

Benutzerfreundlichkeit vs. Sicherheit

Die Hersteller bewegen sich auf einem schmalen Grat zwischen Benutzerfreundlichkeit und Sicherheit. Amazons Alexa und der Google Assistant reagieren beispielsweise auf falsche Aktivierungsphrasen, um möglichst keinen Sprachbefehl des Nutzers zu verpassen. Der Google Assistant lässt sich darum auch mit «Okay, Kuchen» und sogar «Ok, Gugelhupf» aktivieren.

Der Grund dafür: Die Mikrofone in den smarten Lautsprechern oder Smartphones sind immer aktiv (sofern man sie nicht manuell deaktiviert) hat. Schnappen sie ein Geräusch auf, dessen Schallwellen denen des Aktivierungsbegriffs («Ok, Google», «hey, Siri» etc.) ähnlich genug sind, aktivieren sie die Sprachassistenten und damit die Datenübertragung zu den Servern der Anbieter. Die Hersteller müssen also eine Schwelle für die Eindeutigkeit der Wellenform festlegen, ab der sie ihre Assistenten aktivieren. Je höher die Schwelle, desto sicherer das Ganze. Allerdings funktioniert der Assistent dann auch schlechter, was die Nutzer frustrieren wird.

Bleibt zu sagen: Die beschriebenen Angriffe der Forscher auf Sprachassistenten sind relativ aufwändig. Für Kriminelle oder Geheimdienste gibt es momentan viel leichtere Wege, um ihre Opfer anzugreifen. Trotzdem zeigen die Wissenschaftler eindrücklich, dass Sprachassistenten und vernetzte Häuser ein weiteres Einfallstor für kriminelle Hacker sind.

Umfrage

Welchen Sprachassistenten nutzt du primär?

  • Abstimmen

3,766

  • Alexa2%
  • Google Assistant7%
  • Siri11%
  • einen anderen (Bixby, Cortana etc.)1%
  • keinen80%

Beeindruckende Demonstration: Googles Assistant lässt Menschen am Telefon glauben, dass sie mit einem realen Menschen sprechen

abspielen

Video: watson

Die 23 besten Siri-Sprüche

Das könnte dich auch interessieren:

AfD-Politikerin Alice Weidel ist heimlich wieder in die Schweiz gezogen

Link zum Artikel

Mein Horror-Erlebnis im Militär – und was ich daraus lernte

Link zum Artikel

2 mal 3 macht 4! – Das wurde aus den Darstellern von «Pippi Langstrumpf»

Link zum Artikel

Greta Thunberg wollte Panik säen, erntet nun aber Wut

Link zum Artikel

Pasta mit Tomatensauce? OK, wir müssen kurz reden.

Link zum Artikel

«Es war die Hölle» – dieser Schweizer war am ersten Woodstock dabei

Link zum Artikel

Oppos Reno 5G ist ein spektakuläres Smartphone – das seiner Zeit voraus ist

Link zum Artikel

MEI, Minarett und Güsel: Das musst du zum Polit-Röstigraben wissen

Link zum Artikel

Ich hab die 3 neuen Huawei-Handys 2 Monate im Alltag getestet – es gab einen klaren Sieger

Link zum Artikel

Keine Hoffnung auf Überlebende nach Unwetter im Wallis ++ Gesperrte Pässe in Graubünden

Link zum Artikel

Immer wieder Djokovic – oder Federers Kampf gegen die Dämonen der Vergangenheit

Link zum Artikel

QDH: Huber ist in den Ferien. Wir haben ihn vorher noch ein bisschen gequält

Link zum Artikel

YB-Fan lehnt sich im Extrazug aus dem Fenster – und wird von Schild getroffen

Link zum Artikel

10 Tweets, die zeigen, dass in Grönland gerade etwas komplett schief läuft

Link zum Artikel

Wahlvorschau: Die Zentralschweiz ist diesmal nicht nur für Rot-Grün ein hartes Pflaster

Link zum Artikel

Sogar Taschenrechner verwirrt: Dieses Mathe-Rätsel macht gerade alle verrückt

Link zum Artikel

Die bizarre Geschichte der Skinwalker-Ranch, Teil 4: Die Zweifel des Insiders

Link zum Artikel

Uli, der Unsportliche – warum GC-Trainer Forte in Aarau unten durch ist

Link zum Artikel

Die Bloggerin, die 22 Holocaust-Opfer erfand, ist tot, ihre Fantasie war grenzenlos

Link zum Artikel

Google enthüllt sechs Sicherheitslücken in iOS – das solltest du wissen

Link zum Artikel

Der neue Tarantino? Ist Mist. Aber vielleicht seht ihr das ganz anders

Link zum Artikel

Wohin ist denn eigentlich die Hitzewelle verschwunden? Nun, die Antwort ist beunruhigend

Link zum Artikel

Gewalt und Krankheiten – die Bewohner der ersten Steinzeit-Stadt lebten gefährlich

Link zum Artikel

Ab heute lebt die Welt auf Ökopump – und diese Länder sind die grössten Umweltsünder

Link zum Artikel

ARD-Moderatorin lästert über «Fortnite»-Spieler und erntet Shitstorm – nun wehrt sie sich

Link zum Artikel
Alle Artikel anzeigen

Abonniere unseren Newsletter

21
Bubble Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 48 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
21Alle Kommentare anzeigen
    Alle Leser-Kommentare
  • achsoooooo 12.05.2018 14:40
    Highlight Highlight Der Film "Her" greift dieses Thema auf, beleuchtet aber vor allem den sozialen Aspekt dieser Assistenten...
    Meiner Meinung nach sehr eindrücklich und empfehlenswert :)
  • einmalquer 12.05.2018 12:28
    Highlight Highlight in einer Welt, in der Menschen nicht mehr normal miteinander kommunizieren können - siehe online-Kommentare etc. - ist es vielleicht besser, wenn man nur noch mit Maschinen spricht.
  • woezzl 12.05.2018 11:16
    Highlight Highlight Finds auch zu mühsam.. wenn Sprachassdistent, dann sollte es bei jedem Versuch klappen und zwar auf schwiizerdüütsch😅
  • El Vals del Obrero 12.05.2018 09:27
    Highlight Highlight Diese Dinger finde ich generell gruselig. Sich freiwillig eine Wanze anschaffen, für die Stasi wäre das ein feuchter Traum gewesen.
  • inVain 12.05.2018 09:13
    Highlight Highlight Obacht!
    Benutzer Bild
  • Spooky 12.05.2018 07:57
    Highlight Highlight Die Menschen erzählen ja sowieso nichts Schlaues.

    Also kommt es ja nicht drauf an,
    ob ich mit einem Sprachassistenten rede
    oder mit einem echten Menschen
    (oder mit Watson). 🙈
  • lily.mcbean 12.05.2018 07:33
    Highlight Highlight Der Mann meiner Tante ist ein hohes Tier in der IT einer Kantonalbank und nicht mal er (der sonst wirklich jeden technischen Schund anschafft) würde sich einen Sprachassistenten ins Haus stellen. Zitat: " Die die so dumm sind sich so ein Ding zu kaufen sind selber schuld." Die Konzerne schleudern solche Produkte auf den Markt ohne sich gross um Sicherheitslücken zu kümmern weil die Menschen sich wie Hirnlose Zombies eh alles kaufen was neu rauskommt ohne jemals etwas zu hinterfragen.
  • Armend Shala 12.05.2018 07:00
    Highlight Highlight Im Kommunismus sind meine Grosseltern in den Wald spazieren gegangen, wenn man aus Parteisicht unliebsame Dinge zu besprechen hatte. Und nun zahlen die Leute sogar dafür 24/7 verwanzt zu sein. Aus Bequemlichkeit seine Privatsphäre aufgeben, nein danke.
  • Smacun 12.05.2018 01:02
    Highlight Highlight Solange die Sprachassistenten kein (bzw. mein) Schweizerdeutsch verstehen, brauche ich die sowieso nicht.
  • Geophage 11.05.2018 22:57
    Highlight Highlight Erinnert stark an Ultrasound Cross-Device-Tracking.

    https://www.watson.ch/amp/!718587221
  • Pana 11.05.2018 22:44
    Highlight Highlight Ich habe den Google Sprachassistenten erst letzte Woche entdeckt (dank den Artikeln darüber). Seither lasse ich mich von ihr Witze erzählen, und wir streiten uns darüber, wieso sie keinen echten Namen hat.
    • ldk 11.05.2018 23:03
      Highlight Highlight Ok, Google, ist dein Name wirklich Ok Google?

      In der Schweiz müsste ich vielleicht Reto oder Regula heissen,aber ich bin dein google Assistant🙄
    • Pana 12.05.2018 11:32
      Highlight Highlight "Can I call you Alexa?"

      Fand sie gar nicht witzig.
  • Posersalami 11.05.2018 21:46
    Highlight Highlight Liese sich doch einfach abwehren: hinter das Mikro einen Filter klemmen der nur zwischen 200 und 4000Hz durchlässt und den Rest wegschnippelt. Problem gelöst.
    • Pbel 11.05.2018 22:11
      Highlight Highlight Wenn das das Problem lösen würde, würde eine Fast Fourier Transformation genügen: https://de.m.wikipedia.org/wiki/Schnelle_Fourier-Transformatio. Aber in diesem Fall scheint das nichts zu bringen.
    • Der Tom 12.05.2018 00:57
      Highlight Highlight Bringt nichts. Aber Siri zb reagiert nur auf meine Stimme. Das ist schon mal etwas besser. Funktioniert nur sehr selten wenn jemand anders ruft.
    • Phiilofofi 12.05.2018 19:55
      Highlight Highlight Ein Filter hätte keine Wirkung, da die versteckten Botschaften (nicht die im Ultraschallbereich) sich im frequenzband unserer Stimme befinden würden.
  • Süffu 11.05.2018 21:22
    Highlight Highlight Ich wage zu bezweifeln, dass diese Assistenten bei uns dieselbe Durchdringung erreichen werden. Ein wichtiger Punkt ist hier die Sprache, welche erst bei sehr wenigen Geräten auf Dialekte abgestimmt ist und es wohl auch nie für alle sein wird. Ein zweiter Punkt ist die Mentalität der Schweizer, welche nicht das dringende Bedürfnis haben "in einen leeren Raum zu sprechen" (Zitat Shin Kani). Mich stört das keines Wegs, die Dinger sind mir suspekt..
  • Shin Kami 11.05.2018 20:49
    Highlight Highlight Nie im Leben würde ich so einen Sprachassistenten nutzen und das liegt nicht mal an der Sicherheit, ich finde es einfach extrem komisch in den leeren Raum hinein zu sprechen...
    • Der Tom 12.05.2018 00:52
      Highlight Highlight Ein Raum kann nie leer sein.
    • Shin Kami 12.05.2018 11:08
      Highlight Highlight "ein mit einem Gasgemisch, auch als Luft bekannt, gefüllter Raum" besser?

Google enthüllt sechs Sicherheitslücken in iOS – das solltest du wissen

Googles Sicherheitsteam hat ein halbes Dutzend Fehler im iPhone-Betriebssystem offengelegt. Mehrere davon sind kritisch. Malware-Hersteller und Geheimdienste zahlen Millionen für solche Lücken.

Googles Sicherheitsforscher haben insgesamt sechs neue Schwachstellen in iOS entdeckt. Die Lücken wurden Apple von einer Sicherheitsforscherin und einem Sicherheitsforscher von Googles Project Zero gemeldet. Apple hat letzte Woche fünf dieser Schwachstellen mit dem Update auf iOS 12.4 geschlossen, eine Lücke bleibt aber vorerst bestehen. Inzwischen sind einige Details zu den teils schwerwiegenden Fehlern bekannt: Mehrere der Sicherheitsprobleme betreffen Apples Chat-App iMessage und sind laut …

Artikel lesen
Link zum Artikel