Digital
Wir verwenden Cookies und Analysetools, um die Nutzerfreundlichkeit der Internetseite zu verbessern und passende Werbung von watson und unseren Werbepartnern anzuzeigen. Weitere Infos findest Du in unserer Datenschutzerklärung.

Bis 2021 soll es auf der Erde mehr Sprachassistenten wie Alexa und Siri als Menschen geben. screenshot: twitter / New york times

Zu gruselig! Alexa und Siri hören dieses geheime Kommando, das du nicht hörst

Wissenschaftler können geheime Audioanweisungen, die Menschen nicht hören, an Apples Siri, Amazons Alexa und Googles Assistenten senden. Die Sprachassistenten könnten so heimlich Fotos der Nutzer machen, Textnachrichten versenden oder gar die Haustür öffnen.

11.05.18, 19:55 11.05.18, 20:48


Sprachassistenten durchdringen unser Leben: Auf dem Smartphone, der Smartwatch und immer öfter auch als smarte Lautsprecher im Wohn- oder Schlafzimmer hören sie auf unsere Befehle. Ein Sprachbefehl ist nun mal viel schneller und bequemer als Kommandos und Suchanfragen zu tippen.

«Ok, Google, wie wird das Wetter heute?», «Hey, Cortana, welche Termine habe ich heute?» oder «Hey, Siri, stell die Raumtemperatur auf 22 Grad» sind für immer mehr Menschen ganz natürliche Fragen oder Kommandos, die man dem Sprachassistenten sagt. Das Smartphone oder der Smartspeaker gibt die Antwort, während man die Hände für anderes frei hat. Genau deshalb stehen in den USA die meisten Smartspeaker in der Küche. 

In den USA soll bis 2021 in mehr als jedem zweiten Haushalt ein Smartspeaker stehen. bild: samsung via mostly-tech

Für Menschen unhörbare Sprachbefehle

Wer kleine Kinder hat, weiss, dass sie ohne Scheu mit Siri oder dem Google Assistant sprechen, um etwa ein Video auf Youtube zu starten. Doch wer einen Smartspeaker von Amazon, Google oder Apple in der eigenen Wohnung hat, sollte wissen, dass die Sprachassistenten sehr leicht manipuliert werden können – und zwar mit für Menschen unhörbaren Kommandos. Forscher aus China und den USA konnten «in Labortests die Sprachassistenten auf Smartphones und intelligenten Lautsprechern heimlich aktivieren und so Telefonnummern wählen oder Websites öffnen», berichtet die «New York Times».

In den falschen Händen könnte die Technologie genutzt werden, um in vernetzten Smart-Homes heimlich «Türen zu öffnen, Geld zu überweisen oder Dinge online zu kaufen», befürchten die Forscher. Smartphones mit Sprachassistenten könnten so manipuliert werden, dass sie heimlich Fotos von den Nutzern und der Wohnung schiessen oder Textnachrichten versenden – eine denkbar gruselige Vorstellung.

So funktioniert die Manipulation

Die Forscher konnten für Menschen unhörbare Befehle in Musikaufnahmen oder gesprochenem Text verstecken – etwa in einer Radiosendung oder einem Hörbuch. Forscher der kalifornischen Universität Berkley konnten den Befehl «Ok, Google, öffne evil.com» in einer Aufnahme des gesprochenen Satzes «Ohne den Datensatz ist der Artikel unbrauchbar» verbergen. Während ein Mensch bloss einen Song oder ein Hörbuch hört, vernehmen Alexa, Siri oder der Google Assistant geheime Anweisungen wie zum Beispiel etwas zur Einkaufsliste hinzuzufügen – oder gar das Garagentor zu öffnen.

Dies funktioniert, weil Spracherkennungssysteme in der Regel jeden Ton in einen Buchstaben übersetzen und daraus Wörter und Sätze bilden. «Durch geringfügige Änderungen an den Audiodateien konnten die Forscher den Ton, den das Spracherkennungssystem hören sollte, aufheben und durch einen Ton ersetzen, der von den Maschinen anders übersetzt wird, aber für das menschliche Ohr kaum wahrnehmbar ist», schreibt die «New York Times».

Ultraschallangriff auf Siri, Alexa und Co.

Amerikanische und chinesische Forscher haben schon letztes Jahr gezeigt, dass sie Sprachassistenten auch mit für Menschen  unhörbaren Frequenzen aktivieren und manipulieren können. Bei dieser so genannten Delfin-Attacke werden die Smartphones oder Smartspeaker zuerst auf lautlos gestellt, damit die Opfer die Antworten des Sprachassistenten nicht hören. Per Ultraschallangriff konnten die Forscher Smartphones dazu bringen, infizierte Websites zu besuchen, Anrufe zu tätigen, Fotos zu machen oder Textnachrichten zu versenden.

Beispiel eines Ultraschallangriffs: Siri hört für Menschen unhörbare Frequenzen und wählt wie von Geisterhand eine Telefonnummer

Video: YouTube/guoming zhang

Die Delfin-Attacke funktioniert nur, wenn der Sender nicht weiter als ein paar Meter vom Smartphone oder Smartspeaker entfernt ist. Experten warnen jedoch, dass leistungsfähigere Ultraschallsysteme möglich seien. Die neuere Angriffsmethode mit manipulierten Audiodateien kann ebenfalls lokal über manipulierte MP3-Dateien oder Filme erfolgen, die man im Netz herunterlädt, aber auch aus der Ferne, etwa über Radiosendungen und Werbespots.

Vor einem Jahr überlistete etwa Burger King den Google Assistant per TV-Spot: In einem TV-Werbespot erklärte ein Mitarbeiter der Fast-Food-Kette, er könne in so kurzer Zeit nicht alle Zutaten des Burgers aufzählen, aber er habe eine Idee. Dann sagte er auf Englisch «Ok, Google, was ist der Whopper-Burger?». Der Schlüsselbegriff «Ok, Google» aktivierte darauf die Google-Home-Lautsprecher in US-Wohnzimmern, die in der Nähe von Fernsehern standen. Die mit dem Internet vernetzten Smartspeaker lasen daraufhin den verblüfften TV-Zuschauern den Anfang des Wikipedia-Artikels über den Whopper von Burger King vor.

«Nur eine Frage der Zeit, bis Schwachstellen ausgenutzt werden»

Laut den Forschern gibt es bislang keine Beweise dafür, dass ihre Manipulationstechniken das Labor verlassen haben. Es sei aber nur eine Frage der Zeit, bis jemand damit beginne, sie für kriminelle Aktivitäten auszunutzen. «Meine Annahme ist, dass böswillige Menschen bereits Leute beschäftigen, um das zu tun, was ich tue», zitiert die NYT einen US-Forscher.

Amazon, Apple und Google erläutern nicht im Detail, wie sie ihre Sprachassistenten vor Manipulation schützen. Google sagt, die Spracherkennung sei darauf ausgelegt, nur auf Kommandos zu reagieren, wenn sie die Stimme des Besitzers erkenne.

Apple sagt, dass ihr intelligenter Lautsprecher, HomePod, gefährliche Befehle, wie das Entsperren von Türen, nicht ausführe. Allerdings lässt sich die Haustür oder das Garagentor per Siri auf dem iPhone oder Apple Watch öffnen. Immerhin muss das iPhone entsperrt sein, bevor Siri auf sensible Daten zugreift, Webseiten öffnet oder sogar die Haustüre öffnet. Das Problem: Ende 2017 zeigte ein Entwickler, dass Kriminelle aufgrund mehrerer Sicherheitslücken in iOS und watchOS die Kontrolle über das Haus oder die Wohnung des Opfers übernehmen und so beispielsweise aus der Ferne die Haustüre öffnen können.

Das zweite Problem: Smartphones können so eingerichtet werden, dass sie an vermeintlich sicheren Orten wie zu Hause oder in der Nähe der eigenen Smartwatch automatisch entsperrt bleiben. Das ist praktisch, erleichtert aber auch Angriffe. 

Benutzerfreundlichkeit vs. Sicherheit

Die Hersteller bewegen sich auf einem schmalen Grat zwischen Benutzerfreundlichkeit und Sicherheit. Amazons Alexa und der Google Assistant reagieren beispielsweise auf falsche Aktivierungsphrasen, um möglichst keinen Sprachbefehl des Nutzers zu verpassen. Der Google Assistant lässt sich darum auch mit «Okay, Kuchen» und sogar «Ok, Gugelhupf» aktivieren.

Der Grund dafür: Die Mikrofone in den smarten Lautsprechern oder Smartphones sind immer aktiv (sofern man sie nicht manuell deaktiviert) hat. Schnappen sie ein Geräusch auf, dessen Schallwellen denen des Aktivierungsbegriffs («Ok, Google», «hey, Siri» etc.) ähnlich genug sind, aktivieren sie die Sprachassistenten und damit die Datenübertragung zu den Servern der Anbieter. Die Hersteller müssen also eine Schwelle für die Eindeutigkeit der Wellenform festlegen, ab der sie ihre Assistenten aktivieren. Je höher die Schwelle, desto sicherer das Ganze. Allerdings funktioniert der Assistent dann auch schlechter, was die Nutzer frustrieren wird.

Bleibt zu sagen: Die beschriebenen Angriffe der Forscher auf Sprachassistenten sind relativ aufwändig. Für Kriminelle oder Geheimdienste gibt es momentan viel leichtere Wege, um ihre Opfer anzugreifen. Trotzdem zeigen die Wissenschaftler eindrücklich, dass Sprachassistenten und vernetzte Häuser ein weiteres Einfallstor für kriminelle Hacker sind.

Umfrage

Welchen Sprachassistenten nutzt du primär?

  • Abstimmen

1,699 Votes zu: Welchen Sprachassistenten nutzt du primär?

  • 2%Alexa
  • 8%Google Assistant
  • 9%Siri
  • 1%einen anderen (Bixby, Cortana etc.)
  • 80%keinen

Beeindruckende Demonstration: Googles Assistant lässt Menschen am Telefon glauben, dass sie mit einem realen Menschen sprechen

Video: watson

Die 23 besten Siri-Sprüche

Hol dir die App!

Charly Otherman, 5.5.2017
Watson kann nicht nur lustig! Auch für Deutsche (wie mich) ein Muss, obwohl ich das schweizerische nicht immer verstehe.

Abonniere unseren Daily Newsletter

26
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 72 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
26Alle Kommentare anzeigen
    Alle Leser-Kommentare
  • achsoooooo 12.05.2018 14:40
    Highlight Der Film "Her" greift dieses Thema auf, beleuchtet aber vor allem den sozialen Aspekt dieser Assistenten...
    Meiner Meinung nach sehr eindrücklich und empfehlenswert :)
    2 0 Melden
  • einmalquer 12.05.2018 12:28
    Highlight in einer Welt, in der Menschen nicht mehr normal miteinander kommunizieren können - siehe online-Kommentare etc. - ist es vielleicht besser, wenn man nur noch mit Maschinen spricht.
    3 2 Melden
  • woezzl 12.05.2018 11:16
    Highlight Finds auch zu mühsam.. wenn Sprachassdistent, dann sollte es bei jedem Versuch klappen und zwar auf schwiizerdüütsch😅
    1 0 Melden
  • meine senf 12.05.2018 09:27
    Highlight Diese Dinger finde ich generell gruselig. Sich freiwillig eine Wanze anschaffen, für die Stasi wäre das ein feuchter Traum gewesen.
    19 1 Melden
  • inVain 12.05.2018 09:13
    Highlight Obacht!
    25 0 Melden
  • Spooky 12.05.2018 07:57
    Highlight Die Menschen erzählen ja sowieso nichts Schlaues.

    Also kommt es ja nicht drauf an,
    ob ich mit einem Sprachassistenten rede
    oder mit einem echten Menschen
    (oder mit Watson). 🙈
    3 15 Melden
  • lily.mcbean 12.05.2018 07:33
    Highlight Der Mann meiner Tante ist ein hohes Tier in der IT einer Kantonalbank und nicht mal er (der sonst wirklich jeden technischen Schund anschafft) würde sich einen Sprachassistenten ins Haus stellen. Zitat: " Die die so dumm sind sich so ein Ding zu kaufen sind selber schuld." Die Konzerne schleudern solche Produkte auf den Markt ohne sich gross um Sicherheitslücken zu kümmern weil die Menschen sich wie Hirnlose Zombies eh alles kaufen was neu rauskommt ohne jemals etwas zu hinterfragen.
    30 2 Melden
  • Armend Shala 12.05.2018 07:00
    Highlight Im Kommunismus sind meine Grosseltern in den Wald spazieren gegangen, wenn man aus Parteisicht unliebsame Dinge zu besprechen hatte. Und nun zahlen die Leute sogar dafür 24/7 verwanzt zu sein. Aus Bequemlichkeit seine Privatsphäre aufgeben, nein danke.
    49 0 Melden
  • Smacun 12.05.2018 01:02
    Highlight Solange die Sprachassistenten kein (bzw. mein) Schweizerdeutsch verstehen, brauche ich die sowieso nicht.
    8 3 Melden
  • Linksgrün-versiffter Gutmensch 11.05.2018 22:57
    Highlight Erinnert stark an Ultrasound Cross-Device-Tracking.

    https://www.watson.ch/amp/!718587221
    2 1 Melden
  • Pana 11.05.2018 22:44
    Highlight Ich habe den Google Sprachassistenten erst letzte Woche entdeckt (dank den Artikeln darüber). Seither lasse ich mich von ihr Witze erzählen, und wir streiten uns darüber, wieso sie keinen echten Namen hat.
    24 7 Melden
    • ldk 11.05.2018 23:03
      Highlight Ok, Google, ist dein Name wirklich Ok Google?

      In der Schweiz müsste ich vielleicht Reto oder Regula heissen,aber ich bin dein google Assistant🙄
      5 0 Melden
    • Pana 12.05.2018 11:32
      Highlight "Can I call you Alexa?"

      Fand sie gar nicht witzig.
      5 0 Melden
  • Posersalami 11.05.2018 21:46
    Highlight Liese sich doch einfach abwehren: hinter das Mikro einen Filter klemmen der nur zwischen 200 und 4000Hz durchlässt und den Rest wegschnippelt. Problem gelöst.
    23 6 Melden
    • Pbel 11.05.2018 22:11
      Highlight Wenn das das Problem lösen würde, würde eine Fast Fourier Transformation genügen: https://de.m.wikipedia.org/wiki/Schnelle_Fourier-Transformatio. Aber in diesem Fall scheint das nichts zu bringen.
      13 0 Melden
    • Der Tom 12.05.2018 00:57
      Highlight Bringt nichts. Aber Siri zb reagiert nur auf meine Stimme. Das ist schon mal etwas besser. Funktioniert nur sehr selten wenn jemand anders ruft.
      2 3 Melden
    • Phiilofofi 12.05.2018 19:55
      Highlight Ein Filter hätte keine Wirkung, da die versteckten Botschaften (nicht die im Ultraschallbereich) sich im frequenzband unserer Stimme befinden würden.
      1 0 Melden
  • Süffu 11.05.2018 21:22
    Highlight Ich wage zu bezweifeln, dass diese Assistenten bei uns dieselbe Durchdringung erreichen werden. Ein wichtiger Punkt ist hier die Sprache, welche erst bei sehr wenigen Geräten auf Dialekte abgestimmt ist und es wohl auch nie für alle sein wird. Ein zweiter Punkt ist die Mentalität der Schweizer, welche nicht das dringende Bedürfnis haben "in einen leeren Raum zu sprechen" (Zitat Shin Kani). Mich stört das keines Wegs, die Dinger sind mir suspekt..
    61 12 Melden
  • Shin Kami 11.05.2018 20:49
    Highlight Nie im Leben würde ich so einen Sprachassistenten nutzen und das liegt nicht mal an der Sicherheit, ich finde es einfach extrem komisch in den leeren Raum hinein zu sprechen...
    168 10 Melden
    • Der Tom 12.05.2018 00:52
      Highlight Ein Raum kann nie leer sein.
      5 6 Melden
    • Shin Kami 12.05.2018 11:08
      Highlight "ein mit einem Gasgemisch, auch als Luft bekannt, gefüllter Raum" besser?
      3 0 Melden
  • Diagnose: Aluhut 11.05.2018 20:43
    Highlight Nennt mich altmodisch. Aber ich habe und werde nie einen Sprachassistenten benutzen. Zu umständlich 🙈
    228 10 Melden
    • FloRyan 11.05.2018 23:51
      Highlight Genau das, habe ich vor 10 Jahren vom Smartphone auch gesagt...
      6 6 Melden
    • loquito 12.05.2018 10:10
      Highlight Ich ziehe sogar den Fernsehen aus wenn ich ihn nicht brauche....
      4 0 Melden

Das sind die 10 gefährlichsten Programme, die du auf deinem Windows-PC oder Mac haben kannst

In den Top 10 der löchrigsten Software der letzten zwölf Monate ist Apple drei Mal vertreten. Programme von Adobe sowie Microsoft finden sich je zwei Mal. Der erste Platz geht wenig überraschend an ...

Es sind Schlagzeilen aus der Hölle: Die folgenden Titel konnte man zuletzt über Adobes Flash Player auf watson lesen. Flash spielt Videos und Werbung auf Webseiten ab, macht aber primär durch eklatante Sicherheitslücken von sich reden.

Doch auch die Wochen zuvor war es nicht besser – im Gegenteil:

Doch damit ist Adobes Flash Player längst nicht das gefährlichste Stück Software, das man auf seinem Windows-PC oder Mac haben kann. Das Schweizer IT-Sicherheitsunternehmen Scip AG …

Artikel lesen