Weshalb der neue Sprachassistent von Google ziemlich gefährlich werden könnte
Die neuartige Google-Software Duplex, die am Telefon praktisch nicht von einem Menschen zu unterscheiden ist, wird sich bei Anrufen «angemessen zu erkennen geben». Der Internet-Konzern stellte dies klar, nachdem eine erste Demonstration der Software Kritik und ethische Fragen ausgelöst hatte.
Bei den aufgezeichneten Telefongesprächen des Google-Systems, hatten die Mitarbeiter eines Friseursalons und eines Restaurants offenkundig keine Ahnung, dass sie mit einem Computer und nicht mit einem Menschen sprechen.
Das Video zeigt: Menschen wissen künftig nicht mehr, ob sie mit Menschen oder einem Roboter sprechen
Die Software war sogar speziell getrimmt darauf, besonders menschlich zu klingen, indem sie Pausen und Zwischenlaute wie «ähm» und «umm» einschob. Google zufolge macht das die Unterhaltung natürlicher. Beim Anruf im Friseursalon erklärte die Software zumindest, sie rufe im Auftrag einer Kundin an, beim Anruf im Restaurant gab es einen solchen Hinweis nicht.
Der Google Assistant vereinbart einen Termin bei einem Coiffeur
Wo führt das hin?
Unter Tech-Enthusiasten führte Googles beeindruckende Demonstration seiner künstlichen Intelligenz (KI) für Begeisterung, aber es gibt auch warnende Stimmen: Spiegel Online schreibt:
«Höchste Zeit für Robotergesetze»
Es werde daher «höchste Zeit für Robotergesetze - und eines davon sollte sein, dass eine Maschine verpflichtet ist, sich zu Beginn eines Gesprächs als solche zu erkennen zu geben», schreibt Spiegel Online.
Google lässt sich von solcher Kritik kaum gross beirren: Der Konzern will das Programm im Sommer in öffentliche Tests starten. Die zunächst nur Englisch sprechende Software kann bisher Termine beim Friseur und Tische in Restaurants buchen sowie Öffnungszeiten erfragen. Für jedes neue Einsatzfeld müsse sie frisch angelernt werden, heisst es.
Googles Computerstimme wird sich als Computer zu erkennen geben, aber ...
Am Tag nach der Präsentation der Software hatte Lilian Rincon, eine der zuständigen Managerinnen, noch gesagt, es sei nicht entschieden, ob sich die Duplex-Software in Gesprächen ausdrücklich als Computerprogramm vorstellen werde. «Ich denke, dass sie immer sagen wird, dass sie für jemand anderen anruft», erklärte sie.
Nun stellt Google immerhin klar, dass sich die Computerstimme «angemessen zu erkennen geben» werde. Konkreter wird Google allerdings nicht: «Ob die Computerstimme nun sagt, hier ist Google, oder der Google Assistant oder Duplex, das muss noch festgelegt werden. Deswegen sagen wir offen, dass das eine Frage ist, die wir noch klären müssen.»
Damit ist das Problem natürlich nicht gelöst: Kriminelle können – Robortergesetz hin oder her – Sprachassistenten entwickeln, die sich bei betrügerischen Anrufen nicht als Roboter bzw. KI zu erkennen geben. Statt Inder rufen dann eben Roboter als angebliche Microsoft-Support-Mitarbeiter an, um PC-Nutzer abzuzocken.
Laut Rincon ist zudem noch offen, ob Google auch eine Version der Software entwickeln würde, die solche Anrufe auf der Seite der Unternehmen führen und Anrufe von menschlichen Kunden entgegennehmen könnte.
(oli/sda/dpa)
Selbst bei der Non-Profit-Organisation Open AI verdient der bestbezahlte Forscher 800 000 Dollar. Bei den Top-Unternehmen wie Google und Facebook, die keine Saläre ausweisen, dürfte es um einiges mehr sein.
Die Ergebnisse dieser Forschung sorgen diese Woche für Staunen. Sowohl Google als auch Microsoft veranstalteten ihre alljährliche Entwicklerkonferenz. Kaum ein neues Gerät, kaum ein Feature, das ohne KI auskommt: In Geschäftssitzungen übersetzt ein Assistent simultan verschiedene Sprachen.
Im Alltag hilft ein Assistent, der etwa selbstständig am Telefon einen Coiffeur-Termin vereinbaren kann. Und selbst in der Kamera sitzt nun die KI: Google Lens heisst eine neue Funktion, die erkennt, was auf einem Foto zu sehen ist – welches Gebäude etwa oder welche Baumart.
Die neuen Anwendungen funktionieren allerdings noch nicht einwandfrei. Das zeigt ein Test des Tech-Portals «Wired», bei dem ein grauer Pullover mit einem Elefant verwechselt worden ist. So ist es eben mit der KI: Bei vielem (Schach ist nur das prominenteste Beispiel) ist sie uns hoch überlegen, bei anderem aber noch immer dümmer als ein dreijähriges Kind. Es gibt also noch viel zu tun für die hoch dotierten Spezialisten.
Beispielsweise wäre da noch das Gorilla-Problem zu lösen. So kann zwar in der Foto-App von Google schon seit ein paar Jahren nach allen möglichen Tieren gesucht werden, nicht aber nach Menschenaffen. Zu gefährlich ist die Rassismus-Falle: Affen werden von der KI nämlich gern mit dunkelhäutigen Menschen verwechselt. (aargauerzeitung.ch)
