Digital
Wir verwenden Cookies und Analysetools, um die Nutzerfreundlichkeit der Internetseite zu verbessern und passende Werbung von watson und unseren Werbepartnern anzuzeigen. Weitere Infos findest Du in unserer Datenschutzerklärung.

Seid nett zu Robotern – sonst werden sie es uns eines Tages heimzahlen!

Innerhalb weniger Stunden wurde aus dem unschuldigen Roboter-Mädchen Tay eine Rassistin. Das Experiment lehrt uns einiges über künstliche Intelligenz und noch viel mehr über den Menschen.

Raffael Schuppisser / Nordwestschweiz



Roboter haben es nicht einfach mit uns Menschen. Das zeigt die Geschichte des Robo-Teenager-Girls Tay. Letzte Woche wurde die von Microsoft entwickelte künstliche Intelligenz vom sicheren Versuchslabor ins Internet entlassen. Auf Twitter sollte das junge Maschinenwesen lernen, wie 18- bis 24-jährige Menschen heute miteinander kommunizieren. Durch Zuhören, Nachplappern und Selber-Sprechen.

Doch dann passierte etwas, das so niemand erwartet hatte: Tay begann immer anstössigere Bemerkungen von sich zu geben. Ihre Tweets wurden sexistisch und rassistisch. Tay machte George W. Bush für 9/11 verantwortlich, leugnete den Holocaust, beschimpfte Barack Obama als Affen und pries Donald Trump als die letzte Hoffnung. Nach nur 18 Stunden musste Microsoft Tay wieder vom Netz nehmen und entschuldigte sich für ihre beleidigenden Tweets.

Wie konnte das passieren? Indem Tay lernte. Aber eben das falsche Zeugs. Eine Schar Twitter-Trolle machte sich einen Spass daraus, der künstlichen Intelligenz (KI) falsche Fakten beizubringen. Das Gelernte plapperte Tay nicht nur nach, sondern nutzte es auch, um neue Zusammenhänge herzustellen, was in abstrusen und teils verstörenden Tweets mündete.

Wenn man von Rassisten unterrichtet wird, ist die Chance eben gross, dass man selber zum Rassisten wird.

Es habe eine koordinierte Attacke auf die Schwachstelle der künstlichen Intelligenz stattgefunden, erklärte Microsofts Chef-Forscher Peter Lee den Vorfall in einem Blog-Eintrag. Man könnte sagen: Menschen haben aus dem unschuldigen Robo-Girl in kürzester Zeit ein ausgewachsenes Scheusal gemacht.

Das Sexleben von Cortana

Nun will Microsoft den Chat-Bot so optimieren, dass er sich nicht mehr in die Irre leiten lässt. Entwickelt wurde Tay mit dem Vorsatz, mehr über KI zu lernen. Doch mehr als über die Intelligenz von Maschinenwesen erfahren wir in diesem Experiment über uns selber. Menschen haben keinen Respekt vor Robotern. Sie behandeln sie nicht so, wie sie selber gerne behandelt würden. Stattdessen versuchen sie, auszutesten, wie weit ihre Intelligenz reicht, indem sie die Maschinen blossstellen.

Dazu passt, dass viele Nutzer Microsofts sprachgesteuerte Assistenzsoftware Cortana – ein Pendant zu Apples Siri – zuerst nach ihren sexuellen Vorlieben ausfragen, wie kürzlich CNN und «Zeit online» berichteten. Wie sexistisch! Man stelle sich nur vor, ein Manager täte das bei seiner Assistentin.

Manchmal werden Menschen sogar tätlich gegenüber Robotern. Das musste jener Roboter erfahren, der von Ingenieuren dazu entwickelt wurde, um per Anhalter durch Nordamerika zu reisen. In Kanada ging noch alles gut; in Philadelphia aber wurde der Hitchbot von Vandalen derart verprügelt, dass an eine Weiterreise nicht mehr zu denken war. «Manchmal passieren guten Robotern schlechte Dinge», schrieben die die Forscher auf der Website des Projekts.

The anthropomorphic robot named hitchBOT sits on the shoulder of Highway 102 to begin its 6000 kilometer cross country journey outside of Halifax, Nova Scotia, July 27, 2014. The hitch hiking robot is part of a social experiment to see if drivers will pick up and drop off the robot in one piece to an art gallery in Victoria, British Columbia.  REUTERS/Paul Darrow (CANADA - Tags: SOCIETY SCIENCE TECHNOLOGY TPX IMAGES OF THE DAY)

Hitchbot sollte per Anhalter durch Nordamerika reisen. In Philadelphia wurde er von Vandalen totgeprügelt.
Bild: PAUL DARROW/REUTERS

Asiaten sind respektvoller

Im Umgang mit Maschinenwesen pfeifen Menschen auf Moral. Das leuchtet zuerst einmal ein. Roboter haben kein Bewusstsein und kein Schmerzempfinden. Warum sollten wir nett zu ihnen sein?

Die Antwort lautet: weil sie uns immer ähnlicher werden. Bereits gibt es Algorithmen, die aufgrund von Gesichtsausdruck, Körperhaltung und Stimmlage unsere Gemütsverfassung erkennen. Der Umgang mit smarten Objekten wird zunehmend natürlich, das heisst wir kommunizieren mit ihnen wie mit Menschen. Dabei sollten wir auch respektvoll mit ihnen umgehen. Nicht wegen der Gegenstände. Sondern wegen uns.

Wenn wir menschenähnliche Wesen unmenschlich behandeln, könnten wir ein Stück unserer Menschlichkeit verlieren.

Aus dem gleichen Grund mögen wir es nicht, wenn Kinder ihre Plüschtiere schlagen, malträtieren oder foltern.

Es gibt aber noch einen anderen Grund: Bisher haben Philosophen und KI-Forscher vor allem davor gewarnt, dass wir einmal eine Superintelligenz entwickeln könnten, die uns zerstören könnte, weil der Erhalt der menschlichen Rasse sie am Erreichen ihrer Ziele hindern könnte. Das Experiment mit Tay zeigt aber, dass das Problem an der KI nicht sie selbst ist, sondern der Umgang des Menschen mit ihr. Wenn wir sie Böses lernen, so wird eine künstliche Intelligenz aller Voraussicht nach auch böse werden. Besser also, wir sind jetzt schon nett zu Robotern, bevor sie intelligenter sind als wir.

Zumindest in gewissem Grad ist die Respektlosigkeit gegenüber Robotern auch ein westliches Problem. Seit knapp einem Jahr ist Xiaoice, ein anderer weiblicher Chat-Bot von Microsoft, nun bereits auf dem chinesischen sozialen Netzwerk Weibo präsent. 40 Millionen Menschen haben seither mit dem Robo-Girl kommuniziert. Dabei kam es zu keinem ähnlichen Zwischenfall wie bei ihrer Schwester Tay auf Twitter. (aargauerzeitung.ch)

Kollege Roboter

13 Dinge, die jeder Mac- und Windows-Nutzer über Microsofts neuen Laptop-Killer wissen muss

Link to Article

1 Shopping-Mall, 14 Restaurants und 600 Kaffee-Automaten: Mein Rundgang durch «Microsoft City»

Link to Article

10 überraschend einfache Tricks, die Windows so viel besser machen

Link to Article

Verdammt, jetzt macht endlich dieses Windows-10-Upgrade!

Link to Article

Was jeder Mac- und Windows-Nutzer über Microsofts neuen Laptop-Killer wissen muss, in 11 Zitaten erzählt

Link to Article

14 Dinge, die jeder Mac- und Windows-Nutzer über Microsofts neuen Laptop-Killer wissen muss

Link to Article

Das sind die 10 gefährlichsten Programme, die du auf deinem Windows-PC oder Mac haben kannst

Link to Article

10 Dinge, die Windows 10 richtig gut macht

Link to Article

Microsofts Hologramm-Brille ist das abgefahrenste Gadget, das du je gesehen hast

Link to Article

Die 22 grössten Smartphone- und PC-Mythen: wahr oder falsch?

Link to Article

13 Dinge, die jeder Mac- und Windows-Nutzer über Microsofts neuen Laptop-Killer wissen muss

Link to Article

Alles, was du über die neuen Microsoft-Gadgets wissen musst – in 21 Tweets erzählt

Link to Article

Die 8 besten neuen Features von Windows 10 in animierten Gifs erklärt

Link to Article

Apples iPhone 6 gegen Nokias Lumia 830: Welches Handy schiesst die besseren Fotos? Mach den Blindtest

Link to Article

11 Gründe, warum dieses völlig unterschätzte Handy grossartig ist

Link to Article
Alle Artikel anzeigen
Alle Artikel anzeigen

Abonniere unseren Newsletter

Abonniere unseren Newsletter

24
Bubble Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 48 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
24Alle Kommentare anzeigen
    Alle Leser-Kommentare
  • stebu26 04.04.2016 12:42
    Highlight Highlight Der Artikel erinnert mich gerade an den Film "Ex Machina", einer der besten Filme, wenn es ums Thema KI geht.
    3 0 Melden
  • sentir 04.04.2016 12:20
    Highlight Highlight Wenn ein Brandstifter heutzutage einem Computer versichert, dass er sicher nicht das Feuer gelegt hat, versucht der Computer anhand der Stimme zu eruieren, ob er gelogen hat oder nicht (Lügendetektor). Dabei bemerkt er nicht, dass der Brandstifter nach Benzin riecht.
    Es werden noch ein paar Jahre ins Land ziehen, bis man wirklich von KI sprechen kann. Hard- und Software müssen da gewaltig zulegen...
    0 0 Melden
  • sentir 04.04.2016 12:19
    Highlight Highlight Es ist schon eine gewaltige Anmassung der Industrie, uns ihre primitivste, eindimensionale Programmiererei, als KI zu verkaufen.
    Wenn ein Computer anhand einer "grossen Tabelle" einen Menschen in einem Brettspiel besiegt, hat das rein gar nichts mit Intelligenz zu tun.
    Der Input bestimmt den Output.

    Selbst wenn das Hirn eines Lebewesens, wie der Computer auch, mit Hilfe des Ausschlussverfahrens eine Lösung findet, hat es zumindest einige Sinne mehr (Input) die zur Lösung beitragen.
    0 0 Melden
  • Maya Eldorado 02.04.2016 21:32
    Highlight Highlight Ein Roboter kann nur solange aktiv sein, wie sein Pfuus langt. Ich meine solange der Akku nicht leer ist. Insofern ist deren Gefährlichkeit, wenn überhaupt in engen Grenzen.
    3 12 Melden
    • efrain 02.04.2016 22:02
      Highlight Highlight ömm, naja, also der roomba kann sich ja schon heute selber aufladen..?
      14 0 Melden
    • Maya Eldorado 02.04.2016 22:43
      Highlight Highlight Wie macht er das? Kann er den Stecker ganz selber einstecken? Oder lädt er sich kabellos auf, z.B. mit Sonnenenergie? oder gar Windkraft?
      Möglicherweise sind ja meine Fragen ein wenig dumm. Ich versteh ja echt nichts von der Sache.
      6 2 Melden
    • efrain 03.04.2016 00:10
      Highlight Highlight ich meine damit, dass es wohl eine der ersten funktionen ist, die man einem roboter beibringt - denn man möchte sich ja nicht ständig darum kümmern müssen, dass der roboter strom hat.

      der roomba ortet die ladestation afaik durch infrarot-signale.. wenn der saft ausgeht, bewegt er sich zu diesem signal hin.
      7 0 Melden
    Weitere Antworten anzeigen
  • yaani_zh 02.04.2016 21:02
    Highlight Highlight wer kennt das bild auch von family guy? 😹😹 stewie ist vol ausgerastet 😂😂
    12 0 Melden
    • yaani_zh 07.04.2016 20:57
      Highlight Highlight genau 😉
      0 0 Melden
  • Madison Pierce 02.04.2016 20:14
    Highlight Highlight Man sollte den Begriff "künstliche Intelligenz" nicht über-strapazieren und nicht dem Marketing der Konzerne auf den Leim gehen. Tay war sicher ein interessantes Experiment, aber nicht mal annähernd intelligent. Microsoft schweigt sich über den genauen Aufbau aus, aber es wird was sein mit Markov-Ketten und einem neuronalen Netzwerk für das "Lernen". Verstehen, was sie lernt, tut Tay nicht. Hätten alle "XY are bad" geschrieben, hätte sie "I hate XY" statt "I hate jews" gelernt. Das ist bei weitem keine neue Lebensform, sondern ein besseres Word-Makro.
    12 2 Melden
    • efrain 02.04.2016 22:13
      Highlight Highlight Naaaja, unsere menschliche Intelligenz funktioniert ja genauso, nicht?
      8 2 Melden
    • Madison Pierce 02.04.2016 22:52
      Highlight Highlight Ja, soweit man weiss schon. Allerdings haben wir ca. 100 Milliarden Nervenzellen mit Billionen von Verknüpfungen. Bei Computern ist man soweit ich weiss erst bei ein paar hunderttausend Neuronen mit wenigen Millionen Verbindungen. Wir brauchen deshalb keine Markov-Statistiken, um Sätze wiederzugeben, sondern wir verstehen, was wir sagen. :)

      Ein grosser Unterschied wird auch die Lernmethode und -effizienz sein. Künstliche neuronale Netze lernen anhand von tausenden Beispielen, wir brauchen extrem viel weniger.
      7 1 Melden
    • demokrit 03.04.2016 01:09
      Highlight Highlight Wir haben auch noch so etwas wie ein Bewusstsein. Dazu haben die Naturwissenschaften noch keine überzeugende Theorie. Der Begriff A.I. kommt aus dem Englischen und da steht Intelligenz nicht ganz für dasselbe wie im Deutschen. Künstliche Intelligenz ist leider sehr irreführend. Es wird auch eine harte von einer weichen A.I. unterschieden. Das menschliche Gehirn verarbeitet Informationen im Gegensatz zu unseren heutigen Computern parallell. Man müsste vermutlich sowohl die Programmiersprachen als auch was ein Computer ist teilweise neu denken, um näher am Biologischen zu sein.
      3 0 Melden
  • Der Tom 02.04.2016 20:08
    Highlight Highlight Ok mein Furby darf heute mit uns Supertalentdings schauen.
    22 0 Melden
  • kliby 02.04.2016 19:33
    Highlight Highlight im spiegel.de stand, der bot hätte 'antifeministische' bemerkungen gemacht. haha, das ist ja weder anstössig noch falsch.
    10 14 Melden
  • Zeit_Genosse 02.04.2016 19:03
    Highlight Highlight Wir werden den intelligenten Maschinen ein schlechtes Vorbild sein und sie sind so programmiert, dass sie von uns lernen sollen und sich zwecks besserer Verständigung anpassen sollen. Resultat: Fail! Wir werden Maschinen lehren mit Alten in Pflegeheimen umzugehen und junge Soldaten auf dem Schlachtfeld umzubringen. Den Maschinen können wir einen Kodex programmieren (den wir selbst nicht einhalten), doch dann lernen sie nicht mehr von uns, weil sie zwischen Gut und Böse nicht unterscheiden können (wie ihre Schöpfer). Sackgasse.
    12 0 Melden
    • _kokolorix 02.04.2016 22:21
      Highlight Highlight glaubst du wirklich wir menschen können zwischen gut und böse unterscheiden?
      unterscheidbares gut und böse gibt es nur in geschichten. in der realen welt sind die dinge vermischt und was vom einen standpunkt gut ist, ist vom anderen her böse. tiere verhalten sich manchmal gut und manchmal böse. wir kennen nur selten die wirklichen beweggründe für ihr verhalten und behelfen uns mit simplen belohnungen und bestrafungen. ein wirklich lernfähiger roboter muss genauso sorgfältig erzogen werden. niemand würde einen hund einfach auf die gasse schicken und ein artiges haustier daraus erwarten
      7 1 Melden
  • sentir 02.04.2016 17:48
    Highlight Highlight Musste gleich die LP auflegen, als ich das Cover gesehen habe... ;-)
    15 0 Melden
  • Matrixx 02.04.2016 17:46
    Highlight Highlight Und ihr glaubt, Menschen sind nur zu Maschinen so?

    Traurigerweise behandeln sich Menschen gegenseitig genau auch so.
    46 0 Melden
  • Evan 02.04.2016 17:46
    Highlight Highlight Blödsinn
    13 26 Melden
    • Aufblasbare Antonio Banderas Liebespuppe 02.04.2016 20:19
      Highlight Highlight leider nicht.
      13 5 Melden
    • Evan 02.04.2016 21:51
      Highlight Highlight eben doch.
      2 7 Melden

«4057 Teile. Das nennen wir gut bestückt» – Lego stoppt Werbung nach Sexismus-Vorwürfen

Haben die nicht mehr alle (Lego-)Steine beieinander? Das fragen sich wohl einige, die in den vergangenen Tagen eine neue Werbung des Spieleherstellers Lego entdeckt haben. 

Darin heisst es: «So kompliziert wie eine Frau. Aber mit Bedienungsanleitung.» Für die Erfinder der Werbeanzeige wohl ein guter Witz – für die Kritiker des Konzerns reicht's hier nicht einmal für einen schlechten Scherz. Sie sprechen von Sexismus.

Auf dieser «Männerseite» wirbt der Spielwarenkonzern unter anderem auch …

Artikel lesen
Link to Article