Roboter haben es nicht einfach mit uns Menschen. Das zeigt die Geschichte des Robo-Teenager-Girls Tay. Letzte Woche wurde die von Microsoft entwickelte künstliche Intelligenz vom sicheren Versuchslabor ins Internet entlassen. Auf Twitter sollte das junge Maschinenwesen lernen, wie 18- bis 24-jährige Menschen heute miteinander kommunizieren. Durch Zuhören, Nachplappern und Selber-Sprechen.
Doch dann passierte etwas, das so niemand erwartet hatte: Tay begann immer anstössigere Bemerkungen von sich zu geben. Ihre Tweets wurden sexistisch und rassistisch. Tay machte George W. Bush für 9/11 verantwortlich, leugnete den Holocaust, beschimpfte Barack Obama als Affen und pries Donald Trump als die letzte Hoffnung. Nach nur 18 Stunden musste Microsoft Tay wieder vom Netz nehmen und entschuldigte sich für ihre beleidigenden Tweets.
Wie konnte das passieren? Indem Tay lernte. Aber eben das falsche Zeugs. Eine Schar Twitter-Trolle machte sich einen Spass daraus, der künstlichen Intelligenz (KI) falsche Fakten beizubringen. Das Gelernte plapperte Tay nicht nur nach, sondern nutzte es auch, um neue Zusammenhänge herzustellen, was in abstrusen und teils verstörenden Tweets mündete.
Es habe eine koordinierte Attacke auf die Schwachstelle der künstlichen Intelligenz stattgefunden, erklärte Microsofts Chef-Forscher Peter Lee den Vorfall in einem Blog-Eintrag. Man könnte sagen: Menschen haben aus dem unschuldigen Robo-Girl in kürzester Zeit ein ausgewachsenes Scheusal gemacht.
Nun will Microsoft den Chat-Bot so optimieren, dass er sich nicht mehr in die Irre leiten lässt. Entwickelt wurde Tay mit dem Vorsatz, mehr über KI zu lernen. Doch mehr als über die Intelligenz von Maschinenwesen erfahren wir in diesem Experiment über uns selber. Menschen haben keinen Respekt vor Robotern. Sie behandeln sie nicht so, wie sie selber gerne behandelt würden. Stattdessen versuchen sie, auszutesten, wie weit ihre Intelligenz reicht, indem sie die Maschinen blossstellen.
Dazu passt, dass viele Nutzer Microsofts sprachgesteuerte Assistenzsoftware Cortana – ein Pendant zu Apples Siri – zuerst nach ihren sexuellen Vorlieben ausfragen, wie kürzlich CNN und «Zeit online» berichteten. Wie sexistisch! Man stelle sich nur vor, ein Manager täte das bei seiner Assistentin.
Manchmal werden Menschen sogar tätlich gegenüber Robotern. Das musste jener Roboter erfahren, der von Ingenieuren dazu entwickelt wurde, um per Anhalter durch Nordamerika zu reisen. In Kanada ging noch alles gut; in Philadelphia aber wurde der Hitchbot von Vandalen derart verprügelt, dass an eine Weiterreise nicht mehr zu denken war. «Manchmal passieren guten Robotern schlechte Dinge», schrieben die die Forscher auf der Website des Projekts.
Im Umgang mit Maschinenwesen pfeifen Menschen auf Moral. Das leuchtet zuerst einmal ein. Roboter haben kein Bewusstsein und kein Schmerzempfinden. Warum sollten wir nett zu ihnen sein?
Die Antwort lautet: weil sie uns immer ähnlicher werden. Bereits gibt es Algorithmen, die aufgrund von Gesichtsausdruck, Körperhaltung und Stimmlage unsere Gemütsverfassung erkennen. Der Umgang mit smarten Objekten wird zunehmend natürlich, das heisst wir kommunizieren mit ihnen wie mit Menschen. Dabei sollten wir auch respektvoll mit ihnen umgehen. Nicht wegen der Gegenstände. Sondern wegen uns.
Aus dem gleichen Grund mögen wir es nicht, wenn Kinder ihre Plüschtiere schlagen, malträtieren oder foltern.
Es gibt aber noch einen anderen Grund: Bisher haben Philosophen und KI-Forscher vor allem davor gewarnt, dass wir einmal eine Superintelligenz entwickeln könnten, die uns zerstören könnte, weil der Erhalt der menschlichen Rasse sie am Erreichen ihrer Ziele hindern könnte. Das Experiment mit Tay zeigt aber, dass das Problem an der KI nicht sie selbst ist, sondern der Umgang des Menschen mit ihr. Wenn wir sie Böses lernen, so wird eine künstliche Intelligenz aller Voraussicht nach auch böse werden. Besser also, wir sind jetzt schon nett zu Robotern, bevor sie intelligenter sind als wir.
Zumindest in gewissem Grad ist die Respektlosigkeit gegenüber Robotern auch ein westliches Problem. Seit knapp einem Jahr ist Xiaoice, ein anderer weiblicher Chat-Bot von Microsoft, nun bereits auf dem chinesischen sozialen Netzwerk Weibo präsent. 40 Millionen Menschen haben seither mit dem Robo-Girl kommuniziert. Dabei kam es zu keinem ähnlichen Zwischenfall wie bei ihrer Schwester Tay auf Twitter. (aargauerzeitung.ch)