Wissen
Wir verwenden Cookies und Analysetools, um die Nutzerfreundlichkeit der Internetseite zu verbessern und passende Werbung von watson und unseren Werbepartnern anzuzeigen. Weitere Infos findest Du in unserer Datenschutzerklärung.
Roboter (Shutterstock)

Roboter wissen nicht, was richtig und was falsch ist. Sie müssen es lernen. Bild: Shutterstock

Interview mit Maschinen-Ethiker Oliver Bendel

«Suchmaschinen zeigen uns nur einen Ausschnitt der Wirklichkeit, das kann einer Lüge durchaus nahe kommen»

Intelligente Computerprogramme nehmen uns immer mehr Entscheidungen ab. Höchste Zeit, ihnen auch moralische Grundwerte beizubringen, sagt Maschinen-Ethiker Oliver Bendel. Ein Gespräch über Bettina Wulff, Self-Driving Cars und mitfühlende Staubsauger. 



Der Duden bringt auf seiner Webseite Asylbewerber in Zusammenhang mit den Wörtern «niederstechen» und «verbrennen». Ist das Lexikon rassistisch?
Oliver Bendel
: Nein, zumindest nicht vorsätzlich. Doch obwohl sie scheinbar wertfrei handelt, schleppt die Maschine Begriffe an, die eine schlechte Gesellschaft für den ‹Asylbewerber› darstellen. Dieser gerät ins Zwielicht. Die Wortwolke prägt sich ein.

Soll der Mensch in so einem Fall eingreifen?
Wenn der Mensch nicht das Recht hat, die Maschine zu korrigieren, wer dann? Wir sollten das in einigen Fällen tun, dabei den Benutzer aber immer informieren, was wir genau getan haben und warum.

«Mit ihrem Informationsbedürfnis heizen die Leute Gerüchte an. Und der Algorithmus macht es möglich.»

Müssen wir das wirklich wissen?
Ein grosses Problem ist, dass der User keine Ahnung hat, in welchem Verhältnis die Begriffe zueinander stehen. Das gilt auch für die Suchvorschläge von Google. Nehmen wir an, ein deutscher Wissenschaftler namens Ernst Meier beschäftigt sich 20 Jahre lang mit Pädophilie. Er schreibt Standardwerke darüber, hält Vorträge. Er wird bekannt, die Leute googeln nach ihm und seiner Arbeit.

... dann taucht im Suchfeld auf: ‹Ernst Meier Pädophilie›
Genau. Ein neuer Bekannter, der sich über Herrn Meier informieren will, dürfte entsetzt sein. Uns fehlt eine Information, die wichtig ist, und die Unternehmen stellen diese nicht zur Verfügung.

«Suchmaschinen zeigen nur einen Ausschnitt der Wirklichkeit, sie enthalten uns etwas vor. Das kann einer Lüge durchaus nahekommen.»

Oliver Bendel

Oliver Bendel konzipiert ethische Maschinen.

Das kann dem Ruf beträchtlich schaden.
Algorithmen der beschriebenen Art sind vielleicht nicht vorsätzlich gut oder böse. Aber indem sie lediglich einen Ausschnitt der Wirklichkeit zeigen, enthalten sie uns etwas vom Gesamtbild vor. Das kann einer Lüge oder einer Täuschung durchaus nahe kommen. Und letztlich kann es vom Betreiber auch so gewollt sein.

Wie meinen Sie das?
Bettina Wulff, die Frau des ehemaligen deutschen Bundespräsidenten, musste sich das Suchfeld mit unerwünschten Begriffen teilen. Sie ging vor ein paar Jahren rechtlich gegen Google vor. Das sorgte für Aufmerksamkeit und war schlussendlich auch gute PR für den Konzern.

Die Suchmaschine stellt doch einfach die virtuelle Realität dar.
Zunächst gab es um Frau Wulff nur Gerüchte. Diese brachten viele Menschen dazu, nach ihrer Vergangenheit zu googeln. Sie benutzten die Begriffe, von denen sie gehört hatten. Aufgrund des massenhaften Verhaltens hat die Autocomplete-Funktion dann «Bettina Wulff» und diese Begriffe angezeigt. Aber welche Wirklichkeit wird damit abgebildet? Nur die Wirklichkeit, welche die Benutzer im Kopf haben.

Eine Art selbsterfüllende Prophezeiung?
So ist es. Mit ihrem Informationsbedürfnis heizen die Leute Gerüchte an. Und der Algorithmus macht es möglich.

Kann man so etwas überhaupt verhindern?
Die Unternehmen müssten offenlegen, welche Wörter sie ausschliessen, wie die Wörter erfasst und bewertet werden. Welche Kombinationen sie zulassen und welche nicht. Zudem wären Informationen darüber wichtig, in welchen Beziehungen die Begriffe zueinander stehen. Hat sich der Journalist mit Sado-Maso beschäftigt oder übt er Sado-Maso aus? 

«Anna, der Chatbot von Ikea, reagiert nicht sonderlich sensibel, wenn ihr jemand sein Herz öffnet.»

Welche Gefahren lauern noch in einer Welt, in der Computerprogramme mehr und mehr an Einfluss gewinnen?
Sogenannte moralische Maschinen werden in naher Zukunft eine grosse Rolle spielen. Selbstfahrende Autos etwa werden mit Programmen ausgestattet, die ihnen ethische Entscheidungen bei einem Unfall ermöglichen. 

Das heisst?
Wenn ein Verlust von Leben nicht verhindert werden kann, würde das Fahrzeug eher einen alten als einen jungen Menschen überfahren. Ich halte nichts davon, solche Entscheidungen einem autonomen Auto zu überlassen. Ich finde es aber gut, wenn mich die Maschine davon abhält, in einen Stau oder in einen Hirsch zu rasen.

Können Maschinen wirklich moralisch handeln?
Ja, aber man muss es ihnen beibringen. Immer öfter werden Chatbots eingesetzt, etwa im Kundendienst. Sie können zwar Informationen vermitteln, erkennen aber nicht, wie es einem Menschen geht. Anna zum Beispiel, der Chatbot von Ikea, reagiert nicht sonderlich sensibel, wenn ihr jemand sein Herz öffnet. Mit Studenten arbeite ich an «Goodbot», dessen Stärken in dem Bereich liegen.

«Ein dummer Staubsauger saugt den Marienkäfer einfach auf. Ein intelligenter ruft ‹Jööh› – und stellt die Arbeit ein.»

Wo soll man diesen einsetzen?
Der Goodbot könnte eine Ergänzung zu jedem beliebigen Chatbot sein, etwa von Anna von Ikea. Wenn ein User schreibt «Ich will mich umbringen», redet ihm Goodbot gut zu und versucht ihn dazu zu bringen, professionelle Hilfe zu suchen. Dazu gibt er eine Notfall-Telefonnummer heraus.

Nicht schlecht. Haben Sie noch mehr Gutmaschinen auf Lager?
In der Tat. Ich habe Ladybird konzipiert, einen tierfreundlichen Saugroboter. Ein dummer Staubsauger saugt den Marienkäfer einfach auf. Ein intelligenter ruft «Jööh» – und stellt die Arbeit ein.

Zur Person

Oliver Bendel (46) ist Philosoph und Wirtschaftsinformatiker. Er lehrt und forscht als Professor an der Hochschule für Wirtschaft FHNW mit den Schwerpunkten E-Learning, Wissensmanagement, Social Media, Wirtschaftsethik, Informationsethik und Maschinenethik. Mehr auf www.oliverbendel.net

DANKE FÜR DIE ♥

Da du bis hierhin gescrollt hast, gehen wir davon aus, dass dir unser journalistisches Angebot gefällt. Wie du vielleicht weisst, haben wir uns kürzlich entschieden, bei watson keine Login-Pflicht einzuführen. Auch Bezahlschranken wird es bei uns keine geben. Wir möchten möglichst keine Hürden für den Zugang zu watson schaffen, weil wir glauben, es sollten sich in einer Demokratie alle jederzeit und einfach mit Informationen versorgen können. Falls du uns dennoch mit einem kleinen Betrag unterstützen willst, dann tu das doch hier.

Würdest du gerne watson und Journalismus unterstützen?

(Du wirst zu stripe.com (umgeleitet um die Zahlung abzuschliessen)

Oder unterstütze uns mit deinem Wunschbetrag per Banküberweisung.

Nicht mehr anzeigen

Das könnte dich auch noch interessieren:

Abonniere unseren Newsletter

Interview

1 Jahr Haft für 234 Menschenleben: An diesem Mann soll ein Exempel statuiert werden

Claus-Peter Reisch, früher konservativer Bayer und CSU-Wähler, heute Seenotretter im Mittelmeer. Für sein Engagement soll er nun in Malta verurteilt werden. Im Interview mit watson rechnet er mit Horst Seehofer, Matteo Salvini und der europäischen Flüchtlingspolitik ab. 

Eigentlich könnte Claus-Peter Reisch ein ruhiges, geordnetes Leben haben. Als selbstständig Erwerbender steht er finanziell auf sicherem Boden, mit seinem eigenen Segelboot zieht es ihn immer wieder in die Ferne. Doch jetzt ist Reisch zwischen die Fronten geraten. In Deutschland prangte sein Antlitz auf jeder Tageszeitung. 

Es ist 2015 als Reisch mit seiner Lebenspartnerin im Sommer nach Griechenland segelt. Die Flüchtlingskrise ist bereits in Gang. Er stellt sich die Frage: «Was tun wir, …

Artikel lesen
Link zum Artikel