DE | FR
Wir verwenden Cookies und Analysetools, um die Nutzerfreundlichkeit der Internetseite zu verbessern und passende Werbung von watson und unseren Werbepartnern anzuzeigen. Weitere Infos findest Du in unserer Datenschutzerklärung.
Roboter (Shutterstock)

Roboter wissen nicht, was richtig und was falsch ist. Sie müssen es lernen. Bild: Shutterstock

Interview mit Maschinen-Ethiker Oliver Bendel

«Suchmaschinen zeigen uns nur einen Ausschnitt der Wirklichkeit, das kann einer Lüge durchaus nahe kommen»

Intelligente Computerprogramme nehmen uns immer mehr Entscheidungen ab. Höchste Zeit, ihnen auch moralische Grundwerte beizubringen, sagt Maschinen-Ethiker Oliver Bendel. Ein Gespräch über Bettina Wulff, Self-Driving Cars und mitfühlende Staubsauger. 



Der Duden bringt auf seiner Webseite Asylbewerber in Zusammenhang mit den Wörtern «niederstechen» und «verbrennen». Ist das Lexikon rassistisch?
Oliver Bendel
: Nein, zumindest nicht vorsätzlich. Doch obwohl sie scheinbar wertfrei handelt, schleppt die Maschine Begriffe an, die eine schlechte Gesellschaft für den ‹Asylbewerber› darstellen. Dieser gerät ins Zwielicht. Die Wortwolke prägt sich ein.

Soll der Mensch in so einem Fall eingreifen?
Wenn der Mensch nicht das Recht hat, die Maschine zu korrigieren, wer dann? Wir sollten das in einigen Fällen tun, dabei den Benutzer aber immer informieren, was wir genau getan haben und warum.

«Mit ihrem Informationsbedürfnis heizen die Leute Gerüchte an. Und der Algorithmus macht es möglich.»

Müssen wir das wirklich wissen?
Ein grosses Problem ist, dass der User keine Ahnung hat, in welchem Verhältnis die Begriffe zueinander stehen. Das gilt auch für die Suchvorschläge von Google. Nehmen wir an, ein deutscher Wissenschaftler namens Ernst Meier beschäftigt sich 20 Jahre lang mit Pädophilie. Er schreibt Standardwerke darüber, hält Vorträge. Er wird bekannt, die Leute googeln nach ihm und seiner Arbeit.

... dann taucht im Suchfeld auf: ‹Ernst Meier Pädophilie›
Genau. Ein neuer Bekannter, der sich über Herrn Meier informieren will, dürfte entsetzt sein. Uns fehlt eine Information, die wichtig ist, und die Unternehmen stellen diese nicht zur Verfügung.

«Suchmaschinen zeigen nur einen Ausschnitt der Wirklichkeit, sie enthalten uns etwas vor. Das kann einer Lüge durchaus nahekommen.»

Oliver Bendel

Oliver Bendel konzipiert ethische Maschinen.

Das kann dem Ruf beträchtlich schaden.
Algorithmen der beschriebenen Art sind vielleicht nicht vorsätzlich gut oder böse. Aber indem sie lediglich einen Ausschnitt der Wirklichkeit zeigen, enthalten sie uns etwas vom Gesamtbild vor. Das kann einer Lüge oder einer Täuschung durchaus nahe kommen. Und letztlich kann es vom Betreiber auch so gewollt sein.

Wie meinen Sie das?
Bettina Wulff, die Frau des ehemaligen deutschen Bundespräsidenten, musste sich das Suchfeld mit unerwünschten Begriffen teilen. Sie ging vor ein paar Jahren rechtlich gegen Google vor. Das sorgte für Aufmerksamkeit und war schlussendlich auch gute PR für den Konzern.

Die Suchmaschine stellt doch einfach die virtuelle Realität dar.
Zunächst gab es um Frau Wulff nur Gerüchte. Diese brachten viele Menschen dazu, nach ihrer Vergangenheit zu googeln. Sie benutzten die Begriffe, von denen sie gehört hatten. Aufgrund des massenhaften Verhaltens hat die Autocomplete-Funktion dann «Bettina Wulff» und diese Begriffe angezeigt. Aber welche Wirklichkeit wird damit abgebildet? Nur die Wirklichkeit, welche die Benutzer im Kopf haben.

Eine Art selbsterfüllende Prophezeiung?
So ist es. Mit ihrem Informationsbedürfnis heizen die Leute Gerüchte an. Und der Algorithmus macht es möglich.

Kann man so etwas überhaupt verhindern?
Die Unternehmen müssten offenlegen, welche Wörter sie ausschliessen, wie die Wörter erfasst und bewertet werden. Welche Kombinationen sie zulassen und welche nicht. Zudem wären Informationen darüber wichtig, in welchen Beziehungen die Begriffe zueinander stehen. Hat sich der Journalist mit Sado-Maso beschäftigt oder übt er Sado-Maso aus? 

«Anna, der Chatbot von Ikea, reagiert nicht sonderlich sensibel, wenn ihr jemand sein Herz öffnet.»

Welche Gefahren lauern noch in einer Welt, in der Computerprogramme mehr und mehr an Einfluss gewinnen?
Sogenannte moralische Maschinen werden in naher Zukunft eine grosse Rolle spielen. Selbstfahrende Autos etwa werden mit Programmen ausgestattet, die ihnen ethische Entscheidungen bei einem Unfall ermöglichen. 

Das heisst?
Wenn ein Verlust von Leben nicht verhindert werden kann, würde das Fahrzeug eher einen alten als einen jungen Menschen überfahren. Ich halte nichts davon, solche Entscheidungen einem autonomen Auto zu überlassen. Ich finde es aber gut, wenn mich die Maschine davon abhält, in einen Stau oder in einen Hirsch zu rasen.

Können Maschinen wirklich moralisch handeln?
Ja, aber man muss es ihnen beibringen. Immer öfter werden Chatbots eingesetzt, etwa im Kundendienst. Sie können zwar Informationen vermitteln, erkennen aber nicht, wie es einem Menschen geht. Anna zum Beispiel, der Chatbot von Ikea, reagiert nicht sonderlich sensibel, wenn ihr jemand sein Herz öffnet. Mit Studenten arbeite ich an «Goodbot», dessen Stärken in dem Bereich liegen.

«Ein dummer Staubsauger saugt den Marienkäfer einfach auf. Ein intelligenter ruft ‹Jööh› – und stellt die Arbeit ein.»

Wo soll man diesen einsetzen?
Der Goodbot könnte eine Ergänzung zu jedem beliebigen Chatbot sein, etwa von Anna von Ikea. Wenn ein User schreibt «Ich will mich umbringen», redet ihm Goodbot gut zu und versucht ihn dazu zu bringen, professionelle Hilfe zu suchen. Dazu gibt er eine Notfall-Telefonnummer heraus.

Nicht schlecht. Haben Sie noch mehr Gutmaschinen auf Lager?
In der Tat. Ich habe Ladybird konzipiert, einen tierfreundlichen Saugroboter. Ein dummer Staubsauger saugt den Marienkäfer einfach auf. Ein intelligenter ruft «Jööh» – und stellt die Arbeit ein.

Zur Person

Oliver Bendel (46) ist Philosoph und Wirtschaftsinformatiker. Er lehrt und forscht als Professor an der Hochschule für Wirtschaft FHNW mit den Schwerpunkten E-Learning, Wissensmanagement, Social Media, Wirtschaftsethik, Informationsethik und Maschinenethik. Mehr auf www.oliverbendel.net

DANKE FÜR DIE ♥
Würdest du gerne watson und Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet um die Zahlung abzuschliessen)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.

Das könnte dich auch noch interessieren:

Abonniere unseren Newsletter

Interview

«Über Social Media tragen Rechtsextreme ihre Ideologien in die Mitte der Gesellschaft»

Andre Wolf ist Faktenchecker bei der österreichischen Rechercheplattform Mimikama. In seinem Buch «Angriff auf die Demokratie» schreibt er über die Gefahren rechtsextremer Netzwerke, die das Internet unterwandern.

Herr Wolf, in Ihrem Buch schreiben Sie, dass seit Beginn der Pandemie intensiver Fake News verbreitet werden und der Hass im Netz zugenommen haben. Warum?Andre Wolf: Dieses Phänomen kann man immer dann beobachten, wenn etwas passiert, das viele Menschen betrifft und das Thema stark medial aufgegriffen wird. Im Fahrwasser der Berichterstattung tauchen dann viele Falschmeldungen auf. Das passierte schon 2015 bei der Flüchtlingskrise. Oder immer, wenn es islamistisch-motivierte Terroranschläge …

Artikel lesen
Link zum Artikel