Wissen
Digital

«Suchmaschinen zeigen uns nur einen Ausschnitt der Wirklichkeit, das kann einer Lüge durchaus nahe kommen»

Roboter wissen nicht, was richtig und was falsch ist. Sie müssen es lernen.
Roboter wissen nicht, was richtig und was falsch ist. Sie müssen es lernen.Bild: Shutterstock
Interview mit Maschinen-Ethiker Oliver Bendel

«Suchmaschinen zeigen uns nur einen Ausschnitt der Wirklichkeit, das kann einer Lüge durchaus nahe kommen»

Intelligente Computerprogramme nehmen uns immer mehr Entscheidungen ab. Höchste Zeit, ihnen auch moralische Grundwerte beizubringen, sagt Maschinen-Ethiker Oliver Bendel. Ein Gespräch über Bettina Wulff, Self-Driving Cars und mitfühlende Staubsauger. 
09.02.2015, 19:4410.02.2015, 13:41
Roman Rey
Folge mir
Mehr «Wissen»

Der Duden bringt auf seiner Webseite Asylbewerber in Zusammenhang mit den Wörtern «niederstechen» und «verbrennen». Ist das Lexikon rassistisch?
Oliver Bendel
: Nein, zumindest nicht vorsätzlich. Doch obwohl sie scheinbar wertfrei handelt, schleppt die Maschine Begriffe an, die eine schlechte Gesellschaft für den ‹Asylbewerber› darstellen. Dieser gerät ins Zwielicht. Die Wortwolke prägt sich ein.

Soll der Mensch in so einem Fall eingreifen?
Wenn der Mensch nicht das Recht hat, die Maschine zu korrigieren, wer dann? Wir sollten das in einigen Fällen tun, dabei den Benutzer aber immer informieren, was wir genau getan haben und warum.

«Mit ihrem Informationsbedürfnis heizen die Leute Gerüchte an. Und der Algorithmus macht es möglich.»

Müssen wir das wirklich wissen?
Ein grosses Problem ist, dass der User keine Ahnung hat, in welchem Verhältnis die Begriffe zueinander stehen. Das gilt auch für die Suchvorschläge von Google. Nehmen wir an, ein deutscher Wissenschaftler namens Ernst Meier beschäftigt sich 20 Jahre lang mit Pädophilie. Er schreibt Standardwerke darüber, hält Vorträge. Er wird bekannt, die Leute googeln nach ihm und seiner Arbeit.

... dann taucht im Suchfeld auf: ‹Ernst Meier Pädophilie›
Genau. Ein neuer Bekannter, der sich über Herrn Meier informieren will, dürfte entsetzt sein. Uns fehlt eine Information, die wichtig ist, und die Unternehmen stellen diese nicht zur Verfügung.

«Suchmaschinen zeigen nur einen Ausschnitt der Wirklichkeit, sie enthalten uns etwas vor. Das kann einer Lüge durchaus nahekommen.»
Oliver Bendel konzipiert ethische Maschinen.
Oliver Bendel konzipiert ethische Maschinen.

Das kann dem Ruf beträchtlich schaden.
Algorithmen der beschriebenen Art sind vielleicht nicht vorsätzlich gut oder böse. Aber indem sie lediglich einen Ausschnitt der Wirklichkeit zeigen, enthalten sie uns etwas vom Gesamtbild vor. Das kann einer Lüge oder einer Täuschung durchaus nahe kommen. Und letztlich kann es vom Betreiber auch so gewollt sein.

Wie meinen Sie das?
Bettina Wulff, die Frau des ehemaligen deutschen Bundespräsidenten, musste sich das Suchfeld mit unerwünschten Begriffen teilen. Sie ging vor ein paar Jahren rechtlich gegen Google vor. Das sorgte für Aufmerksamkeit und war schlussendlich auch gute PR für den Konzern.

Die Suchmaschine stellt doch einfach die virtuelle Realität dar.
Zunächst gab es um Frau Wulff nur Gerüchte. Diese brachten viele Menschen dazu, nach ihrer Vergangenheit zu googeln. Sie benutzten die Begriffe, von denen sie gehört hatten. Aufgrund des massenhaften Verhaltens hat die Autocomplete-Funktion dann «Bettina Wulff» und diese Begriffe angezeigt. Aber welche Wirklichkeit wird damit abgebildet? Nur die Wirklichkeit, welche die Benutzer im Kopf haben.

Eine Art selbsterfüllende Prophezeiung?
So ist es. Mit ihrem Informationsbedürfnis heizen die Leute Gerüchte an. Und der Algorithmus macht es möglich.

Kann man so etwas überhaupt verhindern?
Die Unternehmen müssten offenlegen, welche Wörter sie ausschliessen, wie die Wörter erfasst und bewertet werden. Welche Kombinationen sie zulassen und welche nicht. Zudem wären Informationen darüber wichtig, in welchen Beziehungen die Begriffe zueinander stehen. Hat sich der Journalist mit Sado-Maso beschäftigt oder übt er Sado-Maso aus? 

«Anna, der Chatbot von Ikea, reagiert nicht sonderlich sensibel, wenn ihr jemand sein Herz öffnet.»

Welche Gefahren lauern noch in einer Welt, in der Computerprogramme mehr und mehr an Einfluss gewinnen?
Sogenannte moralische Maschinen werden in naher Zukunft eine grosse Rolle spielen. Selbstfahrende Autos etwa werden mit Programmen ausgestattet, die ihnen ethische Entscheidungen bei einem Unfall ermöglichen. 

Das heisst?
Wenn ein Verlust von Leben nicht verhindert werden kann, würde das Fahrzeug eher einen alten als einen jungen Menschen überfahren. Ich halte nichts davon, solche Entscheidungen einem autonomen Auto zu überlassen. Ich finde es aber gut, wenn mich die Maschine davon abhält, in einen Stau oder in einen Hirsch zu rasen.

Können Maschinen wirklich moralisch handeln?
Ja, aber man muss es ihnen beibringen. Immer öfter werden Chatbots eingesetzt, etwa im Kundendienst. Sie können zwar Informationen vermitteln, erkennen aber nicht, wie es einem Menschen geht. Anna zum Beispiel, der Chatbot von Ikea, reagiert nicht sonderlich sensibel, wenn ihr jemand sein Herz öffnet. Mit Studenten arbeite ich an «Goodbot», dessen Stärken in dem Bereich liegen.

«Ein dummer Staubsauger saugt den Marienkäfer einfach auf. Ein intelligenter ruft ‹Jööh› – und stellt die Arbeit ein.»

Wo soll man diesen einsetzen?
Der Goodbot könnte eine Ergänzung zu jedem beliebigen Chatbot sein, etwa von Anna von Ikea. Wenn ein User schreibt «Ich will mich umbringen», redet ihm Goodbot gut zu und versucht ihn dazu zu bringen, professionelle Hilfe zu suchen. Dazu gibt er eine Notfall-Telefonnummer heraus.

Nicht schlecht. Haben Sie noch mehr Gutmaschinen auf Lager?
In der Tat. Ich habe Ladybird konzipiert, einen tierfreundlichen Saugroboter. Ein dummer Staubsauger saugt den Marienkäfer einfach auf. Ein intelligenter ruft «Jööh» – und stellt die Arbeit ein.

Zur Person
Oliver Bendel (46) ist Philosoph und Wirtschaftsinformatiker. Er lehrt und forscht als Professor an der Hochschule für Wirtschaft FHNW mit den Schwerpunkten E-Learning, Wissensmanagement, Social Media, Wirtschaftsethik, Informationsethik und Maschinenethik. Mehr auf www.oliverbendel.net
1 / 6
Frauen sollten...
Die Kampagne der UNO zeigt: Die Google-Autovervollständigung bringt sexistische Denkmuster ans Licht. (Anfragen vom 9. März 2013)
Auf Facebook teilenAuf X teilen
DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
twint icon
Oder unterstütze uns per Banküberweisung.
Das könnte dich auch noch interessieren:
6 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
Harold
09.02.2015 20:23registriert November 2014
Toller Artikel!!
202
Melden
Zum Kommentar
6
Russischer Propagandist verrät Putin-Plan – Moderator bricht Sendung ab
Ausserplanmässige Sendungsunterbrechung im russischen Staatsfernsehen: während einer Talkshow ist es in Russland zum Eklat gekommen.

In einer russischen Propaganda-Talkshow diskutieren die Teilnehmer über die Kriegspläne von Russlands Präsident Wladimir Putin. Doch plötzlich kommt es zu einer ungeplanten Unterbrechung der Sendung.

Zur Story