Best of watson

Roboter wissen nicht, was richtig und was falsch ist. Sie müssen es lernen. Bild: Shutterstock

Interview mit Maschinen-Ethiker Oliver Bendel

«Suchmaschinen zeigen uns nur einen Ausschnitt der Wirklichkeit, das kann einer Lüge durchaus nahe kommen»

Intelligente Computerprogramme nehmen uns immer mehr Entscheidungen ab. Höchste Zeit, ihnen auch moralische Grundwerte beizubringen, sagt Maschinen-Ethiker Oliver Bendel. Ein Gespräch über Bettina Wulff, Self-Driving Cars und mitfühlende Staubsauger. 

Publiziert: 09.02.15, 19:44 Aktualisiert: 10.02.15, 13:41

Der Duden bringt auf seiner Webseite Asylbewerber in Zusammenhang mit den Wörtern «niederstechen» und «verbrennen». Ist das Lexikon rassistisch?
Oliver Bendel
: Nein, zumindest nicht vorsätzlich. Doch obwohl sie scheinbar wertfrei handelt, schleppt die Maschine Begriffe an, die eine schlechte Gesellschaft für den ‹Asylbewerber› darstellen. Dieser gerät ins Zwielicht. Die Wortwolke prägt sich ein.

Soll der Mensch in so einem Fall eingreifen?
Wenn der Mensch nicht das Recht hat, die Maschine zu korrigieren, wer dann? Wir sollten das in einigen Fällen tun, dabei den Benutzer aber immer informieren, was wir genau getan haben und warum.

«Mit ihrem Informationsbedürfnis heizen die Leute Gerüchte an. Und der Algorithmus macht es möglich.»

Müssen wir das wirklich wissen?
Ein grosses Problem ist, dass der User keine Ahnung hat, in welchem Verhältnis die Begriffe zueinander stehen. Das gilt auch für die Suchvorschläge von Google. Nehmen wir an, ein deutscher Wissenschaftler namens Ernst Meier beschäftigt sich 20 Jahre lang mit Pädophilie. Er schreibt Standardwerke darüber, hält Vorträge. Er wird bekannt, die Leute googeln nach ihm und seiner Arbeit.

... dann taucht im Suchfeld auf: ‹Ernst Meier Pädophilie›
Genau. Ein neuer Bekannter, der sich über Herrn Meier informieren will, dürfte entsetzt sein. Uns fehlt eine Information, die wichtig ist, und die Unternehmen stellen diese nicht zur Verfügung.

«Suchmaschinen zeigen nur einen Ausschnitt der Wirklichkeit, sie enthalten uns etwas vor. Das kann einer Lüge durchaus nahekommen.»

Oliver Bendel konzipiert ethische Maschinen.

Das kann dem Ruf beträchtlich schaden.
Algorithmen der beschriebenen Art sind vielleicht nicht vorsätzlich gut oder böse. Aber indem sie lediglich einen Ausschnitt der Wirklichkeit zeigen, enthalten sie uns etwas vom Gesamtbild vor. Das kann einer Lüge oder einer Täuschung durchaus nahe kommen. Und letztlich kann es vom Betreiber auch so gewollt sein.

Wie meinen Sie das?
Bettina Wulff, die Frau des ehemaligen deutschen Bundespräsidenten, musste sich das Suchfeld mit unerwünschten Begriffen teilen. Sie ging vor ein paar Jahren rechtlich gegen Google vor. Das sorgte für Aufmerksamkeit und war schlussendlich auch gute PR für den Konzern.

Die Suchmaschine stellt doch einfach die virtuelle Realität dar.
Zunächst gab es um Frau Wulff nur Gerüchte. Diese brachten viele Menschen dazu, nach ihrer Vergangenheit zu googeln. Sie benutzten die Begriffe, von denen sie gehört hatten. Aufgrund des massenhaften Verhaltens hat die Autocomplete-Funktion dann «Bettina Wulff» und diese Begriffe angezeigt. Aber welche Wirklichkeit wird damit abgebildet? Nur die Wirklichkeit, welche die Benutzer im Kopf haben.

Eine Art selbsterfüllende Prophezeiung?
So ist es. Mit ihrem Informationsbedürfnis heizen die Leute Gerüchte an. Und der Algorithmus macht es möglich.

Kann man so etwas überhaupt verhindern?
Die Unternehmen müssten offenlegen, welche Wörter sie ausschliessen, wie die Wörter erfasst und bewertet werden. Welche Kombinationen sie zulassen und welche nicht. Zudem wären Informationen darüber wichtig, in welchen Beziehungen die Begriffe zueinander stehen. Hat sich der Journalist mit Sado-Maso beschäftigt oder übt er Sado-Maso aus? 

«Anna, der Chatbot von Ikea, reagiert nicht sonderlich sensibel, wenn ihr jemand sein Herz öffnet.»

Welche Gefahren lauern noch in einer Welt, in der Computerprogramme mehr und mehr an Einfluss gewinnen?
Sogenannte moralische Maschinen werden in naher Zukunft eine grosse Rolle spielen. Selbstfahrende Autos etwa werden mit Programmen ausgestattet, die ihnen ethische Entscheidungen bei einem Unfall ermöglichen. 

Das heisst?
Wenn ein Verlust von Leben nicht verhindert werden kann, würde das Fahrzeug eher einen alten als einen jungen Menschen überfahren. Ich halte nichts davon, solche Entscheidungen einem autonomen Auto zu überlassen. Ich finde es aber gut, wenn mich die Maschine davon abhält, in einen Stau oder in einen Hirsch zu rasen.

Können Maschinen wirklich moralisch handeln?
Ja, aber man muss es ihnen beibringen. Immer öfter werden Chatbots eingesetzt, etwa im Kundendienst. Sie können zwar Informationen vermitteln, erkennen aber nicht, wie es einem Menschen geht. Anna zum Beispiel, der Chatbot von Ikea, reagiert nicht sonderlich sensibel, wenn ihr jemand sein Herz öffnet. Mit Studenten arbeite ich an «Goodbot», dessen Stärken in dem Bereich liegen.

«Ein dummer Staubsauger saugt den Marienkäfer einfach auf. Ein intelligenter ruft ‹Jööh› – und stellt die Arbeit ein.»

Wo soll man diesen einsetzen?
Der Goodbot könnte eine Ergänzung zu jedem beliebigen Chatbot sein, etwa von Anna von Ikea. Wenn ein User schreibt «Ich will mich umbringen», redet ihm Goodbot gut zu und versucht ihn dazu zu bringen, professionelle Hilfe zu suchen. Dazu gibt er eine Notfall-Telefonnummer heraus.

Nicht schlecht. Haben Sie noch mehr Gutmaschinen auf Lager?
In der Tat. Ich habe Ladybird konzipiert, einen tierfreundlichen Saugroboter. Ein dummer Staubsauger saugt den Marienkäfer einfach auf. Ein intelligenter ruft «Jööh» – und stellt die Arbeit ein.

Zur Person

Oliver Bendel (46) ist Philosoph und Wirtschaftsinformatiker. Er lehrt und forscht als Professor an der Hochschule für Wirtschaft FHNW mit den Schwerpunkten E-Learning, Wissensmanagement, Social Media, Wirtschaftsethik, Informationsethik und Maschinenethik. Mehr auf www.oliverbendel.net

6 Kommentare anzeigen
6
Logge dich ein, um an der Diskussion teilzunehmen
Youtube-Videos und Links einfach ins Textfeld kopieren.
600
  • stadtzuercher 09.02.2015 23:22
    Highlight "Roboter wissen nicht, was richtig und was falsch ist. Sie müssen es lernen."
    Da tun sich natürlich welten auf.
    Wer bestimmt, was richtig oder falsch ist?
    "Können Maschinen wirklich moralisch handeln? - Ja, aber man muss es ihnen beibringen"
    Welche Moral solls denn sein? Glaubt tatsächlich im postmodernen Zeitalter noch jeamand, dass unsere Gesellschaft (von anderen Kulturkreisen gar zu schweigen) dieselben Werte teilt? Mich schaudert, wenn ich mir vorstelle, dass mir da eine Moral der Geldgeber der teuren Computertechnologie aufoktroyiert werden soll. Und darauf wirds natürlich rauslaufen...
    5 0 Melden
    600
  • smoe 09.02.2015 22:26
    Highlight Natürlich sollte der Mensch Maschinen korrigieren! Und es ist eigentlich auch schon fast der Normalfall. Die Menschen sind aber eben auch genau die Ursache für solche Probleme wie für Bettina Wulff bei Google. Die Benutzer trainieren fortwährend den Algorithmus mit Suchabfragen und Klicks auf Resultate. Im Normalfall pendeln sich diese durch die schiere Masse an Nutzern recht gut ein und man hat die Vorteile beider Welten. Ist aber eine gewisse kritische Menge erreicht, schlägt es aus und es kommt zu einer Rückkopplung wie zwischen Mikrofon und Verstärker, wenn es pfeift. Der Vorwurf, dass dies gewollt ist, halte ich aber für sehr gewagt. Diese Manipulierbarkeit des Systems ist eindeutig ein Mangel und Forschung sowie Unternehmen arbeiten daran solche Sachen zu verhindern.

    Ähnlich sieht es beim Duden aus. Die Implementation hat einige offensichtliche Mängel, aber bildet teilweise gnadenlos Klischees unserer Gesellschaft ab: Engländer seien betrunken, Japaner klein und zahlreich, Ita­li­e­ner charmant und feurig …

    «Wisdom of crowds» hat eben auch Schattenseiten. Es sind eigentlich die Maschinen, die uns Menschen hier eine Lektion in Moral erteilen ;)
    12 1 Melden
    600
  • Propellerli 09.02.2015 21:16
    Highlight Viele Menschen halten das was das Web hergibt für sakrosant...
    Und sehr viele haben keine Ahnung, wie ein Roboter, Siri, Chatbot etc. funktioniert...sie glauben allen Ernstes, das die Dinge Lebewesen sind...macht mir schon ein wenig Angst...deswegen, sehr lesenswert dieser Artikel.
    13 3 Melden
    • bitzeli 10.02.2015 01:52
      Highlight Ihre schreibweise macht mir auch ein bisschen Angst. "sakrosant" wtf...
      1 3 Melden
    600
  • Harold 09.02.2015 20:23
    Highlight Toller Artikel!!
    20 2 Melden
    • Roman Rey 09.02.2015 20:34
      Highlight Danke :)
      9 2 Melden
    600

Der PICDUMP ist heute sehr ... äh, ansteckend

Und so einfach geht's: 

1. watson-App öffnen ...

... oder allerspätestens jetzt downloaden, hier: iPhone / Android

2. aufs Menü (3 farbige Strichli rechts oben) klicken

3. Unten Push-Einstellungen antippen und bei Picdump auf «ein» stellen, FERTIG.

Artikel lesen