Digital

Google brachte seinen autonomen Autos bei, Kinder an Halloween zu erkennen und vorsichtiger zu fahren.
Bild: Google

Selbstfahrende Autos finden wir toll – aber eines, das uns im Zweifelsfall tötet, wollen wir nicht

Man könnte autonomen Fahrzeugen beibringen, die Zahl der Toten bei Unfällen zu minimieren. Maschinen-Ethiker Oliver Bendel warnt: Wenn die Gesellschaft nicht mitreden darf, könnten bald Autos brennen.

04.11.15, 09:58 05.11.15, 05:01

Wir schreiben eine nicht allzu ferne Zukunft: Eine Gruppe von Kindern überquert unerwartet die Strasse. Ein selbstfahrendes Auto rast auf sie zu und kann nicht mehr rechtzeitig bremsen. Was soll das Auto tun? Links aufs Trottoir ausweichen, wo gerade ein Rentner steht? Oder rechts in die Wand fahren und den Tod der Insassen in Kauf nehmen?

Mit diesen Fragen beschäftigen sich die Forschungsabteilungen der Autohersteller schon länger. Forscher der Ecole d'économie de Toulouse haben nun mit einer Umfrage versucht, den Puls des Volkes zu fühlen.

Das Team unter dem Psychologen Jean-François Bonnefon konfrontierte 900 mit ethischen Fragen, die sich am altbekannten Trolley-Problem (siehe Infobox) orientieren. Das Resultat: 75 Prozent der Leute sprechen sich dafür aus, dass das Auto den Insassen tötet, sogar um nur einen Fussgänger zu retten.

Wie soll das Auto reagieren?
Ecole d'économie de Toulouse

Viel zögerlicher reagierten die Teilnehmer, als es darum ging, ob sie ein Auto mit einer solchen Programmierung kaufen würden – denn das würde ja bedeuten, dass das Fahrzeug sie im Falle eines Unfalls «opfern» könnte.

Maschinen-Ethiker Oliver Bendel erläutert im Gespräch, wo die Tücken einer solchen Programmierung liegen und warum die Debatte darüber unbedingt in der Öffentlichkeit stattfinden muss.

Herr Bendel, kann eine Maschine ethische Entscheidungen treffen?
Oliver Bendel: Auf jeden Fall. Man kann einer Maschine moralische Regeln beibringen, die sie sklavisch anwendet. Oder man kann sie lernen lassen und ihr die Möglichkeit geben, eigene Entscheidungen zu treffen.

Die Maschine kann aber nicht intuitiv handeln wie der Mensch. Da fehlt doch etwas.
Die Moral des Menschen setzt sich aus verschiedenen Komponenten zusammen: Ein Teil ist angeboren, einen Teil erwirbt man durchs Umfeld, ein Teil entsteht aus rationalem Denken. Und dort kann die Maschine durchaus mithalten.

«Was, wenn Kinder im Auto sind? Sind sie auch mitverantwortlich?»

Oliver Bendel

Soll also ein Auto bei einem Unfall über Leben und Tod der Beteiligten entscheiden?
Ich halte das für keine gute Idee. Das würde auch unser Wertesystem durcheinanderbringen. Wenn ein autonomes Auto entscheidet, den Lenker zugunsten zweier Fussgänger oder einen Rentner zugunsten eines Kindes zu «opfern», sprechen wir von der Anwendung bestimmter utilitaristischer Prinzipien. In unserer Kultur hat jedoch das individuelle Leben einen sehr hohen Stellenwert.

Das Trolley-Problem

Das Trolley-Problem ist ein Gedankenexperiment zu einem moralischen Dilemma. Die Situation ist wie folgt:

​Eine Strassenbahn ist ausser Kontrolle und droht, fünf Menschen zu töten. Du sitzt an einer Weiche und kannst die Bahn auf ein anderes Gleis umleiten. Dort steht aber eine weitere Person. Darf man den Tod einer Person in Kauf nehmen, um fünf andere zu retten?

​Eine Variation ist das Fetter-Mann-Problem: In diesem Szenario fährt die Bahn auf eine Gruppe von Menschen zu. Man kann sie nur stoppen, indem man einen unbeteiligten fetten Mann von einer Brücke aufs Gleis stösst.

​Im Kern des Experiments steht der Utilitarismus: Er besagt, dass die gesamte Menge an Leid minimiert werden soll.

Obwohl das Trolley-Problem aus den Sechziger-Jahren stammt, gewinnt es heute wegen den fahrerlosen Autos wieder an Aktualität.​ (rey)

Das Auto soll also in die Menschengruppe rasen.
Es gibt Leute die sagen, das Auto soll in eine Wand fahren, weil der Besitzer des Autos die Verantwortung trägt. Aber was, wenn mehrere Personen im Fahrzeug sind? Darunter Kinder? Sind sie auch mitverantwortlich? Und kann man wirklich noch von Verantwortung sprechen, wenn man dem Fahrer das Fahrzeug aufgedrängt hat?

Gute Frage ...
Ausserdem tauchen bei der Verarbeitung des Unfalls neue Probleme auf. Auf wen sollen die Eltern ihre Wut richten, wenn ein Auto entschieden hat, ihr Kind umzufahren? Es mag sich bequem anhören, als Autofahrer die Verantwortung aus der Hand zu geben. Aber ich glaube nicht, dass man in einem solchen Fall besser schläft.

«Wenn die Maschinen alles übernehmen, wird das Leben irgendwann todlangweilig.»

Oliver Bendel

Selbstfahrende Autos gelten als Hoffnung, Unfälle drastisch zu reduzieren. Wenn sie alle heiklen Situationen dem Menschen überlassen, dann bleibt aber alles beim Alten.
Es gibt weltweit jedes Jahr eine Million Verkehrstote. Das sind viel zu viele. Ich bin dafür, dass wir die Fahrerassistenzsysteme, die wir jetzt schon haben, weiter ausbauen. Bevor ich in ein Stauende rase, darf mein Fahrzeug eine Vollbremsung machen, ohne mich zu fragen. Der Fahrer soll aber eine gewisse Kontrolle über sein Fahrzeug behalten dürfen.

Nicht so wie bei den Google-Autos, die weder Pedale noch Lenkrad haben.
Wo bleibt da der Spass? Vielleicht will ich mich von meinem Auto von Genua nach Mailand fahren lassen, auf der Alpenstrasse aber das Steuer übernehmen. Einfach, weil es mir Freude bereitet und weil ich meine Fähigkeiten einsetzen kann. Maschinen können uns das Leben erleichtern, aber wenn sie alles machen, wird es irgendwann todlangweilig.

So oder so, die selbstfahrenden Autos kommen. Wer entscheidet über ihre Moral?
Mit diesen Fragen beschäftigt sich unter anderem die Maschinenethik, eine Disziplin, in der Philosophen, Experten für Künstliche Intelligenz und Informatiker zusammenarbeiten. Wir brauchen zudem eine breite öffentliche Debatte.

«Wenn die Gesellschaft bei dem Thema nicht mitreden kann, wird es Widerstand geben.»

Oliver Bendel

Könnte man den Besitzer des Autos bestimmen lassen, welches Moralprogramm er will?
Das ist eine interessante Idee, aber das würde kaum akzeptiert. Kann sich dann jemand, der es sich leisten kann, die Vorfahrt kaufen? Oder den Überlebensbonus im Falle eines Crashs? Ich glaube, es funktioniert nur, wenn alle autonomen Fahrzeuge mit einem ähnlichen System ausgerüstet sind.

Da ist die Autoindustrie gefragt. Was sagt sie dazu?
Was in den Forschungsabteilungen der Autohersteller passiert, ist leider topsecret. Das ist gefährlich. Solche Entscheidungen dürfen nicht von oben herab gefällt werden. In Deutschland droht dies, weil autonome Fahrzeuge ein enormes Prestigeprojekt sind. Dank der grossen Unterstützung der Politik sind in Deutschland seit einem Monat autonome LKWs unterwegs. Wenn die Gesellschaft bei dem Thema nicht mitreden kann, wird es Widerstand geben.

Das heisst?
Als Folge der industriellen Revolution gab es die Maschinenstürmer, die Maschinen zerstört haben, weil sie sich in ihrer Existenz bedroht fühlten. Es könnte zu einer ähnlichen Protestbewegung kommen. Nur würden in diesem Fall Autos brennen.

«Erstmals in ihrer über 2000-jährigen Geschichte ist die Ethik eine Gestaltungsdisziplin.»

Oliver Bendel

Zur Person

Oliver Bendel, 47 Jahre alt, ist Philosoph und Wirtschaftsinformatiker. Er lehrt und forscht als Professor an der Hochschule für Wirtschaft FHNW mit den Schwerpunkten E-Learning, Wissensmanagement, Social Media, Wirtschaftsethik, Informationsethik und Maschinenethik. Mehr auf www.oliverbendel.net.

Wie können wir das verhindern?
Ich sehe hier nur eine Lösung: Man muss den normalen Verkehr von den autonomen Autos trennen. Das könnte man mit eigenen Strassen oder Fahrspuren, ähnlich den Velowegen, machen. Oder man könnte selbstfahrende Autos nur zu bestimmten Zeiten fahren lassen. Nur wenn ein Technologieskeptiker weiss, dass keine Roboterautos unvermittelt um die nächste Ecke kommen, wird er sich mit deren Existenz anfreunden.

Die Technik schreitet schnell voran. Hinkt die ethische Debatte hinterher?
Nein, im Gegenteil. Für Technikphilosophen, die sich damit beschäftigen, ist dies eine sehr spannende Zeit. Erstmals in ihrer über 2000-jährigen Geschichte ist die Ethik eine Gestaltungsdisziplin. Wir können die Realität mitprägen, statt sie nur zu beschreiben und zu hinterfragen.

Das beschränkt sich nicht nur auf Autos.
Richtig. Das Pentagon investiert beispielsweise viel Geld in die Maschinenethik. Auch bei Kriegsrobotern und -drohnen stellen sich ethische Fragen. Nehmen wir an, ein Roboter spürt einen Top-Terroristen auf, den er töten soll – im Haus sind aber auch 30 Kinder. Was tut er?

Ethik für Killerroboter. Das hört sich zynisch an.
Ein Kollege stellte schon vor einiger Zeit fest: Im Gegensatz zu Soldaten vergewaltigen Kampfroboter nicht, sie brandschatzen nicht, sie plündern nicht. Obwohl ich zugeben muss, dass die Sache nicht ganz so schwarz-weiss ist, wie sie auf den ersten Blick scheint, sind sie mir deswegen doch nicht sympathisch. 

Googles selbstfahrende Autos

Hol dir die App!

Brikne, 20.7.2017
Neutrale Infos, Gepfefferte Meinungen. Diese Mischung gefällt mir.
Abonniere unseren NewsletterNewsletter-Abo
56
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 72 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
56Alle Kommentare anzeigen
    Alle Leser-Kommentare
  • xHascox 16.07.2017 23:41
    Highlight Könnte man den Besitzer des Autos bestimmen lassen, welches Moralprogramm er will?
    Das ist eine interessante Idee, aber das würde kaum akzeptiert. Kann sich dann jemand, der es sich leisten kann, die Vorfahrt kaufen? Oder den Überlebensbonus im Falle eines Crashs?

    Man könnte doch das Moralprogramm auswählen und Offline und Open Sorce laufen lassen? Dann kann man keine Vorfahrt kaufen und auch kein Überlebensbonus? Es geht ja nur drum ob man lieber sich oder jmd anderes umbringt. Kann ja jeder selber entscheiden. (auch besser so find ich)
    0 0 Melden
  • Charles-Louis Joris 07.11.2015 15:54
    Highlight Bevor so was überhaupt je zugelassen werden darf, muss unbedingt die Verantwortlichkeit bei einem Unfall legiferiert werden.
    Ein Insasse müsste meiner Meinung nach verantwortlich bleiben, auch wenn es ein reiner Softwarefehler war. Am liebsten wäre mir, dass derlei weit getriebene Robotik überhaupt nicht je auf die Strasse käme.
    1 3 Melden
  • Likos 04.11.2015 21:14
    Highlight Diese Gedankenexperimente sind doch das selbe wie das Kinderporno Argument bei totaler Überwachung...
    Solche Situationen können niemals eintreten. Ich mein dazu müsste so ein Auto keine 5 Meter weit "sehen" können und dabei noch 50+ kmh fahren.
    Ein autonomes Auto braucht keine ethischen Richtlinien es wird nämlich immer rechtzeitig eine richtige und perfekte Notbremsung vollziehen können und mehr muss es auch nicht können um unschuldig zu sein.

    Damit will ich solche Autos nicht heilig sprechen, da gibt es sicher noch genug andere Probleme und Fragen, nur solche Experimente gehören nicht dazu.
    4 7 Melden
    • Mafi 04.11.2015 22:21
      Highlight Einverstanden. Wenn es noch reagieren kann, dann kann es auch etwas anderes wie einen für die Insassen tödlichen Crash machen, wenigstens in 99,99% der Fälle.
      1 0 Melden
    • zettie94 04.11.2015 22:29
      Highlight Wenn ein Kind hinter einem parkierten Lastwagen hervor auf die Strasse tritt, nützt es auch nichts, wenn das Auto 100m weit "sehen" kann - durch den Lastwagen durchsehen kann es deswegen trotzdem nicht. Und vielleicht ist ja dann noch die Strasse nass/glatt...
      9 0 Melden
    • Hatzman 05.11.2015 09:11
      Highlight zettie94
      Sie können nicht durch einen Lastwagen sehen, aber 2 sachen dazu
      1. Dieses Szenario ist für die 'Ethikfrage' irrelevant, weil der Mensch da auch keine Möglichkeit hat zu reagieren
      2. Google hat schon bewiesen, dass ihre Sensoren mehr sehen als das menschliche Auge, an einer Kreuzung wurde von dem selbstfahrenden Auto auf einen Fahrradfahrer gewartet den beide insassen nicht gesehen haben.
      Wenn man das ausbaut, kann man auch sicher während des Fahrens erkennen ob da etwas auf die Fahrbahn gesprintet kommt
      1 0 Melden
  • wasylon 04.11.2015 19:45
    Highlight Lesenswerter Blog von Harald Jenk zu dem Thema. http://www.jenk.ch/selbstfahrende-autos-swisscom-chancen/
    0 0 Melden
  • censored 04.11.2015 13:41
    Highlight Das Auto hat sich zu jeder Zeit an die Verkehrsregeln zu halten. Es darf nicht von der Strasse abweichen. Wenn es nicht mehr reicht um zu Bremsen hat man Pech gehabt (Passanten und Autofahrer)
    10 0 Melden
    • Hatzman 04.11.2015 14:36
      Highlight Jaaaa
      Noch jemand mit Verstand <3
      7 0 Melden
  • atomschlaf 04.11.2015 13:21
    Highlight Als potentieller Autokäufer würde ich selbstverständlich erwarten, dass das Auto in meinem besten Interesse handelt, d.h. dass es Gesundheit und Leben der Insassen bestmöglich schützt.
    Sonst lieber mit einer alten Schwarte selbst fahren. ;)
    9 3 Melden
    • Roman Rey 04.11.2015 13:23
      Highlight Und als Fussgänger?
      5 5 Melden
    • Mafi 04.11.2015 22:22
      Highlight Da rennt man nicht auf die Strasse.
      5 3 Melden
    • xHascox 16.07.2017 23:45
      Highlight @Roman Rey Ja, als Fussgänger willst du nicht, dass das Auto dich statt die Insassen tötet. Aber bei menschlichen Lenker(innen) hast du auch keine Garantie...
      0 0 Melden
  • Gelöschter Benutzer 04.11.2015 13:18
    Highlight ich fürchte, dass wir da nicht gross mit entscheiden werden können. die versicherungen wissen, dass 99.99% (oder so ;) ) aller unfälle durch menschliches versagen entstehen. entsprechend vermute ich, werden sie die prämien für das nicht autonome fahren ins unendliche erhöhen...
    für das ethik problem denke ich schon, ist das einführen einer "autonomous lane" o.ä. am besten und zwar so, dass fussgänger nichtmehr draufkönnen à la autobahn. in der entfernteren zukunft dürften die normalen strassen dann wohl abgebaut werden. wie seht ihr das?
    5 0 Melden
  • kEINKOmmEnTAR 04.11.2015 13:16
    Highlight Ich sehe nicht ein wieso wir zwei Strassensystem brauchen sollten.

    Wer mag fährt mit den neuen Autos, die anderen mit den Alten.
    3 0 Melden
    • Gelöschter Benutzer 04.11.2015 13:34
      Highlight ...das löst aber das who to kill problem nicht...
      5 1 Melden
    • kEINKOmmEnTAR 04.11.2015 13:42
      Highlight Das ist doch ganz klar:
      Im obersten Beispiel der Renter (er hat am wenigsten lang zu leben und kann sich nicht fortpflanzen) und im nächsten Beispiel der Fahrer da das Kind wertvoller ist etc.

      Berechnungsgrundlage wäre z.B.:
      Renter - 0.2
      Erwachsene - 0.5
      Jugendlicher - 0.7
      Kind - 0.9
      Baby - 1.0

      Abzüge:
      Medizinisch krank - -0.5
      Geistig krank - -0.8
      Schlecht für die Umwelt - -0.3

      Und ja es wird wohl auch Zuzüge geben:
      ...


      Ich werde mich mit diesem Kommentar zwar nicht beliebt machen aber eine solche Aufstellung wir es sowieso irgendwann geben. Je eher man es akzeptiert, desto besser.
      7 11 Melden
    • Roman Rey 04.11.2015 14:14
      Highlight Das ist jetzt aber vollgas utilitaristisch. Dann müsste man auch aufhören, ältere Menschen zu operieren, weil sie zu teuer sind. Ein ausser Kontrolle geratenes (oder von Terroristen gesteuertes) Passagierflugzeug abschiessen, weil es auf ein besiedeltes Gebiet zufliegt. Einen Menschen foltern, um möglicherweise andere zu retten.

      Das tun wir aber nicht. Weil wir andere Werte haben.
      11 1 Melden
    • ovatta 04.11.2015 14:14
      Highlight Bei Wildunfällen sagt man ja: draufhalten ausser es ist ein Elch!
      6 0 Melden
    • Charlie Brown 04.11.2015 18:10
      Highlight Bei mir hörtsdort auf, wo ein geistig behinderter Mensch offensichtlich kein Recht mehr auf überleben hat. Verdammt nah an ganz gruusigem Gedankengut. Bin grad ein wenig angewiedert.
      9 1 Melden
    • Gelöschter Benutzer 04.11.2015 19:07
      Highlight @tell99 wohl wahr. kennst du den film gattaca? - über kurz oder lang werden vrmtl nicht nur geistig behinderte die daseinsberechtigung verlieren :-/
      0 0 Melden
    • ovatta 04.11.2015 19:14
      Highlight Ich hab die Liste gar nicht gelesen!
      Sehr Grenzwertig!
      Was rät denn dein Computer wenn bspw. Stephen Hawking den Weg blockiert?

      Mein Komentar zielt darauf ab, dass das Gefährt unkontrolierbar wird wenn es den berechneten Weg verlässt ..
      4 0 Melden
    • kEINKOmmEnTAR 04.11.2015 20:07
      Highlight @Tell99 & @ cadmium:
      Irgend eine Berechnungsgrundlage muss es geben wenn Computer auch in Notfällen die Hand übernehmen müssen und da Algorithmen auch nur aus Zahlen bestehen wird es im Endeffekt auf das oder etwas ähnliches hinauslaufen.
      0 0 Melden
    • Charlie Brown 04.11.2015 20:19
      Highlight @keinkommentar: Ja, irgendeine.

      In deinem Wertesystem haben offensichtlich geistig behinderte Menschen nahezu keinen Wert. Ich finde das zum kotzen.
      3 0 Melden
    • kEINKOmmEnTAR 04.11.2015 22:06
      Highlight Ich denke ich muss klarstellen dass das nicht meine Meinung darstellt, sondern dass ich denke dass so etwas oder ähnliches kommen wird.

      Die Frage bleibt nach welchem Masstab dieser Algorithmus programmiert werden sollte.
      Zählt jeder Mensch gleichviel? Wie sollte dann in einer 1:1:1 Situation gehandelt werden? Wer soll sterben? Der Fahrer, das Kind oder der Renter?
      Nach irgend einer logischen(technischen) Funktion muss dies berechnet werden wenn die Autos voll-autonom fahren sollten.
      Ich gab ein Beispiel das sich am Utilitarismus bedient, du kannst gerne deinen eigenen Vorschlag hier posten.
      1 1 Melden
    • zettie94 04.11.2015 22:41
      Highlight Das Auto soll denjenigen umfahren, der sich falsch verhalten hat.
      Wenn ein Kind über die Strasse läuft ohne vorher zu schauen, ob ein Auto kommt, dann hat sich das Kind falsch verhalten und es sollte nicht jemand anderes dabei zu schaden kommen.
      Der Insasse des Autos ist dabei sicher, weil das Auto sich immer an die Verkehrsregeln hält.
      Unfälle zwischen Autos wird es ohne äussere Einflüsse (Glatteis, "manuelle" Autos u.a.) nicht mehr geben.
      4 3 Melden
    • xHascox 16.07.2017 23:48
      Highlight @keinkommentar

      Wenn du geistig und medizinisch krank bist, bist im Minus und das Auto will dich töten sobald es dich sieht (Lol)
      0 0 Melden
  • Charlie Brown 04.11.2015 12:53
    Highlight Und mit dem "Ego-Security-Package" gegen Aufpreis reagiert die Karre dan anders.
    11 0 Melden
    • Roman Rey 04.11.2015 13:09
      Highlight Ausser, sie trifft auf ein anderes Auto mit einem extrateuren "Priority-Extra-Security-Package" - dann hast du Pech gehabt :)
      14 1 Melden
    • Charlie Brown 04.11.2015 16:13
      Highlight @Roman: Das erinnert mich an eine Folge Knightrider wo KITT auf seinen bösen Zwilling trifft und sie beide aufeinander zurasen. Die Frontalkollision scheint unvermeidlich doch....

      ...(clifhanger)...

      ...antizipiert KITT richtig, dass der böse KITT die Selbstehaltung höher gewichtet und im letzten Moment ausweicht.

      Was dieser Kommentar mit dem Thema zu tun hat? Hmmm... Eigentlich nichts. Ist mir halt in den Sinn gekommen :-)
      5 0 Melden
    • Roman Rey 04.11.2015 16:29
      Highlight Doch, doch, Tell, dein Kommentar hat alles mit dem Thema zu tun.

      Wenn die Ethikprogramme der selbstfahrenden Autos tatsächlich modifizierbar sind, könnte das in eine Art Rüstungskrieg herauslaufen, wo der überlebt, der das bessere Programm hat. Das Programm, das die anderen austricksen kann, so wie das KITT mit dem bösen KITT gemacht hat.
      5 0 Melden
  • sterpfi 04.11.2015 12:40
    Highlight In der Tat schwierige Fragen... ich tendiere in folgende Richtung:
    a) Hauptpriorität gehört den Insassen des Autos, denn so würde sich auch ein menschlicher Fahrer verhalten (ich glaube nicht dass jemand auf die Idee kommen könnte sein Auto in eine Mauer zu lenken wie in dem Beispiel)
    b) "Unschuldige" Opfer vermeiden: Wenn eine Menschengruppe unvorhersehbar auf eine Strasse rennt, tendiere ich eher dafür, sie für ihren Fehler zu "bestrafen", anstatt eine sich korrekt verhaltende Person auf dem Trottoir in den Unfall reinzuziehen.
    14 4 Melden
    • Roman Rey 04.11.2015 13:06
      Highlight Zu a) Müsste nicht, wer in ein Auto einsteigt, mehr Verantwortung tragen und somit das Todesrisiko auf sich nehmen? Statt ein unschuldiger Fussgänger.

      b) Die Software müsste erkennen können, mit welcher Absicht und wie fahrlässig der Fussgänger handelt. Viel Spass beim Programmieren.
      11 5 Melden
    • Charlie Brown 04.11.2015 18:18
      Highlight Es gibt so etwas wie einen Grundsatz, dass der Stärkere auf den Schwächeren Rücksicht nimmt. Auch wenn der Schwächere ein Fehlverhalten zeigt. Aber das gilt leider auch in den Köpfen von vielen non-selfdriving Fahrern nicht mehr.

      Und bevor das Gepolter losgeht: Ich bin auch Autofahrer. Ich ärgere mich auch über kopflose Fussgänger. Und auch über lebensmüde, egomane Velofahrer. Aber ich überfahre sie trotzdem nicht. Und ich sage auch nicht einfach selberschuld, wenn sie angefahren werden. Weil der Verkehr ein komplexes System ist, bei welchem alle Teilnehmer eine Mitverantwortung tragen.
      10 2 Melden
  • Bastian Zuberbuehler 04.11.2015 11:21
    Highlight Hä?! Wir diskutieren hier also in einer Selbstverständlichkeit über selbst fahrende Fahrzeuge und die dafür benötigten Technologien, aber bei den Lösungen für das Trolley-Problem bleiben wir bei den scheinbar einzigen beiden (technologischen) Lösungsoptionen "Insassen opfern" vs. "Passanten opfern"? Nicht gerade "thinking big"...
    Klar, irgendwo am Ende aller Möglichkeiten bleibt das "ich oder du" aus der Optik des Insassen. Aber dies an diesem Fall aufhängen? Follow-up zum Tesla-Bashing?
    10 4 Melden
    • Roman Rey 04.11.2015 11:27
      Highlight Es geht hier um Situationen, bei dem Tote nicht vermieden können. Die Autos müssen für solche Fälle programmiert werden. Und wie das gemacht wird, finde ich eine der drängendsten Fragen.
      18 3 Melden
  • no0815girl 04.11.2015 11:05
    Highlight Selbstfahrende Autos heissen ja nicht, dass man nicht selbst fahren kann. Man muss es nur so bauen, dass man den Autopiloten auch ausschalten kann. Evt. geregelt, auf speziellen Autobahnen für selbstfahrende Autos kann mans nicht abschalten, nach der Ausfahrt dann jedoch schon. Möglichkeiten gäbe es genug. Nur die Entscheidung zwischen den vielen Möglichkeiten und die Umsetzung sind schwierig.
    4 2 Melden
    • Roman Rey 04.11.2015 11:10
      Highlight «Selbstfahrende Autos heissen ja nicht, dass man nicht selbst fahren kann.»

      Jein. Die Google-Autos haben ja weder Lenkrad noch Pedale. Wir müssen uns tatsächlich die Frage stellen, welche Art von selbstfahrenden Autos wir wollen.
      16 1 Melden
    • EvilBetty 04.11.2015 11:39
      Highlight Ein Computer entscheidet in solchen Fällen halt einfach viel schneller. Da hat der Mensch die Situation noch nicht mal erfasst. In der Tat eine spannende Frage die ich mir auch schon gestellt habe.
      14 1 Melden
    • ovatta 04.11.2015 12:07
      Highlight in der Luftfahrt haben Autopiloten wohl zu massiv weniger Unfällen geführt. In manchen Situationen konnte allerdings nur menschliches handeln schlimmeres verhinder. Z.B. Die Notlandung im Hudson River.
      14 0 Melden
    • atomschlaf 04.11.2015 12:52
      Highlight @cadmium: Der Autopilot in der Luftfahrt wird für die kritischen Phasen Start und Landung nicht eingesetzt und kommt damit ungefähr einem selbstfahrenden Auto auf der Autobahn gleich. Der Vergleich mit einem vollständig selbstfahrenden Auto ist dagegen unsinnig.
      8 2 Melden
    • ovatta 04.11.2015 13:07
      Highlight Es wäre technisch durchaus möglich, den ganzen Flug dem Computer zu überlassen!
      Die Crew ist so in den kritischen Phasen zumindest ausgeruht.
      4 0 Melden
  • rstnpce 04.11.2015 11:01
    Highlight Was wäre wenn jemand absichtlich auf die Strasse rennt um den Insassen des Autos zu töten, da dieses in die Wand lenkt?
    40 1 Melden
    • Roman Rey 04.11.2015 11:10
      Highlight Ich sehe da Hollywood-Potential :)
      13 5 Melden
    • Charlie Brown 04.11.2015 12:52
      Highlight In der Hoffnung, dass die Software nicht von VW ist und anders reagiert, als man von ihr erwartet...
      13 0 Melden
    • kEINKOmmEnTAR 04.11.2015 13:17
      Highlight Eine sehr gute und interessante Überlegung.
      6 0 Melden
  • PadPalon 04.11.2015 10:52
    Highlight Hab das schon vor ein paar Wochen diskutiert als das Thema. Ist die ganze Diskussion nicht irgendwie ein Non-Issue? Menschliche Autofahrer sollten nur so schnell fahren dass sie in Sichtweite und den Verhältnissen angepasst anhalten können, wieso sollte sich ein autonomes Fahrzeug also anders verhalten?
    9 7 Melden
    • no0815girl 04.11.2015 11:02
      Highlight Und wenn ein Kind aus einem Gebüsch direkt vors Auto springt? Darf das Auto dann nur Schritttempo fahren, weil die Strassenränder nicht einsehbar sind?
      Beim Mensch geht diese Taktik ja auch nicht auf, wie die vielen Unfälle zeigen.
      21 1 Melden
    • Charlie Brown 04.11.2015 12:49
      Highlight Ist doch ganz einfach; Kinder mit GPS-Sender ausstatten und schon weiss google (eigentlich alphapet), wo die Gefahr lauert...
      6 3 Melden
    • Roman Rey 04.11.2015 13:17
      Highlight Jeder bekommt einen Chip. Dann findet dich das selbstfahrende Uber-Taxi auch viel besser.
      8 0 Melden
    • PadPalon 04.11.2015 13:42
      Highlight Wenn etwas komplett Unvorhersehbares passiert, soll das Auto sich so verhalten halten wie ein Mensch auch: Vollbremsung und Ausweichversuch. So schnell wie ein Computer reagiert wird das schon viele Unfälle verhindern. Wenns nicht reicht, reichts nicht. Ist hart, aber wieso soll der Insasse geopfert werden für etwas auf das er keinen Einfluss hat? Unfälle werden nie ganz verschwinden.
      7 1 Melden
    • Hatzman 04.11.2015 14:32
      Highlight PadPalon hat völlig recht, warum ein Auto sofort in die Wand setzen?
      Bremsen und ausweichen sodass man möglichst wenig trifft

      Und noch was: Google hat schon bewiesen dass ihre Sensoren mehr sehen als das menschliche Auge
      4 0 Melden
    • Charlie Brown 04.11.2015 19:56
      Highlight @PadPalon und @Hatzman: Es geht um ein ethisches Gedankenexperiment. Das ist die Ausgangslage. Das sind die Optionen. Aus diesen muss man auswählen. Nicht mehr, nicht weniger.
      3 0 Melden
    • Hatzman 05.11.2015 09:14
      Highlight @Tell
      uns geht es darum, dass dieses ethische Experiment eigentlich obsolet ist, da diese Situation nicht auftreten darf (gesteuert durch das Fahrverhalten des Autos)
      Bei einem Experiment gibt es nie nur Auswahlmöglichkeiten, bei sowas soll man das Ganze auch in Frage stellen dürfen, sonst ist das keine wissenschaftliche Herangehensweise
      2 0 Melden
    • Charlie Brown 05.11.2015 10:08
      Highlight @Hatzman: Klar. Was nicht "darf" wird ja auch nicht vorkommen.

      So funktioniert die Welt nicht. Sorry dich zu enttäuschen.
      2 0 Melden
    • Hatzman 05.11.2015 12:30
      Highlight @Tell99: Oh nein! Jetzt hast du mein Weltbild in seinen Grundfesten erschüttert! Ich weiss gar nicht mehr was ich mit mir anfangen soll!

      Ernsthaft: Wenn ein selbstfahrendes Auto in eine solche Situation kommt, dass es auf eine Gruppe von Menschen zurast und für das Auto keine Möglichkeit mehr besteht anzuhalten, ist etwas an der Technik defekt. Ethik hin oder her, da knallt es dann.
      Das 'darf' bezieht sich auf die Weise wie das Fahrverhalten programmiert ist. Es MUSS so sicher gebaut werden, dass eine solche Situation im voll funktionsfähigen Auto nicht vorkommen kann.
      0 0 Melden

Ganz ohne Plastiksäckli: In Zürich öffnet der erste Zero-Waste-Laden der Deutschschweiz

In Zürich eröffnet der erste Laden ganz ohne Abfall. Wer was kaufen will, muss seinen eigenen Behälter mitnehmen, auch für Nudeln, Reis oder Alkohol. «Zero Waste» heisst die Philosophie und steht ganz im Zeichen der Kreislaufwirtschaft. 

Rüebli, Kartoffeln, Nudeln oder Seife, im Foifi, dem ersten Zero-Waste-Lasten in Zürich, findet man eigentlich alles – ausser eben Plastiksäckli. Der neue Laden steht ganz im Zeichen der Kreislaufwirtschaft und setzt sich zum Ziel, keinen Abfall zu produzieren. Der Durchschnittsschweizer produziert im Jahr 344 Kilogramm Abfall – viel zu viel, finden die Betreiber des «Foifi». Der Name ist ein Vermerk auf die fünf Axiome von Zero Waste, aber auch eine Liebeserklärung an den Zürcher …

Artikel lesen