Digital
Wir verwenden Cookies und Analysetools, um die Nutzerfreundlichkeit der Internetseite zu verbessern und passende Werbung von watson und unseren Werbepartnern anzuzeigen. Weitere Infos findest Du in unserer Datenschutzerklärung.
Bild

Selbstfahrende Autos gehören bald zum Strassenbild. Es gibt aber ethische Herausforderungen, über die wir uns jetzt schon unterhalten sollten.
bild: GraphicaArtis/Getty Images

Nehmen wir ein paar tausend Tote durch selbstfahrende Autos in Kauf, um eine Million Menschenleben zu retten?

Der weltgrösste Autobauer Toyota will schon bald selbstfahrende Autos entwickeln. Bevor aber der Weg für autonome Autos frei ist, muss ein unlösbares moralisches Dilemma geklärt werden.

Raffael Schuppisser / Aargauer Zeitung



Dieses Versprechen wird Toyota nicht halten können: Der weltgrösste Autobauer will mithilfe künstlicher Intelligenz selbstfahrende Autos entwickeln, «die unfähig sind, einen Unfall zu verursachen». Das liess der japanische Konzern diese Woche an der Consumer Electronic Show in Las Vegas verlauten.

Error
Cannot GET /_watsui/filler/

Keine Software ist ohne Fehler. Das gilt erst recht für die künstliche Intelligenz (KI), welche die Toyota-Fahrzeuge in Zukunft sicher über Autobahnen und durch Städte steuern soll.

Irgendwann wird sich die KI in einer unerwarteten und besonders verworrenen Verkehrssituation falsch «entscheiden» und es wird zu einem Zusammenstoss kommen. In einigen Fällen lässt sich ein Unfall auch gar nicht vermeiden, weil sich andere Verkehrsteilnehmer falsch verhalten.

Was macht das autonome Auto, wenn plötzlich ein Kind auf die Strasse rennt? Für eine Vollbremse reicht die Zeit nicht aus. Ein Ausweichmanöver ist möglich, doch das würde zu einer Frontalkollision mit einem anderen Auto führen. Die KI ist nun geradezu gezwungen, einen Unfall zu verursachen. Die Frage ist nur welchen.

Darf der Tod einer Person in Kauf genommen werden, um das Leben von fünf Personen zu retten?

An diesem Beispiel zeigt sich ein grundlegendes moralisches Dilemma, das in der Philosophie als sogenanntes Trolly-Problem breit diskutiert worden ist. Das Gedankenexperiment geht auf die Philosophin Philippa Foot zurück und lautet folgendermassen: Eine Tram («Trolly») ist ausser Kontrolle geraten und droht, fünf Personen zu überrollen.

Durch Umstellen einer Weiche kann das Tram auf ein anderes Gleis umgeleitet werden. Unglücklicherweise befindet sich dort eine weitere Person. Die zentrale Frage lautet nun: Darf durch Umlegen der Weiche der Tod einer Person in Kauf genommen werden, um das Leben von fünf Personen zu retten?

Eine knifflige Frage, die aber bisher ziemlich realitätsfremd war. Doch das könnte sich nun ändern. «Das Trolly-Problem könnte in der realen Welt auftreten, wenn autonome Fahrzeuge zum Einsatz kommen», schreibt der Philosoph Patrick Lin in einer kürzlich veröffentlichten Fachpublikation. Deshalb, so meint der Forscher der California Polytechnic State University, müsse die Entwicklung von selbstfahrenden Autos von einer breiten öffentlichen Diskussion begleitet werden.

Natürlich können auch menschliche Autofahrer in Situationen geraten, in denen sie zwischen zwei verschiedenen Übeln entscheiden müssen. Etwa einem Lastwagen nach links ausweichen, wo fünf Fussgänger stehen, oder nach rechts, wo sich ein Velofahrer befindet. Wie auch immer der Fahrer reagieren wird, unter dem Zeitdruck ist keine rationale Abwägung möglich, sondern bloss eine intuitive Entscheidung.

Anders ist das bei autonomen Fahrzeugen. Sie werden sich in dieser und ähnlichen Situationen so verhalten, wie sie programmiert wurden. Doch nach welchen Prinzipien sollen sie programmiert werden?

Googles selbstfahrende Autos

Für Ethiker, die eine sogenannte utilitaristische Position vertreten, ist die Situation klar. Sie entscheiden sich in obigem Beispiel für jene Variante, die das «kleinste Leid» verursacht und weichen also nach rechts aus, da so nur ein Mensch (der Velofahrer) stirbt.

Doch darf man Menschenleben miteinander aufrechnen? Sogenannte deontologische Ethiker sagen Nein. Für sie hat jedes Leben einen absoluten Wert. Deshalb kann nicht eines geopfert werden, um fünf zu retten, und deshalb bleibt das Problem unlösbar. Ein moralisches Dilemma eben.

1,2 Millionen Verkehrstote

Psychologen um Jean-François Bonnefon von der französischen Toulouse School of Economcis wollten wissen, wie sich die Menschen in solchen Dilemmata entscheiden würden. Dafür konfrontierten sie über 300 Menschen mit verschiedenen Szenarien, in denen einer oder mehrere Fussgänger gerettet werden können, wenn ein selbstfahrendes Auto ausweicht und in eine Wand kracht, wobei dann der Fahrer oder ein anderer Passant getötet wird.

Die Resultate der kürzlich veröffentlichten Studie zeigen, dass die Teilnehmer mehrheitlich utilitaristische Entscheidungen fällen – sich also für jene Variante entscheiden, bei der am meisten Menschen gerettet werden können. Das gilt zumindest für Gedankenexperimente, die nicht so konstruiert sind, dass sich der Proband selber in einem selbstfahrenden Auto befindet und getötet wird. Ist dies der Fall, steigt die Anzahl jener, die sich dafür aussprechen, dass das autonome Auto eine Zufallsentscheidung trifft.

Dieses selbstfahrende Konzeptauto könnte direkt aus einem Sci-Fi-Film stammen

Doch auch hier stellt sich natürlich die Frage, ist es ethisch gerechtfertigt, eine solche schwierige Frage über den Tod von Menschen einfach dem Zufall zu überlassen? Man könnte daraus folgern, wenn wir nicht fähig sind, eine Entscheidung zu treffen, die von der breiten Gesellschaft gestützt wird, sollten wir autonome Autos vielleicht einfach nicht zulassen. Doch dies führt unweigerlich in ein anderes ethisches Dilemma.

Experten sind sich weitgehend einig, dass selbstfahrende Autos den Verkehr sicherer machen. So haben etwa die Google-Autos über 1,6 Millionen Kilometer zurückgelegt, ohne selber einen Unfall zu verursachen.

Im Jahr 2014 gab es in der Schweiz 243 Verkehrstote; weltweit kommen jährlich 1,2 Millionen Menschen bei einem Autounfall ums Leben. Diese Zahl könnte vielleicht auf einen Zehntel gesenkt werden, wenn man in Zukunft nur noch selbstfahrende Autos auf die Strasse liesse.

Dürfen wir autonomen Autos wirklich die Zulassung verweigern, obwohl wir damit jährlich über eine Million Menschenleben retten können? Wäre es unter diesem Gesichtspunkt nicht eher gefordert, nicht-autonome Autos zu verbieten?

Wir müssen uns also fragen, ob wir ein paar Tausend durch autonome Autos getötete Menschen in Kauf nehmen wollen, um eine Million Menschenleben zu retten. Entscheiden wir uns für die autonomen Autos, kommen wir wohl nicht darum herum, sie aufgrund von utilitaristischen Kriterien zu programmieren.

«Wir müssen zu einer Quantifizierung von Menschenleben kommen», forderte jüngst Eric Hilgendorf, Leiter derForschungsstelle Robot-Recht an der Universität Würzburg, in der Zeitschrift «Technology Review». Denn nach heutiger Rechtslage wäre es verboten, Menschenleben miteinander aufzurechnen.

Die Moral der Algorithmen

Doch wenn wir umdenken, und unsere deontologischen Prinzipien über Bord werfen, so könnte das Folgen haben, die nicht nur auf den Strassenverkehr beschränkt wären. «Wenn wir versuchen, Ethik logisch abzubilden, was ja wohl nötig wäre, um sie einer KI beizubringen, könnte das auch einen Effekt auf unsere Moralvorstellung haben», sagt Philipp Theisohn, Science-Fiction-Experte an der Universität Zürich, diese Woche im Interview mit der Nordwestschweiz.

Die rationalisierte, utilitaristische Ethik, die wir unseren Autos einimpfen, könnte also auch auf den Menschen selber überschwappen. Wir würden uns, so kann vermutet werden, bei moralischen Entscheidungen weniger von Empathie und Intuition leiten lassen und stattdessen die Konsequenzen unseres Handelns vermehrt rational gegeneinander abwägen.

So würden wir unser Denken den Algorithmen der Maschinen anpassen. Ausgerechnet in einer Welt, in der Computer und Roboter unsere Jobs streitig machen, würden wir auf Merkmale verzichten, die uns von Maschinen unterscheiden – Merkmale, die in einer automatisierten Welt umso wichtiger werden, weil sie nicht programmiert werden können. Und wiederum stellt sich die Frage: Wollen wir das wirklich?

Würdest du ein selbstfahrendes Auto kaufen?

Nun checkt mal diese krassen Karren von anno dazumal!

Link zum Artikel

Von 16 km/h bis 431 km/h: die schnellsten Strassen-Autos der Welt – nach Dekade

Link zum Artikel

Über diese 13 Verkehrsteilnehmer haben wir uns am Wochenende (wieder einmal) geärgert

Link zum Artikel

15 an sich gute Autos, die ein heavy Imageproblem haben. Nein, ehrlich, so was darfst du einfach nicht fahren!

Link zum Artikel

Goldener Cadillac mit Bierzapfhahn zu verkaufen ... wer will?

Link zum Artikel

Noch 11 Autos, die mit Imageproblemen zu kämpfen haben. Tja, auch diese gehen einfach nicht, sorry!

Link zum Artikel

«Baroni soll mal einen gut recherchierten Artikel über Toyota Hybrid schreiben!» Voilà: Powerslide mit dem Prius

Link zum Artikel

Ich fuhr eine Woche lang Offroader und war wider Erwarten total begeistert

Link zum Artikel

Die 10 häufigsten Mythen übers Autofahren im Winter: Wahr oder falsch?

Link zum Artikel

Ein Racheakt der US-Autoindustrie? 8 Fragen und Antworten zum VW-Abgasskandal

Link zum Artikel

Danke VW! Dein Skandal hat (vielleicht) die Welt gerettet

Link zum Artikel

Wir zeigen dir das Auto, du sagst uns den Film!

Link zum Artikel

Die vielen Väter des Volkswagens: Wie viel Ganz, wie viel Porsche, wie viel Hitler stecken im Käfer?

Link zum Artikel

Frage an den Haushistoriker der Volkswagen AG: Wer hat den Käfer denn nun erfunden?

Link zum Artikel
Alle Artikel anzeigen

Tesla weiter auf Rekordkurs – nicht zuletzt wegen der «Shortseller», die richtig bluten

Link zum Artikel

Sängerin Grimes und Elon Musk erwarten ein Kind – die Reaktionen sind, äh, köstlich

Link zum Artikel

Läuft bei Tesla: Börsenwert stellt GM und Ford zusammen in den Schatten

Link zum Artikel

Elon Musk tanzt in Shanghai und es ist... schaut besser selbst

Link zum Artikel

Tesla mit Rekordzahlen: So viele neue Elektroautos fahren in der Schweiz

Link zum Artikel

Ehemalige Nummer zwei der Nasa: «Ich sehe den Mars nicht als Plan B»

Link zum Artikel

Darum trauert Tesla-Chef Elon Musk um diesen Designer

Link zum Artikel

Erdogan baut den Süper-SÜV – das wissen wir über die türkische Antwort auf Tesla

Link zum Artikel

Tesla gegen Zero-Motorrad: Dieses Duell lässt «Verbrenner» alt aussehen

Link zum Artikel

Tesla-Rivale Rivian erhält 1,3 Milliarden Dollar von Investoren

Link zum Artikel

Tesla ist so wertvoll wie noch nie – und Elon Musk twittert 😂

Link zum Artikel

Ein Schweizer will mit dem Tesla von Wil nach Kapstadt – doch er kommt nicht allzu weit

Link zum Artikel

Tesla schränkt Autopilot massiv ein – Besitzer laufen Sturm

Link zum Artikel

Tech-Giganten werden wegen Todesfällen in kongolesischen Kobaltminen verklagt

Link zum Artikel

Deutscher beschädigt 74 Autos in Täsch VS – mit einem Defi

Link zum Artikel

Das sind die 10 wichtigsten Gadgets des Jahrzehnts

Link zum Artikel

Tesla als Carsharing-Auto? Mobility testet das Elektroauto

Link zum Artikel

Teslas Cybertruck erhält keine Zulassung in Europa, sagt ein Mann, der es wissen muss

Link zum Artikel

«Rache des Elektroautos»: Tesla-Fahrer kontern E-Auto-Gegner mit Tankstellen-Blockade

Link zum Artikel

Tesla-Chef fährt mit Cybertruck durch LA, baut Mini-Unfall und missachtet Verkehrsregel

Link zum Artikel

Tesla Cybertruck auf Kaliforniens Strassen sorgt für Wirbel

Link zum Artikel

«Frotzelnde Tweets in einem Streit unter Männern»: Elon Musk gewinnt vor Gericht

Link zum Artikel

17 Tonnen CO2 für einen Elektroauto-Akku? Das steckt hinter dem Mythos

Link zum Artikel

Tesla expandiert in der Schweiz ins Geschäft mit Hausbatterien

Link zum Artikel

Ist «Pädo-Typ» ein Schimpfwort? Verleumdungsprozess gegen Elon Musk hat begonnen

Link zum Artikel

5 elektrische Pick-ups, gegen die Teslas Cybertruck antreten muss

Link zum Artikel

Tesla Model S schafft 1 Million Kilometer – das musst du über den Weltrekord wissen

Link zum Artikel

Teslas Cybertruck auf Schweizer Strassen? Das musst du wissen

Link zum Artikel

Darum kapituliert der einzige Tesla-Taxifahrer von Berlin (und sattelt auf Hybrid um)

Link zum Artikel

So gross ist Teslas Cybertruck im Vergleich mit einem VW Golf 😳

Link zum Artikel

Tesla enthüllt den scharfkantigen «Cybertruck» – und das Internet dreht völlig ab

Link zum Artikel

Im falschen Film? Nein, Tesla hat gerade den Cybertruck enthüllt

Link zum Artikel

Tesla-Chef Musk bereut, mit Comedian Joe Rogan gekifft zu haben

Link zum Artikel

Ford enthüllt Elektro-Mustang – Tesla schlägt mit Cybertruck-Pickup zurück

Link zum Artikel

Österreich hat ein Problem: Warum sich niemand traut, diesen Tesla zu entsorgen

Link zum Artikel

Tesla macht der deutschen Autoindustrie Feuer unter dem Hintern 🔥

Link zum Artikel

Tesla gründet Fabrik bei Berlin – Twitter-Nutzer lachen über Berliner Flughafen

Link zum Artikel

Tesla baut Giga-Fabrik in Deutschland – 10'000 Arbeitsplätze entstehen

Link zum Artikel

«Gehe offline»: Tesla-Chef Musk hat die Schnauze voll von Twitter

Link zum Artikel
Alle Artikel anzeigen

So futuristisch sieht der erste selbstfahrende Lastwagen aus

(aargauerzeitung.ch)

DANKE FÜR DIE ♥

Da du bis hierhin gescrollt hast, gehen wir davon aus, dass dir unser journalistisches Angebot gefällt. Wie du vielleicht weisst, haben wir uns kürzlich entschieden, bei watson keine Login-Pflicht einzuführen. Auch Bezahlschranken wird es bei uns keine geben. Wir möchten möglichst keine Hürden für den Zugang zu watson schaffen, weil wir glauben, es sollten sich in einer Demokratie alle jederzeit und einfach mit Informationen versorgen können. Falls du uns dennoch mit einem kleinen Betrag unterstützen willst, dann tu das doch hier.

Würdest du gerne watson und Journalismus unterstützen?

(Du wirst zu stripe.com umgeleitet um die Zahlung abzuschliessen)

Oder unterstütze uns mit deinem Wunschbetrag per Banküberweisung.

Nicht mehr anzeigen

Das könnte dich auch noch interessieren:

Abonniere unseren Newsletter

Themen
71
Bubble Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 48 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
71Alle Kommentare anzeigen
    Alle Leser-Kommentare
  • OnkelBen 11.01.2016 21:23
    Highlight Highlight Wäre es nicht möglich solche Autos so zu bauen, dass die Insassen einen Aufprall in einer Mauer eher überleben würden. Das Auto entscheidet sich ja dazu, das heisst es weiss was gleich kommen wird und könnte auch entsprechende Vorbereitungen treffen. Zudem denke ich, sobald man wirklich nur noch autonome Fahrzeuge auf den Strassen hat, dürfte es noch sicherer und unwahrscheinlicher werden, dass es überhaupt zu einer solchen Situation kommt in dem man sich zwischen Menschenleben entscheiden muss...
  • patnuk 11.01.2016 19:53
    Highlight Highlight Keine Software ist sicher, gemäss Artikel, da stimme ich zu und trotzdem steigen wir in einen A380 dass haupsätzlich durch eine Software geflogen wird.
    Das Flugzeug dass sicherste Transportmittel nebenbei.
    Man kann sich gut vorstellen Schritt für Schritt, Autobahn, Kantonsstrasse und zum Schluss Stadt und auf der Autobahn.
    Solche Sicherheitsfragen hatten wir schon bei der Einführung der Sicherheitsgurten, heute obligatorisch.
  • Daniel Caduff 11.01.2016 19:32
    Highlight Highlight Koreigiert mich, wenn ich falsch liege, aber ein Computer kann nach meinem Verständnis gar keinen "Echten" Zufall generieren. Jeder "Zufall" ist ebenfalls nur das Ergebnis eines vorgängig definierten Algorithmus. - Damit ist das Ergebnis mit einer bestimmten Wahrscheinlichkeit determiniert und nicht zufällig.
    • nimmersatt 11.01.2016 21:55
      Highlight Highlight mit dem 'koreigiert' liegst du falsch
  • Tilman Fliegel 11.01.2016 19:22
    Highlight Highlight Eigentlich muss das Auto im Zweifelsfall seine Insassen schützen. Ansonsten wären ausgeklügelte Mordanschläge möglich.
  • Zeit_Genosse 11.01.2016 19:14
    Highlight Highlight Man denke an die Antikollisionssysteme bei Flugzeugen. Wenn diese wie in Überlingen von Menschen übersteuert werden, dann...

    Maschine zu Maschine funktioniert
    Mensch zu Mensch manchmal auch
    Maschine zu Mensch teilweise
    Mensch zu Maschine selten

    In einer Maschinenwelt funktionieren Maschinen weitgehend störungsfrei. Der Mensch stört die Maschinenwelt und ist unberechenbar. Der Mensch trifft Entscheide die Maschinen nicht tun würden. Und er ändert ständig seine Meinung. Alle Menschen sind verschieden. Es gibt Mensch hoch X Varianten.
  • Zeit_Genosse 11.01.2016 19:07
    Highlight Highlight Mit dem heutigen Rechtsverständnis würden die Autobauer bei disfunktionalen Entscheidungen zur Rechenschaft gezogen. Wenn die Software (KI wäre sogar dynamisch) Situationen anders einschätzt, als wir das menschlich tun würden, entsteht ethischer und leiblicher Schaden. Toyota wurde wegen klemmender Gaspedalen (wurde nie nachgewiesen) in den USA auf Mio. verklagt. VW wegen einer Software, die einen Test erkannte und auf schadstoffarmen Betrieb umschaltete auf Mia. Die Situation solcher Fahrzeuge funktioniert im Labor, aber nicht in der unberechenbaren Menschenwelt, wo der Mensch die Gefahr ist.
  • Zeit_Genosse 11.01.2016 18:58
    Highlight Highlight Sind die Vorteile von selbststeuernder-sensoren-algorithmen-bestückter Fahrzeuge derart gross, dass man Nachteile, die man heute nicht hatte, in kauf nimmt? Wollen wir diese Autos weil wir sie bauen können oder weil sie uns mehr Nutzen (welche?) bringen?

    Soll ein Roboter im Altersheim die Suppe servieren und einen Menschen der diese Arbeit gerne macht, das Einkommen brauchen könnte und sozialdynamisch geeigneter ist, verdrängen?

    Muss der Mensch auf lebensfeindliche Planeten oder könnten das Maschinen besser, weil sie dafür besser geeignet sind?

    Muss man etwas tun weil man es kann?
  • Zeit_Genosse 11.01.2016 18:45
    Highlight Highlight Dazu sind auch philosophische Denkexperimente interessant. Am 10.1. gesehen
    http://www.srf.ch/sendungen/sternstunde-philosophie/richard-david-precht-denken-als-experiment
    Dort wir die Frage behandelt. Ist es gerecht 5 Menschen zu töten wenn man 1 retten kann? Die Philosophie stellt uns vor das Dilemma. Darf ein unschuldiger, unbedrohter, willentlich geopfert werden wenn wir dadurch Menschen die durch eine Situation in der Kausalität bedroht werden gerettet werden können?
    Menschen und Maschinen sind da überfordert.
  • Thanatos 11.01.2016 18:29
    Highlight Highlight Also ich würde es dem Zufall überlassen. Aus dem Kleinkind könnte ja später ein Supergenie werden, das die Weltenformel entdeckt. Bei der Geburt ist es ja auch Zufall wo man "landet". Oder dass jemand mit 30 Krebs bekommt und stirbt oder in einen Raserunfall verwickelt wird.
    Um eine ethisch korrekte Entscheidung treffen zu können, wären mehr Informationen von Nöten. Jedoch würde das alles viel komplizierter machen. Dann stellt sich nur noch die Frage, ob wir autonome Autos wollen und wir mit den Konsequenzen leben können.
  • qumquatsch 11.01.2016 18:27
    Highlight Highlight "Merkmale, die in einer automatisierten Welt umso wichtiger werden, weil [Menschen] nicht programmiert werden können." - dies ist genau der Punkt in welchem sich die Menschheit (nach mir) überschätzt. So ist es nachweisbar, dass Utilitarismus und Deontologie in gewissen Regionen/Kulturen stärker verankert sind. Dies hat mit "Programmierung" zu tun, denn auch wir Menschen werden "programmiert" und zwar von unserem Umfeld.
    Da ich jedoch denke, dass gerade die emotionalen Entscheide eher gefährlich sind im Strassenverkehr, würde ich hier die etwas rationalere Lösung bevorzugen.
  • Donald 11.01.2016 18:18
    Highlight Highlight Das Auto kann nicht abschätzen, was es bei einem Ausweichmanöver neben der Strasse anrichtet. Es muss daher auf seiner Spur bleiben und eine Vollbremsung durchführen.

    Beispiel: Es weicht in eine "Mauer" aus. Die Mauer ist jedoch eine Hüpfburg, auf der Kinder spielen.

    Die Software ist für die Strasse gemacht und es sollte überhaupt nicht implementiert sein, dass die Strasse verlassen werden kann. Das wäre ein Risiko bei Software-Fehlern.

    Auch können die Menschen und die anderen Self-Driving-Autos die Reaktion des Autos abschätzen. Dies wäre bei "komischen" Ausweichmanövern unmöglich.
  • nimmersatt 11.01.2016 17:33
    Highlight Highlight Ideal wäre, es würde stets den Autofahrer treffen, der die tonnenschwere Waffe - meist aus Gemütlichkeit - benutz um seine bescheidenen Pfunde (mit einem Wirkungsgrad von etwa 3% und den entsprechenden oekologischen Konsequenzen) durch die Gassen zu tragen.

    DIESES ethische Dilemma liesse sich mit bestehenden Mitteln lösen: Öffentlicher Verkehr - gemeinsamer Nutzen/ gemeinsame Last
    • Donald 11.01.2016 18:56
      Highlight Highlight Selfbstfahrende Autos werden ziemlich sicher auch einen grossen Anteil am ÖV der Zukunft haben. ;)
  • tobey 11.01.2016 17:19
    Highlight Highlight Das Problem bei KI liegt doch (auch) darin, dass bei einem Unfall niemand mehr ein Verschulden bzw. eine Verantwortung treffen würde. Wollen wir also akzeptieren, das jemand durch einen Unfall stirbt, ohne dass dafür jemand die Verantwortung trägt? Oder falls nicht, würdest Du noch in ein Auto steigen, wenn Du allenfalls für die Entscheidung des Autos, die zu einem Unfall mit Todesfolge führt, bestraft würdest?
  • Ju114n 11.01.2016 17:01
    Highlight Highlight Google testet auch schon lange an einem selbstfahrenden Auto und will es gar ohne Lenkrad oder Armaturenbrett ausstatten. Wenn man Google vertrauen kann, was die Richtigkeit ihrer Aussagen betrifft, so hat das selbstfahrende Auto bisher noch keinen einzigen Unfall verursacht. Es war in ca. 10-20 Unfälle auf San Franciscos Strassen verwickelt, alle ausgehend vom menschlichen Fahrer. Mit selbstfahrenden Autos würde es somit keine Unfälle mehr geben (Auto-Auto-Kollision). (Autos (bald vllt mit künstlicher Intelligenz) haben keinen Sekundenschlaf und sind zu 100 Prozent aufmerksam)
    • Donald 11.01.2016 18:07
      Highlight Highlight Im Beispiel rennt das Kind auf die Strasse. Demnach ist das Auto sicher nicht schuld. Es bleibt aber trotzdem die Frage, wie das Auto reagieren soll.
    • Ju114n 11.01.2016 22:04
      Highlight Highlight Das stimmt, da hast du vollkommen Recht. Darauf bin ich in meinem Kommentar aber gar nicht eingegangen. Mensch-Auto-Kollisionen sind natürlich das zentrale Problem. Laut dem Buch 'Was Google eigentlich will' von einem renommierten Spiegel-Autor, bremst das Auto sobald 'Gefahr' droht. Momentan scheint dies noch oft der Fall zu sein, da es nicht zwischen einem vorbeifliegenden Vogel und einem Kind unterscheiden kann. Die Autos nehmen jegliche Bewegungen auf grosse Distanz wahr und berechnen deren Wege. Gegen solche Situationen wie im Beispiel kann das Auto aber nur wenig machen, es stoppt daher.
  • MergimMuzzafer 11.01.2016 16:31
    Highlight Highlight Eine Maschine darf nicht über Menschenleben entscheiden. Das ist doch komplett absurd. Keine Diskussion, der Fahrer muss immer eingreifen können und trägt immer die Verantwortung.
    • Jan. 11.01.2016 17:08
      Highlight Highlight Die Maschine entscheidet gar nichts. Der Programmierer bestimmt das Verhalten. Eine präzise Umsetzung unserer Moralvorstellungen (über die man sich zuerst umfassend Gedanken machen muss) durch eine Maschine scheint mir besser als diese Entscheidung in überforderten Menschenhänden zu lassen..
  • Thinker 11.01.2016 15:49
    Highlight Highlight Ich bin dafür das der aktuelle Verkehr durch Technik optimiert wird, wer sich aber als Fahrer vom Verkehr abwendet und nur die KI fahren lässt handelt Fahrlässig.
    Aber als zusätzliche Verbesserung der Strassensicherheit als reine Sicherheitsfeature kann es viele Leben retten.
    • Kongan 11.01.2016 16:48
      Highlight Highlight Wieso soll dies fahrlässig sein? Das Handeln des Menschen ist meiner Meinung nach fahrlässiger für die anderen Verkehrsteilnehmer als das Handeln einer Maschine. Dies kann man doch einfach aus der Unfallstatistik herauslesen?.
    • Thinker 11.01.2016 20:05
      Highlight Highlight Auch ein Kraftwerk wird grösstenteils von Computern gesteuert, sollte jedoch etwas unvorhergesehenes geschehen (kernschmelze oder in dem falle ein Kind rennt auf die Strasse) braucht es nach wie vor jemanden der interveniert wenn der computer dies nicht schon getan hat. Automatisierte Autos ja, Umkehrbaren Fahrersitz nein...so stelle ich mir das vor, ohne jemanden der dennoch aufmerksam im verkehr teilnimmt ist es Fahrlässig meiner Meinung nach.
      solange noch nicht alles voll von der Technik gesteuert wird braucht es einen Menschen hinter dem Steuer der Notfalls eingreift.
    • Thinker 11.01.2016 21:26
      Highlight Highlight Auch ein Kraftwerk wird grösstenteils von Computern gesteuert, sollte jedoch etwas unvorhergesehenes geschehen (kernschmelze oder in dem falle ein Kind rennt auf die Strasse) braucht es nach wie vor jemanden der interveniert wenn der computer dies nicht schon getan hat. Automatisierte Autos ja, Umkehrbaren Fahrersitz nein...so stelle ich mir das vor, ohne jemanden der dennoch aufmerksam im verkehr teilnimmt ist es Fahrlässig meiner Meinung nach.
      solange noch nicht alles voll von der Technik gesteuert wird braucht es einen Menschen hinter dem Steuer der Notfalls eingreift.
  • Wilhelm Dingo 11.01.2016 15:42
    Highlight Highlight Was für eine doofe Frage: es ist diejenige Programmierung zu wählen welche weniger Menschenleben kostet.
    • MarcM 11.01.2016 16:18
      Highlight Highlight Ist das wirklich eine so doofe Frage? Wer soll sterben? Der eine unfallverursachende, bei rot die Strasse überquerende Rentner oder die korrekt am Strassenrand wartende Gruppe von fünf Schulkindern?
      Oder so: der unschuldige Fahrer des Wagens oder die Gruppe von schwangeren Frauen auf dem Trottoir?
      Oder so: Das Kind im davon rollenden Kinderwagen oder die Mutter, die hinterher springt?
      Ich werte nicht, ich möchte nur aufzeigen, dass es nicht immer ganz so einfach ist, wie es auf den ersten Blick scheinen mag.
    • Wilhelm Dingo 11.01.2016 16:31
      Highlight Highlight @MarcM: Klar das sind schwierige Fragen, eben darum würde ich es reduzieren auf die Anzahl Menschenleben. Im ersten Fall muss der Rentner sterben (1:5 Leben). Im zweiten Fall auch der Fahrer (1:5 Leben). Im letzten Fall muss der Zufall entscheiden (1:1). Ich würde so einen Algorythus bei meinem Auto akzeptieren, auch wenn es mich in Deinen Beispielen 2 Mal treffen würde.
    • Jan. 11.01.2016 17:16
      Highlight Highlight Hmmm die Anzahl Leben ist schon wichtig, aber nicht alles. Die Schuldfrage müsste m.E. auch beachtet werden. Was wenn 2 Jugendliche aus Übermut über die Autobahn rennen? Den unschuldigen Fahrer durch Selbstunfall töten? Da wäre ich amderer Meinung...
    Weitere Antworten anzeigen
  • fuegy 11.01.2016 15:21
    Highlight Highlight Damit autonomer Verkehr wirklich funktionieren kann, müsste der ganze Verkehr so sein, auch Velo, Fussgänger u.s.w. Die Strassen müssten so gebaut sein, dass nur bei Freigabe die Strasse betreten/überquert werden kann. So kann man die Möglichkeit für Unfälle reduzieren. Eine 100% Sicherheit wird es jedoch nie geben, weil immer unvorhersehbare Ereignisse eintreten können. Die Sicherheit erhöhen, ohne die persönlichen Freiheiten einzelner zu schneiden, stösst m.A. nach an ihre Grenzen. Es werden sich mehr "Minderheiten" für das grosse Ganze "opfern" müssen (Sonntagsausflügler, Rennfahren u.s.w)
    • aye 11.01.2016 16:23
      Highlight Highlight Falsch. Ist die Technik intelligent genug, kann sie sich autonom in den normalen, bestehenden Verkehr eingliedern. Und genau daran arbeiten die Konzerne.
  • klock 11.01.2016 15:20
    Highlight Highlight Die 2. Gotthardröhre birgt diese Fragen auch in sich und ich glaub diese Betrachtung ist interessant, weil die Entscheidung für oder wider nicht neutral erfolgt (Baufirmeninteressen, Naturschutz u.w.). Zwar erhöht sich die Sicherheit im Tunnel massgeblich und potenziell Frequenzsteigernd, dadurch sinkt jedoch die Verkehrssicherheit insgesamt von Basel bis Göschenen und von Airolo bis Chiasso. Der 2. Röhre zustimmen ist mutmasslich tödlicher. Allerdings, in Hinblick auf eine selbstfahrende Autozukunft fällt die Zustimmung zu diesem Projekt jedoch eh ins Irrationale.
  • So en Ueli 11.01.2016 14:08
    Highlight Highlight Für mich sind selbstfahrende Autos auch eine ideale Lösung, um Verkehrsunfälle zu reduzieren. Jedoch beschäftigt mich die Schuldfrage bei einem Unfall, der von einer KI verübt wurde. Wer übernimmt die Verantwortung? Der Fahrer hat in solch einer Situation ja nichts dafür. Haftet der Programmierer? Und solch ein System funktioniert auch nur wirklich gut, wenn alle Autos autonom unterwegs sind. Und wie will man sich gegen Hackerangriffe schützen, den kein System ist sicher.
  • Dave__ 11.01.2016 14:07
    Highlight Highlight Also moralisch finde ich dieses Problem ziemlich klar. Ich würde mich immer für die einzelne Person entscheiden.

    Viel schwieriger wird es jedoch, wie in der Realität, wenn noch Wahrscheinlichkeiten reinspielen.

    Wenn zum Beispiel mit einer Wahrscheinlichkeit von 100% eine Person getötet wird oder mit 50% Wahrscheinlichkeit 5 Personen.
    • Anded 11.01.2016 15:04
      Highlight Highlight Ich hätte moralisch ein grösseres Problem, wenn ich durch mein aktives Handeln den Tod einer Person herbeiführe. Als wenn ich durch bewusste Passivität (weil es eh keine Möglichkeit gibt, Tote zu verhindern) dem schlimmeren Unfall freien Lauf lasse.
    • Dave__ 11.01.2016 17:03
      Highlight Highlight Logisch, dies ist wieder ein anderer Aspekt welchen man einbeziehen kann und die Fragestellung nochmals verkompliziert.

      @Anded
      Ich verstehe den Gedanken, jedoch würde ich (wenn man wirklich sehr bewusst vor der Entscheidung steht) mich dann moralisch auch für den Tod dieser 5 Personen schuldig fühlen.
    • Anded 11.01.2016 22:48
      Highlight Highlight Ja, so oder so wird man sich schuldig fühlen weil man nicht alle retten konnte. Aber das Schuldgefühl dürfte bei einer Tötung doch noch viel grösser sein, als bei einem Sterbenlassen.
  • dracului 11.01.2016 13:16
    Highlight Highlight Auch ein Mensch muss die gleichen Entscheide fällen! Für mich ist es immer noch unklar, warum sich Autos heute fahren lassen, wenn man übermüdet oder alkoholisiert ist und warum es auf schweizer Strassen immer noch Fahrzeuge gibt, die über 200 km/h machen können. Im Moment gibt es zu viele fahrlässig verursachte Verkehrstote, weshalb ich die Entwicklung zu selbstfahrenden Fahrzeugen befürworte. Eine Maschine kann nicht besoffen, zu schnell oder mit zu viel Risiko fahren, irgendwelche menschlichen "Idioten" wird es jedoch immer (!) geben.
  • plaga versus 11.01.2016 13:05
    Highlight Highlight Das Trolly-Problem ist doch längst Realität. Der Artikel suggeriert ein Problem, das erst im Kommen sein soll. Dabei läuft das in Goldgruben (Koflikte, Kinderarbeit), Erdölförderung (Umweltprobleme), Flüchtlingsproblem... etc. Überall hat hier die utilitaristische Haltung die Oberhand. Und zwar in allen Welten, die einen wollen nicht, die andern können nicht anders.
  • cbaumgartner 11.01.2016 12:59
    Highlight Highlight Nun, der natürlichste Instinkt des Menschen ist das Überleben. Geht man davon allein aus, dann müssen wir diese Opfer zwingend in Kauf nehmen.
  • Matrixx 11.01.2016 12:36
    Highlight Highlight Das Dilemma ist noch etwas grösser. Hier müsste eine "Hierarchie" entstehen.
    Wenn das Auto ausweichen muss und entscheiden kann, ob es ein Kind oder eine alte Person töten soll, welche Person wählt es dann aus?

    Aus moralischer Sicht müsste es dafür sorgen, dass das Kind überlebt. Aber inwiefern ist dann das Leben der alten Person weniger wert?
  • Nichtswisser 11.01.2016 12:14
    Highlight Highlight Wird man eigentlich selbsfahrende Autos fahren lassen, ohne eine Person an Bord zu haben? Für den Gütertransport bieten sich da sehr viele gute Gelegenheiten, aber wenn dann ein Unfall passiert, mit Toten, ohne das ein Mensch transportiert wurde, ist das moralische Dilemma unter Umständen noch grösser.
    • Capt. Crunch 11.01.2016 13:51
      Highlight Highlight Ich hoffe das selbstfahrende Fahrzeuge immer einen ausgebildeten Lenker benötigen um z.b. das Tempo anzupassen bei spielenden Kindern, unsicheren Verkehrsteilnehmern, weidenden Wildtieren usw.
    • _stefan 11.01.2016 13:57
      Highlight Highlight Dafür wird die Todesstrafe für Autos eingeführt ;) Spass beiseite...

      Es wird noch einige Jahre dauern bis wir selbsfahrende Autos haben, welche ohne Beaufsichtigung auf öffentlichen Strassen fahren dürfen. Schlussendlich wird dies zu einer grundlegenden Veränderung im Strassenverkehr führen. Wir haben ja heute schon selbstfahrende Züge, da war man anfangs auch skeptisch...
  • rothi 11.01.2016 12:08
    Highlight Highlight Interessant auch die Frage inwiefern sich das System weiterentwickeln wird. Wird es in Zukunft auf das Alter der Personen Rücksicht nehmen? Auf deren "Wert" für die Gesellschaft? Da werden noch einige spannende Fragestellungen auf uns zukommen.
  • CreatorsWolf 11.01.2016 12:05
    Highlight Highlight Die Lösung für das Problem: Wie wäre es anstatt auf Autos auf den öffentlichen Verkehr zu setzen? Dort sterben praktisch keine Menschen. Oder ist die Auto- und Rohstoffindustrie zu mächtig um diese dritte Möglichkeit zuzulassen?
    • Nichtswisser 11.01.2016 12:15
      Highlight Highlight OK. Wie entscheidet sich denn der selbsfahrende Bus?
    • davedurner 11.01.2016 13:02
      Highlight Highlight Beim öffentlichen Verkehr sterben durchaus Menschen. Nur eben unter dem Tram, statt im Tram.
    • _stefan 11.01.2016 14:00
      Highlight Highlight So schlecht finde ich deine Idee ja nicht, aber ich würde am liebsten eine Kombination davon sehen. Autonome, öffentliche Taxis. Das wird viele Probleme im städtischen Verkehr lösen.
    Weitere Antworten anzeigen
  • glüngi 11.01.2016 12:04
    Highlight Highlight andere frage.. kann man im auto der zukunft selbst entscheiden wer fährt so wie beim mercedes?

    Weil wer selber fahren würde würde das Risiko erhöhen sprich man müsste die leute zwingen das auto autonohm arbeiten zu lassen & was passiert mit leuten die ein auto als hobby haben?
    Hobbyrennfahren, offroader, Tuner ect. würden keine selbstfahrenden auto besitzen können.
    • rothi 11.01.2016 12:17
      Highlight Highlight Wird es sicher auch in Zukunft geben. Kann mir jedoch vorstellen, dass du damit dann nicht mehr auf öffentliche Strassen darfst.
  • Donald 11.01.2016 12:04
    Highlight Highlight Ganz einfach: Das Auto bleibt im Zweifelsfall auf der Strasse und auch auf seiner Spur. Nur wenn es ganz sicher ist, darf ausgewichen werden.
    In der Realität ist die Frage nämlich noch einiges komplizierter. Woher will das Auto denn Wissen wer und wieviele genau sterben? Oder wie die Personen im letzten Moment reagieren. Evtl. springt ja das Kind noch rechtszeitig zur Seite oder hat sonst Glück.
    Weiter gibt es noch den Aspekt der Manipulation. Man könnte also mit 3 Menschen auf die Strasse springen und somit den einen Fussgänger auf dem Trottoir töten.
  • glüngi 11.01.2016 12:01
    Highlight Highlight Das ist eine schwierige Frage, einerseits würde ich sehr gerne am morgen in mein auto steigen können und dann im auto frühstücken wärend es mich zur arbeit fährt.

    die idee das mein auto sich und mich im falle eines notfalls opfern würde um andere und mehrere unbekannte zu retten erscheint logisch ist aber ein unangenehmer gedanke. allerdings muss man sich auch bewusst sein das die meisten menschen im falle eines notfalls sowieso falsch regieren würden und ein selbstfahrendes auto nur als allerletzte möglichkeit den sicheren tod wählen würde.
  • seventhinkingsteps 11.01.2016 11:50
    Highlight Highlight Interessant an der Forderung nach einer zufälligen Entscheidung ist, dass ein Algorithmus nur pseudo-zufällige Zahlen generieren kann. Zwar gibt es so gute Algorithmen, dass man den Unterschied nicht sehen kann, aber richtig zufällig sind sie nie und werden es auch nie sein.
    • Tortejäger 11.01.2016 11:59
      Highlight Highlight Daher sollte man Zuffalszahlen nehmen, welche auf physikalischen Werten bassieren (z.B. der Temperatur..). Diese sind nicht Deterministisch (=> erzeugen echte Zufallszahlen).
  • Typu 11.01.2016 11:41
    Highlight Highlight Deontologische Ethiker: darf ein tyrann umgebracht werden um ein volk zu retten? Müssen ja ganz selbstgerechte menschen sein die dieses feld vertreten.

    Zum artikel: ein system mit einer minimal wahrscheinlichkeit an fehler ist nur in einem geschlossenen system möglich. Wo also keine kinder oä reinrennen kann. Die welt ist aber anders und das autonome fahren noch in den sternen. Unterstützende systeme, ok, autonom? Yeah right ...
  • demokrit 11.01.2016 11:33
    Highlight Highlight "Sogenannte deontologische Ethiker sagen Nein. Für sie hat jedes Leben einen absoluten Wert. Deshalb kann nicht eines geopfert werden, um fünf zu retten, und deshalb bleibt das Problem unlösbar. Ein moralisches Dilemma eben." - Das ist nicht ganz korrekt. Die proklamierte Lösung für den Deontologen besteht eben darin, dem Unfall seinen Lauf zu lassen.
  • Joe11 11.01.2016 11:32
    Highlight Highlight Ganz einfach: Ein selbst fahrendes Auto handelt im Interesse des Fahrers und trifft Entscheidungen mit seinem Schutz als erste Priorität.

    In ein Auto das mich notfalls opfert, würde ich mich nicht reinsetzen wollen...
  • Ruffy 11.01.2016 11:32
    Highlight Highlight Nehmen wir das Beispiel mit dem Kind das auf die Strasse rennt. Das Auto soll einfach eine Vollbremsung versuchen, reicht diese nicht so stirbt das Kind.

    Es ist weder die Schuld des Autofahrers noch die der Oma welche alternativ getötet werden könnte.

    Dem Lastwagen wird nicht ausgewichen, auch hier, gibt es eine Kollision trifft es die Schuldigen, nämlich den Lastwagen und den Autofahrer (welcher als Autofahrer sich des Risikos bewusst sein muss und ja ich fahre Auto)

    Aber klar jeder hat da seine eigene Sichtweise.
    • Tscheggsch? 11.01.2016 11:41
      Highlight Highlight Danke für den Kommentar. Ich sehe das gleich wie Sie und habe mich die ganze Zeit gefragt, wie ich das schreiben soll ohne kalt, ignorant oder anderweitig herablassend rüberzukommen. Ihre Sichtweise passt für mich.
  • saukaibli 11.01.2016 11:20
    Highlight Highlight Und was ist, wenn der einzige Ausweg um nicht mehrere Menschen totzufahren ist, dass das Auto sich selber in z.B. einen Fluss oder eine Mauer lenkt? Somit würde der Fahrer als einzige Person sterben, was moralisch dann eigentlich der beste Weg wäre. Aber würde jemand ein Auto kaufen, das im Zweifelsfall einen selbst tötet anstatt ein paar "Unbekannte"?
  • giguu 11.01.2016 11:17
    Highlight Highlight schwierige moralische frage. wie sieht es aus, wenn 5 menschen auf der strasse sind und 1 person in einem fahrzeug auf der gegenspur? aus meiner sicht sollten die 5 überfahren werden, da die person auf der gegenspur nichts falsch gemacht hat und somit schützenswerter ist als die 5, die den eigentlichen unfall in kauf nehmen, oder im weg sind
    • Anded 11.01.2016 12:44
      Highlight Highlight Was, wenn einer der 5 Menschen auf der Strasse ein Kleinkind im Kinderwagen ist? Was hat es falsch gemacht?
    • Gantii 11.01.2016 13:11
      Highlight Highlight @anded, falsche zeit, falscher ort.
    • Anded 11.01.2016 14:46
      Highlight Highlight giguu schreibt wer nichts falsch macht ist schützenswerter. Mein Beispiel beweist, dass in beiden Fällen unschuldige getroffen werden können (+ der Fahrer des autonomen Autos ist auch gefährdet). Ich finde in dieser Situation ausweichen und Frontalkollision auch schlechter, aber nicht aus diesem Grund.
  • Randen 11.01.2016 11:13
    Highlight Highlight Das Problem ist nicht, dass man überfahren werden kann. Das Problem ist, dass man daran sterben oder schwer beschädigt werden kann. Wir müssen Körper generieren und Bewusstsein transferieren können. So wie das die Cylonen neuerdings machen.
  • SomeoneElse 11.01.2016 11:02
    Highlight Highlight quantifizierung von menschenleben... wtf?! oder wir implantieren am besten gleich noch allen chips und das auto erkennt dann ob die 5 personen weniger wert sind als die eine (alter, gesellschaftlicher status, kontostand, nicht bezahlte rechnungen, vorstrafen, usw)... schöne neue welt... wtf?!
    • lukass 11.01.2016 12:12
      Highlight Highlight Was ist denn dein Lösungsvorschlag für das Problem?
    • Metalhat 11.01.2016 13:48
      Highlight Highlight Was spricht dagegen jedes Menschenleben als gleich wertvoll zu sehen?
      ist dein Leben mehr wert als meines? Aufgrund unterschiedlicher Vorlieben, Entscheidungen und Geschichten sind unsere Leben definitiv unterschiedlich. Doch eigentlich sollten sie den gleichen Wert haben, nämlich jenen des Menschenlebens. Jedes Menschenleben ist aus Sicht des Autos gleich viel Wert, also quantisiert. (Dies soll damit ausgedrückt werden, was Sie hier darstellen wäre eine "Brave New World" "Fahrenheit 451" oder "1984" Version welche nichts mehr mit Quantisierung zu tun hat.)
  • emc2 11.01.2016 11:02
    Highlight Highlight "Nehmen wir ein paar tausend Tote durch selbstfahrende Autos in Kauf, ..."

    Und wie sieht es heute aus? Es ist ja nicht so, dass es in den beschriebenen Situationen keine Toten geben würde. Es wird suggeriert, dass man Opfer bringen müsse.

Tesla überholt (fast) alle: Das sind die 12 wertvollsten Autobauer der Welt

Dank dem gestrigen Zuwachs des Aktienwertes um fast 10 Prozentpunkte (9,77) überholte der amerikanische Elektroautohersteller Tesla den deutschen Volkswagen-Konzern als zweitwertvollster Autohersteller der Welt.

Das von Elon Musk gegründete Unternehmen hat heute, Stand 11.00 Uhr, einen Wert von 94,6 Milliarden Dollar. VW (94,13) ist damit hauchdünn geschlagen. Weiterhin (noch) unangefochten an der Spitze befindet sich Toyota. Die Japaner sind (noch) mehr wert als ihre beiden ärgsten Verfolger …

Artikel lesen
Link zum Artikel