Digital

Denkt und forscht an der Schwelle zwischen Gegenwart und Zukunft: der Philosoph und Autor Nick Bostrom. bild: wikimedia

Interview zu künstlicher Intelligenz: «Der Nebeneffekt wäre, dass die Menschheit dabei ausgerottet würde»

Der Philosoph und Autor Nick Bostrom spricht im Montagsinterview über künstliche Intelligenz, welche die menschliche schon in (fast) allen Spielen schlägt. Und er prophezeit, dass es nicht dabei bleibt

11.05.15, 14:45 11.05.15, 17:03

Raffael Schuppisser, Christoph Bopp / Nordwestschweiz

Ein Artikel der

Wir treffen den Philosophen Nick Bostrom am Digital Economic Forum in Zürich. Er ist als Keynote Speaker engagiert. Wir hören, wie er dem Auditorium aufzeigt, wie es zu einer Superintelligenz kommen kann. Im anschliessenden Interview fragen wir ihn, was superintelligente Maschinen für eine Auswirkung auf unsere Gesellschaft haben werden. Und warum er glaubt, dass sich der Mensch durch Technik optimieren soll.

Herr Bostrom, als Philosoph beschäftigen Sie sich damit, welche Katastrophe die Menschheit einmal ausrotten könnte. Sie sagen, das grösste Risiko stellt nicht ein Atomkrieg oder die Klimaerwärmung dar, sondern die Entwicklung einer superintelligenten Maschine. Wie kommen Sie darauf?
Nick Bostrom: Klar, es gibt viele Dinge, bei denen es wahrscheinlicher ist, dass sie schiefgehen, als dass wir eine Superintelligenz programmieren, die uns vernichtet. Aber diese Dinge werden nicht dazu führen, dass die ganze Menschheit untergeht. Jedes Jahr gibt es schlimme Erdbeben und Kriege. Auch bei einem Atomkrieg würde die Menschheit wohl nicht ausgerottet werden. Und bis die Erde wegen der Klimaerwärmung einmal unbewohnbar ist, geht es noch enorm lange. Zugegeben, das Risiko, dass die Menschheit wegen einer superintelligenten Maschine untergeht, ist in den nächsten Jahren sehr klein, doch es wird immer grösser, je besser wir in der Entwicklung von künstlicher Intelligenz werden.

Nick Bostrom

Geboren 1973 in Schweden. Studium der Physik, der Mathematik, der Neurowissenschaften und der Philosophie unter anderem am King’s College in London und an der London School of Economics. Dort erwarb er einen Doktortitel. Er ist Professor am St. Cross College der Universität Oxford und Direktor des Future of Humanity Institute und des Programme for the Impact of Future Technology. In seinem Bestseller «Superintelligenz. Szenarien einer kommenden Revolution» (auf Deutsch bei Suhrkamp 2014) denkt er darüber nach, was passiert, wenn eine von Menschen entwickelte Maschine zu einer mächtigeren Intelligenz wird als die unsere. Dies ist keine leere Spekulation, meint Bostrom, sondern eine reale Möglichkeit. Und unser Schicksal würde dann von den Handlungen dieser maschinellen Superintelligenz abhängen. Es stellen sich vor allem zwei Probleme: Wann wird es so weit sein? Und wie behalten wir die Kontrolle? Die Mutation einer künstlichen Intelligenz zu einer Superintelligenz wird eine Art Explosion sein und wahrscheinlich nicht beobachtbar. Und die Superintelligenz zu kontrollieren ist ziemlich schwierig, denn eine Superintelligenz würde ziemlich genau voraussehen, was wir mit ihr vorhaben. Also besteht Handlungsbedarf. Und es sieht so aus, meint Bostrom, «als hätten wir nur einen Schuss frei.»

Was ist denn so gefährlich an dieser Superintelligenz?
Intelligenz kann sehr mächtig sein. Der Mensch ist nicht besonders stark und hat keine scharfen Krallen, dennoch hat er auf der Erde gegenüber den anderen Tieren eine dominante Position, weil sein Gehirn etwas anders ist. Heute hängt das Schicksal der Gorillas mehr davon ab, was wir Menschen tun, als davon, was die Gorillas selber tun. Wenn wir Maschinen entwickeln, die intelligenter sind als wir, dann besteht das Risiko, dass unsere Zukunft mehr davon abhängt, was diese Maschinen tun werden als davon, was wir selber tun werden.

Muss eine Superintelligenz zwingend böse sein? 
Nein. Ich sehe das Risiko weniger darin, dass uns eine künstliche Intelligenz hassen könnte, sondern vielmehr darin, dass sie andere Ziele haben könnte als wir. Und diese würde sie dann ohne Rücksicht auf Verluste verfolgen. Wenn wir ihr etwa die Aufgabe geben würden, ein kompliziertes mathematisches Rätsel zu lösen, so könnte die künstliche Intelligenz auf die Idee kommen, dass das Ziel am schnellsten erreicht wird, wenn die ganze Erde in einen riesigen Computer umgewandelt wird. Der Nebeneffekt wäre, dass die Menschheit dabei ausgerottet würde.

Wenn wir schon schlau genug sind, eine Superintelligenz zu schaffen, dann sollten wir doch auch schlau genug sein, sie so zu konstruieren, dass sie uns nicht gefährlich wird. 
Wir können das hoffen. Unsere Erfahrung zeigt aber, dass von Menschen entwickelte Technologien unbeabsichtigte und unkontrollierbare Effekte haben können. Als die Menschen das Auto erfanden, sahen sie die Konsequenzen für die Klimaerwärmung nicht voraus. Bei der Entwicklung einer Superintelligenz kommt noch etwas hinzu: Wir würden etwas entwickeln, das intelligenter ist als wir und sich selber Ziele setzen kann.

«Wenn wir Maschinen entwickeln, die intelligenter sind als wir, dann besteht das Risiko, dass unsere Zukunft mehr davon abhängt, was diese Maschinen tun werden als davon, was wir selber tun werden.»

Wir haben es also mit einem alten Problem zu tun: Mehr Intelligenz bedeutet nicht automatisch mehr Moral. 
Genau, wenn wir etwas entwickeln, das viel schlauer ist als wir, bedeutet das nicht, dass es auch moralisch besser ist. Die intelligentesten Menschen sind auch nicht immer gut, sondern manchmal auch sehr böse. Das trifft auch auf die Superintelligenz zu.

In den «Terminator»-Filmen haben die Maschinen die Herrschaft übernommen.  bild: thedissolve

Könnten wir das Problem lösen, indem wir die Superintelligenz in eine Box einschliessen und sie unter keinen Umständen ans Internet anschliessen? 
Das ist eine Möglichkeit – zumindest am Anfang während der Konstruktion. Doch ich denke, man kann einen mächtigen Geist nicht ewig in einer Flasche einsperren. Wenn wir eine Superintelligenz haben, wird diese früher oder später einen Weg finden, um sich zu befreien.

Was sollen wir also tun? 
Wir müssen eine Lösung finden, der künstlichen Intelligenz menschliche Werte einzuprogrammieren.

Und wie kann das gehen? 
Das wissen wir derzeit noch nicht genau. Es ist ein neues Forschungsfeld. Bis vor einem halben Jahr gab es neben meiner Gruppe in Oxford nur noch ein anderes Team, das daran forschte. Unter anderem dank meinem Buch «Superintelligenz» ist nun das Interesse grösser geworden. So hat beispielsweise der Technik-Unternehmer Elon Musk (Gründer von Tesla und SpaceX, Anm. d. Red.) 10 Millionen Dollar für die Erforschung dieses Problems gespendet. Nun werden verschiedene Ansätze entwickelt.

Worin zeigt sich eine Superintelligenz? Ist sie schneller im Rechnen oder auch weiser als wir? 
Ich unterscheide zwischen drei Formen von Superintelligenz. Die erste: Sie ist einfach viel schneller als die menschliche Intelligenz und kann mehr Informationen verarbeiten. Die zweite: Sie ist viel grösser als die menschliche Intelligenz und kann so mehr Probleme parallel lösen. Eine dritte Form wäre eine qualitativ bessere Intelligenz. Sie wäre dann einfach schlauer als wir, so wie wir schlauer sind als Gorillas, auch wenn unsere Gehirne sich sehr ähnlich sind.

Und welche Form wird sich durchsetzen? 
Alle drei. Sobald wir eine dieser drei Formen entwickelt haben, werden wir die anderen auch bald zur Verfügung haben. Denn die von uns entwickelte Superintelligenz wird einen Weg finden, die anderen Formen zu entwickeln und so alle drei Dimensionen der Superintelligenz zu erreichen.

Steven Spielbergs Film «A.I.» kombiniert Roboter mit künstlicher Intelligenz und die Pinocchio-Geschichte. bild: hdmovietrailers

Wie lange dauert es noch, bis wir eine Superintelligenz haben? 
Das weiss ich nicht. Und niemand sonst.

Noch in diesem Jahrhundert? 
Ich denke, es gibt eine grosse Chance dafür. Aber keine Garantie.

Dann wird das 21. Jahrhundert ein Schicksalsjahrhundert für die Menschheit. 
Ja, und nicht nur wegen der wahrscheinlichen Entwicklung einer Superintelligenz. Es sieht so aus, dass wir noch mit anderen existenziellen Risiken konfrontiert werden.

Mit welchen? 
Der synthetischen Biologie, Bio-Engineering, vielleicht auch Nanotechnologie. Und wahrscheinlich auch anderen Technologien, die wir jetzt noch nicht kennen – so wie die Menschen vor 100 Jahren noch nicht an Nuklearwaffen als grosse Bedrohung gedacht haben.

«Ich bin nicht wirklich kompetent zu analysieren, was Gott wollen würde»

Sie haben 1998 die World Transhumanist Association gegründet, eine Vereinigung, welche die Grenzen menschlicher Möglichkeiten durch Einsatz von Technik erweitern will. Was ist ein Transhumanist genau? 
Das hängt davon ab, wen Sie fragen. Transhumanismus ist ein schwammiger Begriff, der für viele verschiedene Menschen Verschiedenes meint.

Wir fragen Sie. 
Ein Transhumanist vertritt die Idee, dass der derzeitige menschliche Zustand nicht der bestmögliche ist. Und dass es möglich ist, durch technische Entwicklungen einen post-humanen Zustand zu erreichen, der wünschenswerter ist.

Heisst das, Sie sind mit Ihrem momentanen Zustand als Mensch nicht zufrieden? 
Nein, das heisst es nicht. Aber ich bin der Ansicht, dass technische Erweiterungen durchaus zu einem erfüllteren Leben führen können. Doch man muss aufpassen: Wer der Ansicht ist, dass die Erfüllung des Lebens immer einen technischen Entwicklungsschritt entfernt liegt, der wird nie glücklich sein.

Im Game «Portal» muss sich der Spieler mit der künstlichen Intelligenz Glados herumschlagen. Mit unendlichen Tests versucht sie den Spieler zu zermürben.  bild: valve

Welche Ihrer Fähigkeiten möchten Sie durch Technik verbessern, wenn das jetzt möglich wäre? 
Den Alterungsprozess zu verlangsamen, wäre sehr cool. Mehr Intelligenz, bessere Konzentrationsfähigkeit und längere Ausdauer wären natürlich begrüssenswert.

Sollen wir den Menschen wirklich optimieren? Es liesse sich ja auch argumentieren: Wenn die Natur es gewollt hätte, dass wir diese erweiterten Fähigkeiten haben, dann wären wir damit ausgestattet worden. 
Die Natur will nichts. Und selbst wenn sie etwas wollen könnte, dann glaube ich nicht, dass wir einen Grund hätten, uns darum zu kümmern.

Und Gott
Ich bin nicht wirklich kompetent zu analysieren, was Gott wollen würde. Aber ich denke, dass die meisten Leute sich einig sind, dass es einen Grund gibt, natürliche Krankheiten wie Krebs zu bekämpfen. Und dass wir durch Bildung die kognitiven Fähigkeiten von Kindern entwickeln sollen. Aus demselben Grund bin ich der Auffassung, dass wir auch unsere Fähigkeiten durch Biotechnologie erweitern sollen, wenn diese verfügbar sind. Wer nun argumentiert, dass wir das nicht tun sollten, weil wir nicht in die Natur eingreifen dürften, der müsste gegen viele andere, völlig unproblematische Dinge, zum Beispiel auch gegen die medikamentöse Behandlung von Krankheiten argumentieren.

Aber die Optimierung des Menschen kann weitreichendere Effekte haben. Durch Gentechnik lassen sich in der Zukunft vielleicht einmal Babys mit besseren Fähigkeiten designen. Diese Fähigkeiten würden dann weiter vererbt und hätten einen Einfluss auf künftige Generationen. 
Das trifft aber auch für andere Entwicklungen zu. Wenn Kinder gute Bildung erhalten, dann ist es viel wahrscheinlicher, dass diese sich auch um Bildung für ihre Kinder kümmern werden. Radioaktive Verschmutzung hat einen negativen Effekt auf die kommende Generation, bessere Infrastruktur einen positiven.

Sehen Sie eine Gefahr, dass diese Optimierungs-Technologien nur den Reichen zur Verfügung stehen werden? 
Dieser Frage widmen Transhumanisten grosse Aufmerksamkeit. Die Frage lässt sich so angehen: Heute haben viele Menschen auf der Welt keinen Zugang zur modernen Medizin wie Medikamente gegen Krebs oder Organtransfer. Es besteht heute diesbezüglich schon eine grosse Ungleichheit. Natürlich wäre es besser, wenn alle Menschen Zugang zu neuen Technologien hätten. Doch bis es soweit ist, erachte ich es als besser, wenn wenigstens einige Menschen Zugang haben. Das gilt auch für Optimierungs-Technologien.

In «iRobot» kämpft Will Smith gegen aufmüpfige Roboter.  bild: imglisting

Auch wenn dann eine kleine Gruppe der Menschheit noch überlegener werden würde? 
Es besteht ein grosser Unterschied zwischen verschiedenen Optimierungs-Technologien. Wenn eine Technologie einen Menschen auf die Kosten anderer besser macht, ist das nicht wünschenswert. Doping wäre ein Beispiel. Wenn eine Technologie aber bloss das Glück eines Einzelnen optimiert, ohne dass andere dadurch herabgestuft werden, sehe ich nichts Schlechtes daran. Wenn ich durch Technologie verhindern kann, krank zu werden, schadet das niemandem. Das Gleiche gilt für kognitive Optimierungen.

Wirklich? Wenn ich aufgrund einer Technologie intelligenter werde, dann habe ich gegenüber anderen bessere Chancen im Leben, insbesondere auf dem Arbeitsmarkt. 
Ja, es besteht auch hier ein gewisser Aspekt der Bevorzugung gegenüber anderer. Doch nicht nur. Es hat auch einen intrinsischen Nutzen. Wenn ich zur Schule gehe, tue ich das nicht nur, weil ich einen besseren Job will, sondern auch, weil mein Leben dadurch reicher wird. Dasselbe gilt für kognitive Optimierungs-Technologien. Aus dem gleichen Grund wie wir versuchen, Kinder von Substanzen fernzuhalten, die ihrer Intelligenz schaden – zum Beispiel verseuchtes Trinkwasser –, so sollten wir auch versuchen, ihre Intelligenz zu optimieren. Denn es deutet nichts darauf hin, dass der momentane Level an Intelligenz der beste ist und folglich mehr Intelligenz schlecht wäre.

Vor einigen Wochen wurde die wissenschaftliche Welt aufgerüttelt von einer Studie aus China. Forscher haben zum ersten Mal Embryos genetisch manipuliert. Auch wenn diese nicht eingesetzt wurden, führte das zu einem Aufschrei. Was denken Sie darüber? 
Es zeigte sich, dass die Manipulationen ungewollte Nebeneffekte haben. Es braucht also noch mehr Forschung. Denn bevor die Technologie medizinisch nicht sicher ist, sollte man sie bei Menschen nicht nutzen. Die genutzte Technologie namens Crisper ist noch ziemlich jung. Das Experiment deutet an, welche Entwicklung in den nächsten zehn Jahren möglich sein könnte.

Was ist mit anderen Optimierungs-Technologien zum Beispiel mit der Implementierung eines Computerchips ins Hirn. 
Hier bin ich skeptisch. Limitierte Dinge werden bald möglich, aber sie sind nicht attraktiv für gesunde Menschen.

Aber es wäre doch denkbar, dass man sein Erinnerungsvermögen durch einen Chip erweitern kann? 
In einem gewissen Sinne kann man das ja schon mit einem Smartphone.

Was ist mit wirklich verrückt klingenden Technologien wie etwa der Möglichkeit, sein Gehirn auf einen Computer zu laden, wenn der Körper stirbt? 
Wenn wir eine Superintelligenz haben, wäre das sicher eine Anwendung, die diese schnell entwickeln könnte. Die Frage ist, ob wir das wirklich wollen, ob das wirklich die bestmögliche Entwicklung ist, um dem Alterungsprozess zu entgehen. Oder ob es nicht bessere Möglichkeiten gibt, als das Hirn auf einen Chip zu laden.

Aber würde das denn wirklich funktionieren? Man müsste ja Bewusstsein auf einem Computerchip ermöglichen können.
Ich bin der Auffassung, dass es keine biologischen Bedingungen – wie auf Kohlenstoff basierende Neuronen – braucht, um Bewusstsein zu erzeugen. Bewusstsein entsteht durch einen bestimmten Prozess der Informationsverarbeitung und lässt sich folglich künftig auch einmal auf einem Computer erzeugen. Das führt zu einer wichtigen Frage über den moralischen Status eines Computers mit Bewusstsein.

Im Film «Blade Runner» sind sogenannte Androiden so menschlich, dass sie nicht mal wissen, dass sie Roboter sind. bild: facultyimuedu

Und die wäre? 
Wir sprechen etwa einer Maus einen gewissen moralischen Status zu. Dieser verbietet uns, das Tier bloss aus Spass zu quälen. Wenn nun ein Computer ein ähnliches Bewusstsein hat wie eine Maus, müssen wir ihm diesen moralischen Status auch zusprechen. Wenn wir also auf Basis dessen einen Computerspiel-Charakter kreieren würden, wäre es falsch, diesen schlecht zu behandeln.

Klingt irgendwie beängstigend. 
Mir macht es auch etwas Angst. Denn oft fällt es uns schwer, Tiere gut zu behandeln, obwohl diese ein Gesicht haben, das den Schmerz ausdrücken kann. Computer haben das nicht. Es wird uns also noch schwerer fallen, sie gut zu behandeln. Übrigens könnten diese Fragen schon ziemlich bald relevant werden, da eine künstliche Intelligenz schon Bewusstsein erlangen wird, ehe sie zur Superintelligenz wird.

Das könnte dich auch interessieren

Digitale Revolution: Fünf Technologien, die unseren Alltag verändern werden

Hol dir die App!

Yanik Freudiger, 23.2.2017
Die App ist vom Auftreten und vom Inhalt her die innovativste auf dem Markt. Sehr erfrischend und absolut top.
Abonniere unseren NewsletterNewsletter-Abo
18
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 72 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
18Alle Kommentare anzeigen
    Alle Leser-Kommentare
  • Buebi 12.05.2015 10:50
    Highlight Age of Ultron... Scheint grad aktuell...
    0 0 Melden
  • Zeit_Genosse 12.05.2015 08:09
    Highlight Womöglich macht es Sinn dem Raubtier Mensch etwas intelligentes entgegen zu stellen. Das Problem ist, dass wir die Intelligenz von uns aus ableiten und KI-Maschinen mit uns vergleichen. Wenn sich aber KI dereinst unabhängig vom Menschen weiterentwickeln kann, dann wird der "Störfall Mensch" möglicherweise zum Bremser der selbst angeschobenen Entwicklung und intelligentes Handeln wäre im Sinne der Selbsterhaltung des Systems der KI-Spezien, den Menschen zurückzubinden oder aus dem Weg zu räumen. Der Mensch wird sich nämlich nicht mit der Gorilla-Mensch-Position zu KI abfinden und sämtliche Kraft zur Eleminierung der für ihn zur Fehlentwicklung gewordenen Maschinen aufwenden.
    1 0 Melden
    • Gelöschter Benutzer 12.05.2015 10:57
      Highlight ja aber hey dan hätten wir endlich DEN FEIND gegen den wir uns zusammenschliessen könnten, statt uns selbst in die Ehwigen zu schicken ;). ABER ja ist schon beängstigend wenn man so über Selbstenwiklungsintelligenz nachdenkt. Aber auch spannend :)
      1 0 Melden
    • Gelöschter Benutzer 12.05.2015 13:12
      Highlight ja also wenn sie besseren Batterien entwicklen sagen wir wohl auch nicht nein :) den Strom wird wohl eine grosse Relevanz erhalten :) oder eben sie machen halb bio draus, computer mit blätter und so, brauchen dan aber auch wasser und the sun :) keine Ahnung ich würd es aber irgendwie gerne noch erleben :)

      0 0 Melden
  • Gelöschter Benutzer 11.05.2015 17:23
    Highlight uhhhhh ich liebe solche Interviews. :) ich würde am liebsten mitforschen :)
    Moral ah so schön bei Intelligenz spielts plötzlich eine Rolle oder doch erst wenn wir Gefahr in etwas sehen? Gefahr darin sehen dümmer zu sein? Aber braucht es nicht Gefühle für Moral? Wie bringt man einem nicht biologischen ( ok kann man so ja noch nicht sagen :) Wesen oder Erzeugniss Gefühle bei? Kann man eine Maschine kitzeln und sie intepretiert es wie wir? Ohh ich liebe diese Fragen. Und wissen werden wir es wohl nie.
    13 1 Melden
    • Adonis 11.05.2015 19:21
      Highlight Ratson: 1. kommt es anders und 2. als man denkt. Ich war acht Jahre alt, als wir ein Wandtelefon erhielten. Dank dem Austragen von Telegrammen, weil Vater bei der PTT arbeitete. Derweil aus einem kleinen Röhrenradio: "Zyt isch do" 6x aus dem Radio klang um hernach 4 Piepstöne abzugeben, so dass jeder Schweizer wusste, dass die Mittagsnachrichten kommen. Heute kommt's mir fast, wenn ich Radio höre.., ständig Nachrichten. In meinem kurzen Lebenmachte man via Technik und Erfindungen vermutlich mehr kaputt als Gutes. Jungs/Mädels, schaut zu eurer Welt + bremst die Ver-rückten!
      7 2 Melden
    • Bowell 11.05.2015 22:41
      Highlight Naja, irgendwie entstanden ja aus Atomen Moleküle und daraus Aminosäuren und schliesslich Leben, inkl. Mensch, Emotionen und Maral (etc...). Warum sollte dasselbe nicht auch mit Computern geschehen. Wer weiss, vielleicht sind irgendwann genügend Computer per Internet verbunden, dass sie wie ein grosses Gehirn funktionieren und sich selbstständig machen.
      3 0 Melden
    • ket4mon 12.05.2015 06:56
      Highlight Die Forschung ist dank der Nanotechnologie nicht mehr so weit davon entfernt, ein funktionstüchtiges Hirn nachzubauen. Durch visuelle Reize können durch die simulierten Synapsen Gefühle aufgebaut werden, wie es der Mensch vor langer Zeit auch gemacht hat. Aber auch hier gillt der Grundsatz: Ein System ist nur so schlau, wie der Entwickler.
      0 3 Melden
    • Gelöschter Benutzer 12.05.2015 10:04
      Highlight 42 ;)
      1 0 Melden
    • Gelöschter Benutzer 12.05.2015 13:09
      Highlight hehe :) @Simon Hirn ist ja so eine sache für sich, denn erst richtig spannend ist das BEWUSSTSEIN. Also was generiert sein Bewusstes Sein? Es ist völlig losgelöst von allem, was würde ihm überhaupt was bedeuten? An was orientiert sich ein Computer den? Würde es sich selbst verstehen oder geht das nicht weil es keine Vergleiche gäbe? Was wäre Liebe für das Ding? Es wäre einfach nicht relevant warscheinlich. Das mein ich mit fühlen. Ich glaub nicht daran das wir als Entwickler das so hinkriegen würden, und wenn dann nur mit biomasse-sensoren :)
      0 0 Melden
  • Gelöschter Benutzer 11.05.2015 17:09
    Highlight Und zum Dritten:
    Jemand soll dem Mann mal von Asimovs Robotergesetzen erzählen! Maschinen sind schliesslich programmierbar!
    8 3 Melden
    • Zeit_Genosse 12.05.2015 08:25
      Highlight Die Zeiten der Eins-Eins-Programmierung gehen zu ende. Die Selbstprogrammierung und damit Selbstentwicklung von Systemen hat begonnen. Menschen bauen Maschinen, die Maschinen bauen. Maschinen bauen bessere Maschinen als Menschen. Maschinen verlassen den vom Menschen erwarteten Entwicklungspfad für die Selbstoptimierung ohne Begrenzungen durch den Menschen (Material, Design, Zweck).
      Heute kann Soft- und Hardware vieles besser als der Mensch. Die dünne und kurze Leine, an der der Mensch die techno-intelligenten Systeme hält, könnte unter dem Zug der induzierten Entwicklung reissen. Noch sind wir im Lead. Doch irgendwo tüffelt jemand an einem militärischen System das keine Menschen mehr auf der eigenen Seite "verbraucht" und viele Menschen auf der anderen Seite zu töten vermag.
      Wenn das System erkennen würde, dass das Abschlachten einer Menschengruppe durch eine andere Menschengruppe nicht intelligent ist (dafür braucht es keine Künstliche Intelligenz), dann könnte das System dereinst in Autonomie gehen und sich gegen die lebendige Spezies, die sich selbst bekämpft, vorgehen, sofern sich die Maschinen befähigen, sich ohne Menschen selbst zu bauen, unterhalten, usw. Wäre das intelligent? Noch SF, aber ein Gedankenexperiment wert.
      5 0 Melden
    • Dubio 12.05.2015 09:57
      Highlight Lustig, dass sie Asimovs Gesetze erwähnen. Der Witz an diesen ist ja gerade, dass sie unvollkommen sind und in gewissen Situationen zu sehr unwillkommenen Resultaten führen. Daraus konnte Asimov seine äusserst spannenden Geschichten spinnen...
      3 0 Melden
    • Gelöschter Benutzer 12.05.2015 21:57
      Highlight Dubio
      Sollte ja nur ein Ansatz sein :-)

      Zeit_Genosse
      Danke für dein Gedankenexperiment.
      0 0 Melden
  • Gelöschter Benutzer 11.05.2015 17:08
    Highlight Maschinen sind nicht böse. Der Vergleich mit intelligenten bösen Menschen ist lächerlich. Sorry.
    Mittlerweilen belegen genügend Studien, dass der Mensch von Natur aus hilfsbereit ist und einen angeborenen Sinn für Fairness hat, der auf - tatataa - Emotionen beruht. DAS ist die Basis von Ethik und Moral. Aber schon im Alter von 6 Mt. haben die armen Kinder sich so gut in unsere nette Kultur integriert, dass sie schon mal jemanden den Berg runterschupsen, um einen Keks zu bekommen. Unabhängig von IQ gilt also schlicht: Wer "böse" ist, wurde verkorkst, aber nicht so geboren.
    10 4 Melden
    • Zeit_Genosse 12.05.2015 08:35
      Highlight Ethik, Moral und das ewig Gut und Böse (wie auch Religion) sind menschliche Konstrukte, damit wir nicht über uns herfallen. Es ist damit eine künstliche Zurückbindung von menschlichen Fähigkeiten für das finale Überleben. Denn im Überlebenskampf wird vieles über Bord geworfen. Der Mensch trägt die Bestie in sich. Mit seiner sagen wir mal 100'000 Jahre alten Entwicklungsgeschichte ist der Mensch gegenüber dem Hai im Meer mit 450 Mio. Jahren Anpassungsgeschichte, ein Wesen, das in kurzer Zeit viel anrichten kann, aber auch sehr viel mehr Zeit für ein angepasstes Wesen braucht. Ob uns da intelligente Maschinen weiterbringen?
      3 0 Melden
  • Gelöschter Benutzer 11.05.2015 17:04
    Highlight Die Untertreibung des Jahres. "Denn oft fällt es uns schwer, Tiere gut zu behandeln." Fleisch, Milchprodukte, Leder, Pelz. Und wer weiss, dass nahezu alle Kosmetikprodukte Tier beinhalten? Und und und ...
    Aber ja. Das haben sie uns alles freiwillig gegeben. Sie haben kurz angehalten in ihrer wunderbaren Freiheit, bis der Mensch sich bedient hat und dann liefen sie weiter durch's Paradies.
    Die Menschen funktionieren bei Tierleid nach dem System "Aus den Augen aus dem Sinn". Wenn ich Misshandlung, Folter und Qual nicht sehe, geht's mich nichts an und ich darf die Produkte verwenden.
    8 6 Melden
  • Gelöschter Benutzer 11.05.2015 16:20
    Highlight Interessantes Interview.
    17 0 Melden

Verschwörungstheorie? «Jeder mit einer anderen Analyse wird mit Spinnern, Pädophilen und Antisemiten in eine Ecke gestellt»

Ein neuer Dokumentarfilm (siehe Video unten) beleuchtet am Beispiel des umstrittenen Schweizer Historikers Daniele Ganser, welch erbitterte Auseinandersetzungen bei Wikipedia-Artikeln zu kontroversen Themen oder Personen im Hintergrund ablaufen. Gansers Spezialgebiet ist verdeckte Kriegsführung und er erforscht in diesem Zusammenhang auch Verschwörungstheorien zu den Terroranschlägen des 11. Septembers 2001. Seine Versuche, den Wikipedia-Artikel zu seiner eigenen Person abzuändern, …

Artikel lesen