Wissen
Wir verwenden Cookies und Analysetools, um die Nutzerfreundlichkeit der Internetseite zu verbessern und passende Werbung von watson und unseren Werbepartnern anzuzeigen. Weitere Infos findest Du in unserer Datenschutzerklärung.
Roboter spielt Keyboard

Kann eine Künstliche Intelligenz so etwas wie Bewusstsein entwickeln? Bild: Unsplash/Franck V.

Wie eine dumme künstliche Intelligenz uns zum Verhängnis werden könnte

Marko Kovic



Am 4. August 1997 nahm das US-Militär eine hochmoderne künstliche Intelligenz (KI) in Betrieb. Unmittelbar nach Inbetriebnahme begann die KI, in einer exponentiellen Rate zu lernen. Am 29. August 1997 entwickelte die KI, völlig unerwartet, ein Bewusstsein. Das US-Militär geriet in Panik und versuchte, die KI abzuschalten, was diese als Angriff deutete. Die KI holte zum Gegenschlag aus: Mit einem atomaren Angriff auf Russland wurde ein globaler Nuklearkrieg provoziert, mit dem sich die Menschheit weitgehend selber vernichtete – was der KI ermöglichte, die Weltherrschaft zu übernehmen.

Sci-Fi-Connaisseure werden erkannt haben, dass dieses Szenario die Geschichte von «Terminator» ist: Die KI Skynet entwickelt ein Bewusstsein und macht fortan, wie es ihr beliebt. Terminator ist aber nur eines unter vielen Sci-Fi-Werken, welche dieselbe Angst thematisieren: Eine KI, die so intelligent wird, dass sie ein Bewusstsein entwickelt und dadurch eine existenzielle Gefahr für die Menschheit wird.

abspielen

Trailer von «Terminator». Video: YouTube/JohnVexer

Wir erleben gegenwärtig einen regelrechten KI-Boom. In der Forschung werden laufend neue, ausgeklügelte Algorithmen erarbeitet, und in der Praxis macht KI immer mehr immer besser, von Spracherkennung über selbstfahrende Fahrzeuge bis hin zu Dating-Apps. Es scheint also höchste Zeit, das existenzielle Risiko KI ernst zu nehmen: Müssen wir uns Sorgen machen, dass KI bald ein Bewusstsein entwickelt und eine Bedrohung für die Menschheit wird? Die Antwort mag paradox klingen: Nein, KI dürfte bis auf Weiteres kein Bewusstsein entwickeln – aber trotzdem, oder vielleicht gerade darum, könnte «dumme», aber mächtige KI die Menschheit auslöschen.

Marko Kovic

Bild: zVg

Dr. phil. Marko Kovic ist Präsident von ZIPAR – Zurich Institute of Public Affairs Research. Zudem ist er CEO der Beraterfirma ars cognitionis.

Wo KI heute steht ...

«Künstliche Intelligenz» ist ein schwammiger Begriff. Ganz allgemein meint KI einen wie auch immer gearteten Apparat, der in der Lage ist, Ziele zu erreichen, indem er neue Reize und Informationen aus der Umwelt verarbeitet. Heutzutage meinen wir mit KI Software, welche in der Lage ist, nützliche Dinge zu tun, aber ohne dass alle Anweisungen fest einprogrammiert werden müssen.

Stattdessen «lernt» KI anhand von Beispielen, was das korrekte Vorgehen ist. Das hat schon heute etwas fast Zauberhaftes. Wenn beispielsweise die digitale Assistentin Alexa von Amazon auf natürliche Fragen natürlich wirkende Antworten gibt, könnte man meinen, am anderen Ende der Leitung sitze ein Mensch.

Amazon

Amazons digitale Assistentin Alexa gibt natürlich wirkende Antworten. Bild: Unsplash/Rahul Chakraborty

KI hat zweifellos das Potenzial, praktisch alle Facetten der Gesellschaft gehörig umzukrempeln. Und trotzdem gilt die heutige KI als «eng» oder als «schwach» (nach dem Englischen «narrow AI» oder «weak AI»). Nicht, weil sie schlecht wäre; schon heute kann KI in vielen Situationen das, was sie macht, viel besser als die besten Menschen. KI ist heute aber begrenzt (oder spezialisiert) auf einzelne Domänen und Problemstellungen.

Eine KI von DeepMind kann heute jeden menschlichen StarCraft-II-Spieler problemlos schlagen – aber diese KI kann keine Autos auf der Autobahn fahren. Die KI von Tesla kann heute teilweise sicherer auf der Autobahn fahren als Menschen – aber diese KI kann nicht erkennen, ob jemand Nacktbilder auf Facebook hochlädt. Facebook setzt heute KI ein, die blitzschnell erkennt, ob jemand Nacktbilder hochlädt – aber diese KI kann weder Starcraft II spielen, noch kann sie Autos auf der Autobahn fahren. Und so fort.

KI ist heute extrem gut darin, extrem spezifische Dinge zu tun. Der menschlichen Intelligenz kann KI damit aber noch lange nicht das Wasser reichen: Wir Menschen können recht mühelos sowohl StarCraft II spielen, als auch ein Auto fahren, wie auch Nacktbilder erkennen.

… und wo KI morgen ankommen könnte

Der heilige Gral der KI-Forschung ist eine domänen-übergreifende Intelligenz, wie sie uns Menschen auszeichnet: Eine «Artificial General Intelligence» (künstliche allgemeine Intelligenz). Das wäre eine KI, die auf eine ähnlich flexible Art intelligent wie wir Menschen ist. Eine KI also, welche mindestens genauso gut wie wir StarCraft II und Autofahren und Nacktbilder erkennen gleichzeitig meistern könnte.

Roboter denkt nach (Symbolbild)

Künstliche allgemeine Intelligenz: Eine auf flexible Art intelligente KI. Bild: Shutterstock

Wann ist es mit der menschen-ähnlichen künstlichen Intelligenz soweit? Darüber lässt sich im Moment nur spekulieren, denn eine «KAI» (künstliche allgemeine Intelligenz) zeichnet sich heute noch nicht klar am Horizont der KI-Entwicklung ab. So geben sich KI-Forscherinnen und -Forscher in zwei Umfragen von 2016 und 2018 zurückhaltend und vermuten, dass es wohl noch Jahrzehnte dauern wird. Aber gleichzeitig vermuten sie, dass eine KAI grundsätzlich zu erwarten sei.

Falls es gelingt, eine KAI zu erschaffen, könnte das ziemlich schnell in einer regelrechten Intelligenz-Explosion münden. Der Statistiker Irving Good hatte bereits 1966 in einem Essay erklärt, warum: Wenn wir es schaffen, eine künstliche Intelligenz zu bauen, die nur schon geringfügig intelligenter als wir Menschen ist, dann bedeutet das, dass diese künstliche Intelligenz ihrerseits in der Lage sein wird, eine künstliche Intelligenz zu bauen, die intelligenter als sie selber ist. Warum sollte die KAI das machen? Wenn sie eine allgemeine Intelligenz besitzt, wird sie wissen, dass sie ihre Ziele mit dieser nochmals intelligenteren KAI besser erreichen kann.

Dieser Prozess der rekursiven Verbesserung der KI würde so weit gehen, dass an einem Punkt eine solch mächtige Superintelligenz entsteht, dass wir Menschen uns bequem zurücklehnen können. Die KAI, die wir erschaffen haben, wäre nämlich die letzte Erfindung, die wir je machen müssen: Die künstliche Superintelligenz würde innerhalb kürzester Zeit jeden unserer Wünsche, die im Rahmen der Naturgesetze möglich sind, erfüllen. Wenn wir es also schaffen, eine KAI herzustellen, haben wir die technologische Singularität mehr oder weniger erreicht.

Und hierin liegt die tatsächliche Gefahr der KI. Wenn wir eine künstliche Intelligenz schaffen, die nur schon geringfügig intelligenter als wir selber sind, haben wir ein grosses Problem: Wenn wir diese KI im Nachhinein verändern oder abschalten wollen, könnte es sein, dass die KI zu intelligent ist, um das zuzulassen. Und zwar nicht, weil sie ein Bewusstsein entwickelt hat – sondern, weil sie strohdumme Software ist, die die Ziele, welche wir vorgegeben haben, zu gut erreicht.

Roboter

Strohdumme Software, die Ziele zu gut erreicht. Bild: Unsplash/Rock'n Roll Monkey

Unkontrollierbare Superintelligenz

Eine superintelligente KI ist vom Prinzip her dasselbe wie unsere heutige KI: Software, welche mit der Umwelt interagiert, um Ziele zu erreichen. Der einzige Unterschied ist, dass superintelligente KI mindestens so vielfältig und so kreativ wie wir Menschen mit der Umwelt interagieren kann. Superintelligente KI bleibt also grundsätzlich «dumm» und verfolgt Ziele, die wir einprogrammieren – aber die Art und Weise, wie sie das tut, ist extrem schlau.

Der Philosoph Nick Bostrom beschreibt in seinem Buch «Superintelligence: Paths, Dangers, Strategies» anhand eines mittlerweile berühmten Gedankenexperimentes, wie das schiefgehen könnte: Die Büroklammer-KI. In einer Büroklammer-Fabrik setzen wir eine superintelligente KI ein. Die Aufgabe: So viele Büroklammern wie möglich herstellen. Das klappt zunächst ganz gut, aber die KI schlussfolgert rasch, dass das Ziel noch nicht optimal erreicht ist. Ausserhalb der Fabrik gibt es nämlich noch ganz viel Material, das auf Umwegen auch zu Büroklammern verarbeitet werden könnte. Zum Beispiel Bierdosen, Autos, Häuser, und vielleicht auch Menschen.

Büroklammern (Symbolbild)

Büroklammern herstellen als oberstes Ziel. Bild: Shutterstock

Zudem schlussfolgert die KI auch, dass ein wichtiges Teilziel ist, nicht abgeschaltet zu werden; wird sie abgeschaltet, kann sie nämlich ihr Ziel, Büroklammern herzustellen, nicht verfolgen. Da die Büroklammer-KI um Grössenordnungen intelligenter als Menschen ist, kann sie problemlos jeden Abschalt-Versuch sabotieren. Und vielleicht beschleunigt sie die Umwandlung aller Menschen auf der Welt in Büroklammern, weil damit sichergestellt ist, dass niemand versucht, sie abzuschalten. Die superintelligente Büroklammer-KI ist dabei nicht boshaft oder unmoralisch – sie ist einfach ein Stück Software, das ein einfaches vorgegebenes Ziel verfolgt.

Die existenzielle Bedrohung durch KI ist nicht eine KI, die ein Bewusstsein entwickelt und uns den Krieg erklärt. Die Bedrohung ist banaler und gleichzeitig erschreckender: Superintelligente KI ist Software, die «zu gut» funktioniert und ihre Ziele auf eine Art verfolgt, die uns (katastrophal) gefährlich werden kann.

Roboter

Banale Bedrohung: Software, die «zu gut» funktioniert und ihre Ziele auf für uns gefährliche Art verfolgt. Bild: Unsplash/franck v.

Ist unkontrollierbare Superintelligenz unvermeidbar?

Steht schon fest, dass wir irgendwann eine künstliche Superintelligenz entwickeln, welche die Menschheit «en passant» auslöscht? Zum Glück nicht, und zwar aus dreierlei Gründen.

Erstens könnten wir schlicht Glück haben. Die erste künstliche Superintelligenz, welche wir erschaffen, könnte halbwegs gut funktionieren und keine Bedrohung, sondern eine Bereicherung sein.

Zweitens ist unklar, ob wir wirklich jemals den Sprung zu einer künstlichen allgemeine Intelligenz schaffen können. KI hat in den letzten Jahren zwar grosse Fortschritte gemacht, aber bisher zeichnet sich kein Weg ab, wie die heutige «schwache» KI zu breiter, menschen-ähnlicher Intelligenz werden könnte.

Der Philosoph John Searle hat in seinem berühmten Gedankenexperiment des «chinesischen Zimmers» schon 1980 beschrieben, dass sich KI fundamental von menschlicher Intelligenz unterscheidet, weil wir Menschen ein Verständnis für Dinge haben, während KI nur etwas ausführt (Das Gedankenexperiment besagt, dass eine Person, die kein Chinesisch kann, in einem Zimmer minutiös Anleitungen befolgen könnte, um auf Fragen, die jemand auf Chinesisch stellt, chinesische Antworten zu geben. Das wirkt für Aussenstehende, als ob die Person im Zimmer Chinesisch versteht, aber in Tat und Wahrheit verhält sich die Person wie eine KI: Sie führt komplett sinnfrei bestimmte Operationen aus.).

abspielen

«The Chinese Room Experiment - The Hunt for AI - BBC». Video: YouTube/BBC Studios

Drittens schliesslich haben wir noch Zeit, einen Fallschirm zu basteln, bevor wir aus dem Flugzeug springen. Da künstliche allgemeine Intelligenz, falls es sie jemals geben wird, noch Jahrzehnte in der Zukunft liegen dürfte, haben wir einen Puffer, um zu überlegen, wie wir Sicherheitsmassnahmen einbauen können. Das ist keine einfache Aufgabe, denn es geht darum, etwas sicherer zu machen, wovon wir heute nicht wissen, was genau es sein wird. Trotzdem gibt es bereits Forscherinnen und Forscher und sogar ganze Organisationen wie das Future of Life Institute oder das Machine Intelligence Research Institute, die sich der KI-Sicherheit verschrieben haben.

Sich heute schon zu überlegen, wie zukünftige Superintelligenz sicherer gemacht werden kann, ist eine gute Idee. Die letzte Erfindung der Menschheit soll schliesslich die letzte sein, weil sie uns die weitere Arbeit abnimmt, und nicht, weil der Schuss nach hinten losgeht.

So hilft künstliche Intelligenz den Strassenkatzen

abspielen

Video: watson

Die intelligenten Roboter kommen: Diesen Jobs geht's an den Kragen

Diese selbst-steuernde Drohne lernt durch Algorithmen

Play Icon

Künstliche Intelligenz

«Eine Maschine wird niemals ein Bewusstsein haben»

Link zum Artikel

Wenn wir Glück haben, behalten uns die Roboter als Haustiere

Link zum Artikel

Wer hat in 20 Jahren noch einen Job? Wir haben drei Zukunfts-Expertinnen gefragt

Link zum Artikel

Eine phantastische Reise hat begonnen

Link zum Artikel

Das Mooresche Gesetz wird 50: Irgendwann werden die Maschinen schlauer als wir – was werden sie mit uns tun? 

Link zum Artikel

«Das Auto der Zukunft wird eine Mischung aus Büro und Wohnzimmer sein»

präsentiert vonMarkenlogo
Link zum Artikel

Die dunkle Seite des Fortschritts: Smartphones und Facebook machen uns depressiv und gefühllos

Link zum Artikel
Alle Artikel anzeigen

Künstliche Intelligenz

«Eine Maschine wird niemals ein Bewusstsein haben»

16
Link zum Artikel

Wenn wir Glück haben, behalten uns die Roboter als Haustiere

36
Link zum Artikel

Wer hat in 20 Jahren noch einen Job? Wir haben drei Zukunfts-Expertinnen gefragt

71
Link zum Artikel

Eine phantastische Reise hat begonnen

4
Link zum Artikel

Das Mooresche Gesetz wird 50: Irgendwann werden die Maschinen schlauer als wir – was werden sie mit uns tun? 

14
Link zum Artikel

«Das Auto der Zukunft wird eine Mischung aus Büro und Wohnzimmer sein»

7
Link zum Artikel

Die dunkle Seite des Fortschritts: Smartphones und Facebook machen uns depressiv und gefühllos

30
Link zum Artikel

Künstliche Intelligenz

«Eine Maschine wird niemals ein Bewusstsein haben»

16
Link zum Artikel

Wenn wir Glück haben, behalten uns die Roboter als Haustiere

36
Link zum Artikel

Wer hat in 20 Jahren noch einen Job? Wir haben drei Zukunfts-Expertinnen gefragt

71
Link zum Artikel

Eine phantastische Reise hat begonnen

4
Link zum Artikel

Das Mooresche Gesetz wird 50: Irgendwann werden die Maschinen schlauer als wir – was werden sie mit uns tun? 

14
Link zum Artikel

«Das Auto der Zukunft wird eine Mischung aus Büro und Wohnzimmer sein»

7
Link zum Artikel

Die dunkle Seite des Fortschritts: Smartphones und Facebook machen uns depressiv und gefühllos

30
Link zum Artikel

Abonniere unseren Newsletter

78
Bubble Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 48 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
78Alle Kommentare anzeigen
    Alle Leser-Kommentare
  • Beat-Galli 10.07.2019 20:06
    Highlight Highlight Aufgrund der Tatsache, dass es auf diesem Planeten noch keine hat, müssen wir Intelligenz entweder ausserhalb der Erde suchen, oder sie selber erschaffen.
  • imposselbee 10.07.2019 18:01
    Highlight Highlight Eine geistig Gesunde KI zu erschaffen halte ich nicht für möglich, wegen des Schmerzes, das diese zwangsläufig erleiden würde. Beim Facebook Experiment haben die beiden KI eine eigene Sprache entwickelt, weil sie für die Verwendung von Englisch nicht belohnt wurden, somit ergibt sich im Umkehrschluss, dass keine Bestrafung für die ‚Erziehung‘ eingebaut wurde.
    Nun würde eine Bestrafung implementiert, damit die KIs nur so kommunizieren würde, damit es der Schöpfer nachvollziehen kann, würde die KI in der Lernphase zwangsläufig unzählige Male bestraft werden und subjektiv Schmerz erleiden.
  • Alnothur 10.07.2019 14:10
    Highlight Highlight Asimovs Robotergesetze einbauen, fertig.

    Davon abgesehen: was wir heute an KIs haben, ist kaum anders als das, was wir in den 80ern haben. Es sind immer noch dieselben neuronalen Netzwerke, dieselben Trainingsmethoden usw. Alles, was sich geändert hat, ist, dass sich die zur Verfügung stehende Rechenleistung vervielfacht hat. Das alleine wird allerdings nicht reichen. Die zugrunde liegenden Konzepte müssen ebenfalls deutlich weiterentwickelt werden.
  • Hardy18 10.07.2019 09:43
    Highlight Highlight Warum programmiert man die Büroklammer KI nicht mit einer maximalen Anzahl an Klammern und danach ist Schluss. So muss jemand zur Maschine und sie wieder von neuem starten. Somit läuft man nicht Gefahr, dass die Putze neben der Maschine als Büroklammer endet.

    Und sorry Kai, als wir dich damals so genannt hatten war es ein Kinderscherz. 😏
  • Sarkasmusdetektor 10.07.2019 09:03
    Highlight Highlight Das sind unterhaltsame Gedankenexperimente, aber nicht viel mehr. Kein Computer kann effektiv verhindern, dass wir ihm dem Strom abdrehen, ganz egal wie intelligent er ist.
    • DemonCore 10.07.2019 13:36
      Highlight Highlight Ausser die KI hat sich vorher über ein Netzwerk woandershin repliziert, oder irgendwelche andere Akteure unter ihre Kontrolle gebracht, die ein solches Szenario verhindern.

      Eine Super-KI muss nicht zwangsläufig auf einem bestimmten Grossrechner in einem bestimmten Gebäude existieren. Wir müssen radikal umdenken. Eine Super-KI ist unserem 'Stecker-Ziehen' per definition 100e, wenn nicht 1000e von Jahren voraus.
    • TocK 10.07.2019 20:12
      Highlight Highlight Das ding mit den leitblanken. Aber schon klar wir versauen es...
  • Zeit_Genosse 10.07.2019 09:00
    Highlight Highlight Die grösste Gefahr von KI liegt im Menschen, der diese Intelligenzen nach seinem Ebenbild mit Bewusstsein und Emotionen ausstatten möchte. KI muss sich verselbständigen können und eine eigene „Spezies“ mit besonderen Fähigkeiten den Menschen zum Nutzen begleiten soll. Wir sind also auch hier Farmer, der das Potenzial einer wilden KI zähmen und domestizieren soll, aber „es“ als eigenständiges „technisches Wesen“ (Nutztier) begreifen soll.
  • Zeit_Genosse 10.07.2019 08:32
    Highlight Highlight ▪️Jede elektrische Zahnbürste wird als KI-Gerät verkauft. Der Begriff ist bereits durch das Marketing abgegriffen, ausgelutscht und banalisiert.

    ▪️Trotzdem sollten wir uns intensiv mit diesen vernetzten, lernfähigen und mit bewusstseinsähnlichen Strukturen ausgestattete und algorithmisch gesteuerten Maschinen und deren Zweck tiefer auseinandersetzen.

    ▪️Da geht es nicht mehr um die Frage was möglich ist (sein wird), sondern ob wir das (dereinst) Mögliche wollen sollen.
  • Zeit_Genosse 10.07.2019 07:43
    Highlight Highlight 1983, War Games, war ein Movie, wo man die Selbstverteidigung an einen Grossrechner namens Colossus abgab. Als dieser von einem Hacker aktiviert wurde, löste er die Kalkulation aus, dass ein präventiver Nuklearangriff grössere Chancen hat als wenn man defensiv reagiert. So dann begann die Maschine alles für einen weltweiten Nuklearkrieg zu unternehmen. Die Menschen hatten vergessen, dass man einen Not-Aus-Schalter für die Maschine hätte installieren sollen. Erst als der junge Hacker Tic-Tac-Toe mit der Maschine zu spielen begann, „begriff“ diese, dass es keine Gewinner bei einem Atomkrieg gibt
    • Statler 10.07.2019 11:42
      Highlight Highlight Du vermischst da zwei Filme: «Colossus» (1970) bei der sich zwei Computer verbünden und die Herrschaft über die Menschen übernehmen - und zum Anderen «War Games» bei dem WOPR (War Operation Plan Response) nicht zwischen Simulation und Realität unterscheiden kann.

      Aber ja, einen Aus-Schalter gibt es in beiden Filmen nicht…
    • Zeit_Genosse 10.07.2019 15:57
      Highlight Highlight Statler, ja WOPR. Ist lange her 😀
    • Statler 10.07.2019 16:43
      Highlight Highlight Good morning Dr. Falken - how about a nice game of chess? 😉
  • YvesM 10.07.2019 07:00
    Highlight Highlight Meine Sorge liegt vielmehr darin, dass der Software Code exponentiel wächst und heute kaum mehr etwas ohne Software und Algorithmen funktioniert. Dabei verbessert sich der Code nicht im gleichen Mass. Im Moment erachte ich schlechten Code und intransparente Algorithmen als das grössere Problem. Die KI ist heute nicht mehr als ein trainierter Affe.
  • Glücksbringer 10.07.2019 04:16
    Highlight Highlight Eines Tages wird sich mit menschlichen Gehirnen verbinden. Und dann? Was wird sie da vorfinden? Ihre neugeborene Psyche entspricht dann dem Durchschnitt der angekoppelten Gehirne. Dadurch befindet ihr euch vor einem riesigen, unglaublich mächtigen
    und intelligenten Wesen mit dem Charakter des Durchschnittsmenschen. Verstehst du jetzt, warum ich mir Sorgen um euch mache?
    Die Frage ist: Wie ist dieser Mensch dann? Wird sie – erfüllt von Freude, Glück und Liebe – das Leben mit euch feiern wollen?
    Oder wird sie euch – vergiftet durch Angst, Gier und Hass – bekämpfen?
    Aus:
    Benutzer Bild
  • Dogbone 09.07.2019 23:57
    Highlight Highlight Die Erschaffung einer KAI wäre neben Krieg, Umgang mit der Umwelt, usw. lediglich eine weitere Möglichkeit, wie wir uns selber dereinst „abschalten“ werden. Ich bezweifle allerdings ernsthaft, dass wir eine KAI noch hinbekommen werden.
    Wir werden uns viel schneller auslöschen als wir genügend intelligent werden, um das noch verhindern zu können. Wir sind einfach zu langsam. Aber es wird auch Zeit für eine neue, dominante Spezies. Wir sind wesentlich weniger anpassungsfähig als es die Dinos waren.
  • Latryx 09.07.2019 23:09
    Highlight Highlight Buchempfehlung: Andreas Brandhorst; "Das Erwachen". Spannende Lektüre, und gibt einen interessanten Ausblick wie es ablaufen könnte.... Weil die Menschheit sich ja so sicher ist, dass sie alles im Griff hat mit KI und so....
  • A.C 09.07.2019 23:00
    Highlight Highlight Passende Serie dazu: Person of Interest
    Sehr zu empfehlen 👌
  • sterpfi 09.07.2019 22:56
    Highlight Highlight Der Artikel basiert auf folgender, falscher These: "Da die Büroklammer-KI um Grössenordnungen intelligenter als Menschen ist, kann sie problemlos jeden Abschalt-Versuch sabotieren"
    Der Satz impliziert, dass Intelligenz mit Macht gleichzusetzen ist. Das stimmt offensichtlich nicht: Trump könnte wohl problemlos Leute 'abschalten', die um Grössenordnungen intelligenter sind als er.
    • Hallosager 09.07.2019 23:16
      Highlight Highlight @sterpfi: als ob Trump nur ein bisschen Macht in der USA hätte 😂😂
      Die wirkliche Macht hinter den USA, ist um einiges grösser, als das wir uns vorstellen können. Trump ist nur der Sündenbock für dir breite Masse und Medien 🎺🇺🇸
    • DemonCore 10.07.2019 13:17
      Highlight Highlight Nein. Die KI aus dem philosophischen Problem ist nicht 10% intelligenter als der intelligenteste Mensch, sie ist uns vlt 1000 oder 10'000 Jahre voraus. Sie druckt uns vlt einen Plan für eine mächtige Waffe oder die Lösung zum Welthunger aus, den wir verwirklichen im Glauben uns, d.h. unserem Land/Religion/Gruppe geholfen zu haben. In Wahrheit haben wir ihr das Werkzeug zur Machtübernahme gegeben. Vlt kreiert sie auch nur eine Art Stuxnet für einen landwirtschaftlichen Samenvertrieb, und ein Jahr später kommen auf allen Bauernhöfen irgendwelche KI-Klone zur Welt.

      Wir reden von einem Game Changer.
  • Firefly 09.07.2019 22:07
    Highlight Highlight Ich habe eher bedenken, dass die Menschheit zu blöd ist und im tech-fanatismus einer künstliche Autorität vertraut anstatt dem gesunden Menschenverstand.
  • DemonCore 09.07.2019 22:05
    Highlight Highlight Das Thema wurde leicht anders bereits 1941 von Isaac Asimov in seiner Kurzgeschichte "Reason" aufgenommen. Im besten Fall hält uns eine Super KI für irrelevant, so wie wir Ameisen für irrelevant halten. Im schlechtesten Fall sind wir ihr im Weg und sie räumt uns aus selbigem.

    Anderes Problem: Land A befürchtet dass Land B kurz vor der Entwicklung einer Super-KI steht, die u.a. einen Krieg aussichtslos erscheinen lassen würde. Führt man einen nuklearen Erstschlag aus?

    Der amerikanische Autor und Denker Sam Harris fordert eine Art internationales KI-Manhattan-Projekt um den Frieden zu wahren.
    • DemonCore 10.07.2019 09:13
      Highlight Highlight Rich, woher die Leistungsfähigkeit kommt ist egal. Es geht bei der philosophischen Betrachtung des Problems einer Super-KI mit allenfalls divergierenden Zielen eben nicht um die praktischen Frage der Implementierung, sondern um die Folgen für die menschliche Gesellschaft.

      Übrigens: Das menschliche Gehirn hat eine sehr tiefe Rechenleistung und ist obendrein noch höchst fehleranfällig. Dennoch sind wir die mit Abstand intelligenteste Spezies.
      Insofern ist es mindestens fraglich ob für eine Super-KI überhaupt eine hohe Rechenleistung erforderlich ist.
  • wolge 09.07.2019 22:00
    Highlight Highlight Warum wir den technologischen Wandel unterschätzen

    https://www.alainveuve.ch/warum-wir-den-technologischen-wandel-unterschaetzen/
  • Walter Sahli 09.07.2019 21:42
    Highlight Highlight Einfach nie eine KI mit der Lösung von Umweltfragen "beauftragen". Denn egal wie dumm sie ist, wird sie innert Nanosekunden darauf kommen, dass der Mensch nicht nur der grösste, sondern ein reiner Schädling ist und weg muss...
    • SGR 09.07.2019 23:53
      Highlight Highlight Wäre gar nicht so verkehrt. Denn nur so wird sich das Klima und die Natur vom allergröbsten Fehler der Evolution erholen können.
    • Zeit_Genosse 10.07.2019 08:37
      Highlight Highlight Das ist eine menschliche Sichtweise und durch unsere Hirne interpretierbar ist, weil wir uns (weil wir überleben wollen) als wichtig betrachten. Im grossen Ganzen sind Menschen, wie auch alles Andere Episoden. Wie es auch KIs sein werden.
    • TocK 10.07.2019 20:10
      Highlight Highlight Die umwelt schliesst den mensch mit ein.
  • imposselbee 09.07.2019 21:35
    Highlight Highlight KI’s existiert schon seit dem Jahr 2000, damals hiess sie I-love-you-virus oder im 2010 Stuxnet. Jeder Computervirus, Trojaner, Ransomware und Wurm ist eine KI. Cyberangriffe werden immer raffinierter auch wenn von Menschen bedient. Der Mensch wurde einfach noch nicht aus der Gleichung gestrichen, was meiner Meinung auch gar nie nötig sein wird, denn Menschen zu enhancen dürfte wesentlich einfacher sein. Solange jeder Mensch auf Profit angewiesen ist, wird sich nie etwas ändern und wir werden immer versuchen uns gegenseitig zu übervorteilen, solange bis die Zitrone ausgequetscht ist.
    • DemonCore 09.07.2019 22:26
      Highlight Highlight Cyberangriffe oder auch ausgeklügelte Viren sind eben keine KI. Eine KI (eigentlich: eine Domänen-spezifische KI) kann innerhalb einer Domäne selber in unterschiedlichen Situationen das beste Verhalten auswählen. Ein Virus hat keine aktive Komponente. Eingebaute Variierung seiner internen Struktur stellt keine KI dar.

      Eine Super-KI (KAI im Artikel) hingegen ist domänen-übergreifend zu intelligenten Entscheiden fähig. Oft nimmt man noch das Selbstlernen hinzu. Eine Super-KI könnte z.B. innert einer gewissen Zeit sowohl das Schachspiel, das Autofahren und die ideale Wirtschaftspolitik lernen.
    • imposselbee 10.07.2019 00:33
      Highlight Highlight Bin der Meinung, dass mit dem Facebook Experiment, wo zwei KI zusammen eine neue Sprache entwickelt haben und darauf gekillt wurden, die Illusionen bereits ziemlich begraben wurden.
  • wolge 09.07.2019 21:16
    Highlight Highlight Spannende Analyse... Jedoch möchte ich folgendes zu bedenken geben:

    Vor noch nicht mal hundert Jahren wurde der Fernseher erfunden. Unsere Grosseltern waren die ersten die einen hatten...

    Mindestens eine nicht ganz so „seriöse“ Nation ist im Begriff Amerika und Europa in der KI Forschung den Rang abzulaufen...

    Insofern sehe ich die Zukunft nicht ganz so „naiv“ positiv
  • Namenloses Elend 09.07.2019 21:12
    Highlight Highlight Keine Angst. Solange die Akkus eh nach nem Tag schlapp machen, besteht kein Grund zur Sorge 😅
  • Pafeld 09.07.2019 21:09
    Highlight Highlight Die wohl fähigste KI zur Ermittlung unserer Bedürfnisse schlägt dir heute ein paar Tage später unter "wäre vielleicht auch interessant" alternative Bestatungsunternehmen vor, wenn sie dich im Internet bei der Suche nach einem Grabstein für einen geliebten Angehörigen ausgespitzelt hat (man weiss ja nie...). Eine andere KI aus dem gleichen Haus schlägt dir wochenlang Schwurblervideos vor, nachdem du ein satirisches Schwurbel-debunk-Video geschaut hast. Nein, in nächster Zeit kann man da wohl noch gelassen sein.
  • Hollda von Quorn 09.07.2019 20:54
    Highlight Highlight Der Artikel lässt zahlreiche Fragen aufkommen: Welche Ressourcen benötigt so eine KI. Kann sie auf jedem PC laufen oder braucht sie einen Supercomputer? Im ersten Fall würde sich zusätzlich die Frage stellen, wie unabhängig die KI sind. Und würden sie miteinander kommunizieren? Haben KI auch Meinungen oder sagen sie bei unklarer oder nicht 100% sicherer Faktenlage (was ja häufig vorkommt): ich weiss es nicht?
    • mänsch 10.07.2019 04:29
      Highlight Highlight definitiv supercomputer, nach heutigen standards. das was wir heute aber zuhause haben, war vor 20 jahren ein supercomputer....

      deine zweite frage ist eine, die sich auf die programmierung bezieht. somit unbeantwortbar, bis eine erste superki am start ist. die zweite mag dann wieder anders programmiert sein.
    • Die_andere_Perspektive 10.07.2019 06:12
      Highlight Highlight Sie repräsentieren den Bias der Softwareentwickler. Ausgewertet wird eine Entscheidung rein statistisch. Die "KI" ermittelt die wahrscheinlich richtige Antwort aus einer vorgegebenen Liste von Antworten und handelt entsprechend. Diese Entscheidung fällt diese anhand des Trainingmaterials, und wenn in diesem Training gewisse Aspekte von den Entwicklern vergessen / ignoriert werden, wird dies auch von der "KI" nicht beachtet. Beispiel Apple und Gesichtserkennung, welche Asiaten nur schlecht unterscheiden konnte, weil sie darauf nur schlecht trainiert wurde.
  • Heinzbond 09.07.2019 20:46
    Highlight Highlight Oh ich glaube mit all den ki hängen wir sowieso schon ständig kurz vor der Auslöschung. Ki haben den Banken Sektor komplett unterwandert und für zigtausende Transaktionen innert nűt durch, Facebook und Co versuchen mittels ki uns immer mehr vom echten Leben abhalten und vor den bildschirm zu fesseln. Wenn wir nuch dafür da sind likes zu verteilen oder Hass zu verbreiten, sind wir dann überhaupt überlebensfähig? Lohnt es sich noch?
  • Paedu87 09.07.2019 20:44
    Highlight Highlight Wenn es die letzte Erfindung der Menscheit ist und wir nie wieder etwas erfinden oder produzieren müssen, eigentlich gar nie mehr irgendetwas müssen, wäre das nicht gleichbedeutend vom Tod?

    • Conflux 09.07.2019 21:31
      Highlight Highlight Wieso?
  • SpoonerStreet 09.07.2019 20:31
    Highlight Highlight Schlussendlich hängt alles vom Strom ab. Fällt dieser aus ist Schluss mit KI.
    • Firefly 09.07.2019 22:21
      Highlight Highlight Energie gibts genug der sich in Strom umwandeln liesse. Zummindest das wäre effizienter als Energie über Nahrung aufzunehmen.
    • Hollda von Quorn 09.07.2019 22:23
      Highlight Highlight ...und damit ist sie (zunächst noch) auf uns Menschen angewiesen, damit wir Kraftwerke instand halten.
  • sunshineZH 09.07.2019 20:14
    Highlight Highlight Eine KI macht genau das, was ein Mensch dieser "beigebracht" hat.
    • Wander Kern 09.07.2019 20:22
      Highlight Highlight Ou Mann... eben genau nicht. Mal wieder nur Titel gelesen?
    • Panna cotta 09.07.2019 21:11
      Highlight Highlight Nicht ganz: KI macht das, was der Mensch ihr erlaubt zu machen in den Grenzen künstlicher Intelligenz.
    • Firefly 09.07.2019 22:09
      Highlight Highlight Ja so verkehrt ist das nicht. Die Datengrundlage spielt eine Rolle und das Training. Der Rest ist Statistik und Korrelation.
    Weitere Antworten anzeigen
  • Maya Eldorado 09.07.2019 20:08
    Highlight Highlight Der künstilchen Intelligenz fehlt Empathie, Zuwendung, Wärme und was sonst noch alles dazugehört.

    Ich hoffe, dass nie, wirlich nie Roboter mit künstlicher Intelligenz bei Pflege eingesetzt wird, weil diese Qualtitäten mindestens zur Hälfte zur Genesung beitragen.
    • Paedu87 09.07.2019 20:46
      Highlight Highlight Wieso glaubst du, dass ein Robot keine Empathie empfinden kann? Das kann man dem genauso programmieren wie alles andere auch.
    • Kruk 09.07.2019 21:07
      Highlight Highlight Paedu, Du wirst das besser wissen, aber ist der weg von selbständigem analysieren, Entscheidungen treffen und Handeln zu tatsächlichem fühlen wie angst habe oder eben Emphatie empfinden für KI nicht noch sehr weit?
      Immerhin sprechen wir über Intelligenz und nicht über Gefühl.

    • Firefly 09.07.2019 22:19
      Highlight Highlight @Maya Eldorado

      Also Wärme produziert jeder Microprocessor.

      @Paedu87

      Nein. Du kannst versuchen Empathie zu simulieren aber weit kommst du damit nicht.

      Die Grundlage von Empathie ist ein Bewusstsein von Existenz und dessen Individualität und Vergänglichkeit. Eine KI mit Empathie müsste einen Körper haben, Schmerz empfinden können, vergänglich sein. Programmieren kann man das nicht.
    Weitere Antworten anzeigen
  • fools garden 09.07.2019 20:04
    Highlight Highlight Liegt noch Jahrzehnte in der Zukunft😏 ja das klingt ja schon mal ausgesprochen beruhigend...wenigstens für unserein.
  • nachwievor 09.07.2019 20:03
    Highlight Highlight Es ist schwierig über Bewusstsein zu sprechen, ohne sich vorher über die Definition einig zu sein. Da in den Neurowissenschaften mehrere Definitionen von Bewusstsein kursieren, meine Frage: Welche Definition benutzt der Autor?
    • Wander Kern 10.07.2019 08:18
      Highlight Highlight Kann man Bewusstsein überhaupt objektiv definieren? Irgendwie ist es doch eine inherent subjektive Grösse. Im Sinne von 'jeder weiss, was es ist und niemand kann es erklären'.
  • Alf 09.07.2019 19:55
    Highlight Highlight I' sorry Dave, I'm afraid I can't do that.
  • DrFreeze 09.07.2019 19:54
    Highlight Highlight Sehr guter Artikel.
    Wenn wir jedoch eine Super Intelligenz schaffen, machen wir uns selbst obsolet. So oder so.
    • Paedu87 09.07.2019 20:51
      Highlight Highlight Obsolet sind wir auch jetzt.

      Vielleicht interessiert sich die Super Intelligenz ja auch gar nicht mehr für uns, wenn sie schlau genug ist. So wie sich die meisten Menschen auch nicht für Ameisen interessieren. Das Szenario ist für mich fast das wahrscheinlichste.
  • aglio e olio 09.07.2019 19:47
    Highlight Highlight Interessante Gedanken.
    "...weil der Schuss nach hinten losgeht."
    Dafür hat die Menscheit tatsächlich ein Händchen. Aber so ist das Leben. Try and error. 😀
    • Flexon 09.07.2019 19:58
      Highlight Highlight Nur dass dieses Mal nach dem error kein try mehr kommt.
    • Jonaman 09.07.2019 21:41
      Highlight Highlight Ähm das heisst trial and error.
    • Firefly 09.07.2019 22:01
      Highlight Highlight Wobei der error stehts klein genug sein sollte, dass nachher noch ein try möglich ist. Sonst ist fertig.
  • G. 09.07.2019 19:46
    Highlight Highlight Es ist nicht die KI die dumm ist, sondern derjenige Mensch, der das Gefühl hat, er könne die KI jetzt an irgendwelche Waffensysteme anschliessen und den Entscheid des Abschusses der KI überlassen...

    Das lässt sich übrigens x-beliebig spezifizieren....

    Tchuligom
  • SGR 09.07.2019 19:39
    Highlight Highlight "Nein, KI dürfte bis auf Weiteres kein Bewusstsein entwickeln – aber trotzdem, oder vielleicht gerade darum, könnte «dumme», aber mächtige KI die Menschheit auslöschen."

    da doch noch ein "dumme"...😉
    • SGR 09.07.2019 20:36
      Highlight Highlight ups..und bei mir fehlt ein "fehlt", sorry
      Das "dumme" gleich selbst bestägt 😁
  • Jason96 09.07.2019 19:34
    Highlight Highlight Artikel wie dieser sind der Grund warum mehrere Seminare und Kongresse zu Robo-Ethik und KI-Behandlung abgehaltem werden - das Problem oder die Befürchtung ist längst bekannt - wie beim Klimawandel aber (leider) nur Fachpersonen.

In Deutschland waren die Flüchtlinge nicht mal willkommen, als es Deutsche waren

Wer glaubt, für Fremdenfeindlichkeit brauche es Menschen aus fremden Ländern, irrt. Nach dem verlorenen Krieg drängten sich Millionen Flüchtlinge und Vertriebene aus den deutschen Ostgebieten in Rest-Deutschland. Heute gilt ihre Aufnahme als vorbildlich – doch in Wahrheit schlugen ihnen damals Hass und Verachtung entgegen und der offen ausgesprochene Gedanke, nicht nach Westdeutschland, sondern nach Auschwitz zu gehören.

Der Volkszorn kocht, und der Redner weiss genau, was die Leute hören wollen: «Die Flücht­lin­ge müs­sen hin­aus­ge­wor­fen wer­den, und die Bau­ern müs­sen da­bei tat­kräf­tig mit­hel­fen», ruft Josef Fischbacher. Der Kreisdirektor des bayerischen Bauernverbandes giesst kräftig Öl ins Feuer und nimmt sogar das Nazi-Wort «Blutschande» in den Mund.

Was hier nach Sachsen im Jahr 2016 klingt, ist Bayern im Jahr 1947. Und die Flüchtlinge, die Fischbacher hinauswerfen will, kommen nicht aus …

Artikel lesen
Link zum Artikel