Wirtschaft
Wir verwenden Cookies und Analysetools, um die Nutzerfreundlichkeit der Internetseite zu verbessern und passende Werbung von watson und unseren Werbepartnern anzuzeigen. Weitere Infos findest Du in unserer Datenschutzerklärung.
Bild

Medienprofessor Norbert Bolz bei seinem Auftritt am GDI in Rüschlikon. Bild: AP/PA

Interview

«Wenn wir uns von der Logik befreien, haben wir Raum für eine neue Mystik»

Roboter treffen militärische Entscheidungen, künstliche Intelligenz bestimmt zunehmend unser Gesundheitssystem. Steuern wir auf eine «schöne, neue Welt» zu? Nein, sagt der Medienprofessor Norbert Bolz. Maschinen können zwar besser rechnen als wir, aber sie können keine ethischen Entscheidungen treffen.



Künstliche Intelligenz und Machine Learning werden derzeit als Wunderwaffen gegen alle möglichen Probleme angepriesen. Zu Recht?
Es gibt Bereiche, in denen tatsächlich spektakuläre Fortschritte zu verzeichnen sind. Das betrifft vor allem die Bereiche, in denen wir Normalitäten anstreben.

Woran denken Sie konkret?
An die Gesundheit oder die natürliche Balance des Klimas, beispielsweise. In Bereichen, in denen lebende Systeme von der Normalität abweichen, gibt es einen akuten Bedarf, Dinge zu messen und zu korrigieren. Dazu eignen sich künstliche Intelligenz und Machine Learning hervorragend.

Sie sagen, künstliche Intelligenz eigne sich dazu, einen Normalzustand herzustellen. Nur: Wer definiert diesen Normalzustand?
In den letzten Jahren diskutieren wir immer häufiger darüber, was normal ist. Denken Sie bloss an die sozialen Überwachungssysteme in China. Doch das ist ein Missbrauch durch die Politik. Bei Gesundheit stellt sich diese Frage nicht. Jeder Mensch merkt, wenn es ihm nicht gut geht oder nicht. Deshalb ist die Gesundheit auch der Sektor, in dem künstliche Intelligenz am meisten boomen wird.

«Ethik lässt sich nicht rationalisieren.»

Kann künstliche Intelligenz helfen, die wachsenden ökologischen Probleme zu bewältigen?
Nachhaltigkeit ist zu einem guten Teil messbar. Daher wird die künstliche Intelligenz in der Ökologie sicherlich eine bedeutende Rolle spielen.

In Ian McEwans jüngstem Roman «Maschinen wie ich» entwickelt ein selbstlernender Roboter seine eigene, sehr rigide Moral. Ist das eine reale oder eine fiktive Gefahr?
Die künstliche Intelligenz per se setzt keine Moral durch. Aber es gibt Menschen, die sie dazu benutzen, ihre eigenen moralischen Standards durchzusetzen. Auch im Kultroman «I, Robot» von Isaac Asimov, geht es darum, dass sich eine autonome künstliche Intelligenz entwickelt.

Wie realistisch ist dies?
Ich sehe diese Gefahr nicht. Software-Programme sind stets formalisierte Rationalität. Ethik jedoch lässt sich nicht rationalisieren. Daher wird ein Roboter niemals aus sich selbst eine ethische Entscheidung treffen können.

Bild

Roboter werden Menschen immer ähnlicher.

Was ist mit dem berühmte Dilemma der selbstfahrenden Autos, die im Notfall entscheiden müssen, ob sie ein Kind oder ein Ehepaar überfahren sollen?
Das sind keine ethischen Entscheidungen, da widersprechen sich zwei verschiedene Programmanforderungen. Nochmals: Von künstlicher Intelligenz Ethik zu verlangen, ist Science Fiction.

Was ist mit den Expertensystemen, die zunehmend Ärzte, Richter und andere bei ihren Entscheidungen unterstützen?
Diese Expertensystem sind nichts anderes als gesammelte Erfahrungen. Ein Anwalt beispielsweise muss sich nicht mehr nächtelang durch eine Unzahl von Fällen kämpfen, um einen Entscheid des Bundesgerichts zu finden. Er schafft dies heute in kürzester Zeit per Knopfdruck. Doch hinter den Expertensystemen steckt kein autonomer Entscheidungsprozess.

Das sehen namhafte Experten anders. Im Silicon Valley heisst es heute, die ganze Welt wird zu einem Problem von Voraussagen, und genau das können künstliche Intelligenz und Machine Learning am besten.
Damit bin ich überhaupt nicht einverstanden. Wenn Computer entscheiden, dann ziehen sie logische Konsequenzen aus vorgegebenen Sachverhalten.

«Wenn wir uns von der Last der Logik befreien, haben wir Raum für eine neue Mystik.»

Aber sie fällen, so sagt man, über 90 Prozent aller militärischen Entscheidungen und bestimmen bald sämtliche Börsentransaktionen.
Das mag eindrucksvoll klingen, doch es handelt sich hier um Entscheidungen, die gar keine Entscheidungen sind.

Was sind sie dann?
Rechnungen. Menschliche Entscheidungen sind ethisch. Sie müssen sich entscheiden. Sie gehen eine eigene, selbstständige Wertbindung ein. Niemand kann ihnen das abnehmen. Das können Computer nicht – und das sollen sie auch gar nicht können.

Was aber ist mit Drohnen, die selbst entscheiden, wann sie schiessen und wann nicht?
Das sind Optimierungsstrategien. Der Computer rechnet die verschiedenen Szenarien aus und wählt dann beste aus. Aber nochmals: Das sind keine Entscheidungen, sondern Rechnungen. Die menschliche Entscheidung ist ethisch und damit nicht formalisierbar. Es geht daher immer mehr darum, künstliche und menschliche Intelligenz zu kombinieren.

Wie soll das konkret aussehen?
So wie Unternehmen Dinge, die nicht zu ihrer Kernkompetenz gehören, outsourcen, können Menschen Aufgaben outsourcen, die Maschinen besser erledigen können. Dazu gehören alle formalisierbaren Leistungen.

Bild

Klavierspielen können Roboter bereits.

Machen wir uns so nicht selbst dumm? Wir können nicht mehr rechnen, bald nicht mehr lesen, schon gar keine Karten.
Dafür könnten wir dann im Gegenzug eine neue Form von «Geist» kultivieren.

Das tönt doch eher esoterisch.
Mag sein. Doch wenn wir uns von der Last der Logik befreien, haben wir Raum für eine neue Mystik.

Wir lassen also die Maschinen mit ihrer künstlichen Intelligenz unseren Alltag regeln und heben in neue Sphären ab?
Genau. Ich finde das keine uninteressante Perspektive. Wenn die Maschinen die lästigen logischen Probleme besser bewältigen können, dann lasst sie doch machen. Das könnte doch für uns Menschen neue intellektuelle Potentiale freisetzen.

Das Unvorhergesehene, die «schwarzen Schwäne», kriegen wir jedoch auch so nicht in den Griff, sagen Sie. Weshalb?
Weil sie schlicht und ergreifend zu komplex sind. Unsere Welt und unsere System werden immer komplexer. Das bedeutet, dass die Abhängigkeiten in diesen Systemen so vieldimensional sind, dass es unmöglich ist, sie in irgendeiner Weise nachzurechnen oder gar zu antizipieren.

Woran denken Sie konkret?
An 9/11, die Atomkatastrophe von Fukushima, den Untergang der Titanic, den Fall der Berliner Mauer, um nur ein paar Beispiele zu nennen. Sie alle gehören in den Bereich, den die Amerikaner «the unknown unknown» nennen, Dinge, von denen wir nicht wissen, dass wir sie nicht wissen. Wir haben nach wir vor viele blinde Flecken in unserer Weltsicht, und das kann auch gar nicht anders sein.

Zusammenfassend können wir sagen: Künstliche Intelligenz wird dafür sorgen, dass wir länger und gesünder leben, sie wird uns helfen, unsere Verkehrsprobleme zu lösen. Aber sie wird niemals die blinden Flecken in unserem Denken beseitigen können.
So kann man es sagen. Die künstliche Intelligenz wird uns entlasten und uns vielleicht ermöglichen, neue Formen des Denkens zu entwickeln. Und was ist mit dem politischen Missbrauch? Die Gefahr lässt sich nur bewältigen, wenn wir zunehmend selbst zu kompetenten Mitspielern werden. Wir müssen nicht zu programmierten Menschen werden, sondern zu Menschen, die selbst programmieren.

Diese selbst-steuernde Drohne lernt durch Algorithmen

Play Icon

Künstliche Intelligenz

«Das Auto der Zukunft wird eine Mischung aus Büro und Wohnzimmer sein»

präsentiert vonMarkenlogo
Link zum Artikel

«Eine Maschine wird niemals ein Bewusstsein haben»

Link zum Artikel

Wer hat in 20 Jahren noch einen Job? Wir haben drei Zukunfts-Expertinnen gefragt

Link zum Artikel

Das Mooresche Gesetz wird 50: Irgendwann werden die Maschinen schlauer als wir – was werden sie mit uns tun? 

Link zum Artikel

Wenn wir Glück haben, behalten uns die Roboter als Haustiere

Link zum Artikel

Die dunkle Seite des Fortschritts: Smartphones und Facebook machen uns depressiv und gefühllos

Link zum Artikel

Eine phantastische Reise hat begonnen

Link zum Artikel
Alle Artikel anzeigen

Abonniere unseren Newsletter

57
Bubble Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 48 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
57Alle Kommentare anzeigen
    Alle Leser-Kommentare
  • DerTaran 12.06.2019 07:25
    Highlight Highlight Endlich mal einer der AI verstanden hat.
  • Menel 11.06.2019 22:05
    Highlight Highlight Und wie trifft das menschliche Gehirn Entscheidungen?
    • DerTaran 12.06.2019 07:35
      Highlight Highlight Da sind wir jetzt unter anderem bei der Frage, ob es einen freien Willen gibt oder nicht.

      Maschinen lehren nur, was wir ihnen explizit beibringen. Menschen aber lehrnen in ihrem Leben noch vieles mehr und können eventuell von diesen fachfremden Erkenntnissen profitieren (oder davon abgelenkt werden), auch wenn sie erst einmal gar nicht zum Thema gehören.
    • Menel 12.06.2019 08:47
      Highlight Highlight @DerTaran; mittlerweile lernen Maschinen auch selbständig; DeepLearning (selbstfahrende Autos zB.). Basierend natürlich auf einer Grundprogrammierung, aber die haben wir auch.
    • DerTaran 12.06.2019 09:21
      Highlight Highlight Zur Info, ich habe Informatik studiert, zum Teil auch AI. Ja, Maschinen lernen selbstständig, aber damit sie das können, müssen wir ihnen die richtigen Daten, Beispiele und Algorithmen zur Verfügung stellen und noch viel mehr. Menschen haben keine vorgefilterten Beispiele und lehrnen jede Sekunde des Lebens und das auch noch unabhängig von einer vorgegebenen Aufgabenstelling.
    Weitere Antworten anzeigen
  • Grossmaul 10.06.2019 22:29
    Highlight Highlight Und Menschen können ethisch richtige Entscheidungen treffen? Vermutlich wollen sie manchmal bloss einfach nicht...
    • Tjuck 11.06.2019 10:11
      Highlight Highlight Ob richtig oder falsch ist hier nicht entscheidend. Computer können es nicht, Menschen tun es. Jeden Tag.
  • 1$ opinion 10.06.2019 19:57
    Highlight Highlight Warum haben wir Menschen das Bedürfnis Technologien zu entwickeln?
  • Tobra 10.06.2019 19:55
    Highlight Highlight Interessantes und lesenswertes Interview, welches mich doch sehr nachdenklich stimmt.
  • 1$ opinion 10.06.2019 18:19
    Highlight Highlight Gibt es irgend einen Film oder ein Buch, welches/r eine technische Utopie aufzeigt?
    Wir sind ja nicht einmal in der Lage, uns eine positive Zukunft (so rein generell) vorzustellen, wie können wir dann nicht auf eine selbsterfüllende Prophezeiung hinarbeiten.
    Gut wäre und das halte ich für am wahrscheinlichsten, dass wir uns in Roboter verwandeln, als Roboter sich in Menschen. Zudem wäre eine Sklaven-Rassen (Tier/Mensch Kombination) einfacher zu erschaffen, allerdings ethisch verwerflicher als Roboter, aber wir hätten dann den Kreis geschlossen und würden unsere Entstehung begreifen.
    • Chummerbueb 11.06.2019 08:27
      Highlight Highlight Ich bin deiner Meinung. Wenn wir in ferner Zukunft mit der Technologie mitkommen wollen, glaube ich, dass wir nicht um Mensch-Maschine herum kommen...

      Das nennt sich wohl Evolution. Ich freue mich auf jeden Fall auf diese Möglichkeiten/Entwicklung für den Mensch der Zukunft
      Das Glas ist Halbvoll!
    • 1$ opinion 11.06.2019 12:05
      Highlight Highlight @Chummerbueb die Hoffnung besteht zumindest darin, dass aus dem Mist, den wir bisher produziert haben, eine nachhaltige Technologie entsteht. Mein Glas hat bereits ein Sprung, aber ich schenke immer schön nach. 🍻
  • N. Y. P. 10.06.2019 18:03
    Highlight Highlight Frage :

    Kann man Maschinen als gigantische Flussdiagramme bezeichnen ?

    Denn nichts anderes sind sie.


    Aber der Mensch mit seiner Intuition, seinem Zugriff auf seine gesamten Erfahrungen und sein Erlerntes, in Echtzeit, werden den Maschinen auf ewig "überlegen" sein.

    Menschen können Maschinen sabotieren. Maschinen dagegen könnten uns Menschen nur sabotieren, wenn sie dahingehend (von uns Menschen) programmiert wurden.
    • N. Y. P. 11.06.2019 09:52
      Highlight Highlight Akzeptiere ich voll, deine Ansicht.

      Der beste Schachcomputer ist dem besten Schachspieler heute überlegen. Und trotzdem: Wir Menschen können ihm jederzeit den Stecker ziehen. DAS meine ich, was die Überlegenheit betrifft.
    • N. Y. P. 11.06.2019 12:24
      Highlight Highlight *google auronome*

      ;-)
  • Karl Marx 10.06.2019 17:56
    Highlight Highlight Ergänzend dazu:
    Play Icon
  • Horobar 10.06.2019 17:33
    Highlight Highlight Der Unterschied zwischen Berechnen und Entscheiden erscheint mir nicht gross genug, um das so klar zu differenzieren.
    Ich denke jedoch, dass KI Berechnungen ab einer bestimmten ethischen Tragweite nicht mehr autonom fällen sollten.
    Bsp. sollte keine Maschine ausrechnen wer Leben und wer sterben soll. Das Auto-Ausweich-Dilemma.
    Im Zweifelsfall immer die gleiche Entscheidung,hier zB ein Vollstop, egal welche Konsequenzen es hätte, es sei denn es gibt eine Möglichkeit den Unfall ganz zu verhindern.
    • Tjuck 11.06.2019 10:14
      Highlight Highlight "Im Zweifelsfall immer die gleiche Entscheidung,hier zB ein Vollstop, egal welche Konsequenzen es hätte, es sei denn es gibt eine Möglichkeit den Unfall ganz zu verhindern."

      Das ist nichts anderes als eine Rechenanweisung (Algorithmus). Im Satz vorher hast Du gesagt, eine Maschine sollte nicht ausrechnen, wer Leben und wer sterben solle.

      Ja, was denn nun?
  • Dubio 10.06.2019 17:14
    Highlight Highlight Das überzeugt irgendwie nicht wirklich. Insbesondere weil ja ‚berechnen‘ und ‚entscheiden‘ nie unabhängig voneinander geschehen. Da gibt es ja eine permanente Wechselwirkung. Insofern ist das ziemliches Wunschdenken, wenn man sagt, Computer ‚rechnen ja nur‘. Das passiert ja gerade eben nicht.

    Auch die Frage nach KI ist eigentlich müssig, weil nicht beantwortbar. Die richtige Frage lautet eigentlich: Inwiefern kann ein Computer einem Menschen oder der Menschheit insgesamt Schäden? Das KI Gedöns ist alles überflüssig, wenn man sich nur auf diese Frage konzentriert.
    • Nick Name 10.06.2019 23:17
      Highlight Highlight Was tun denn Computer ausser rechnen?

      Und beim zweiten Abschnitt komm ich nicht draus. Soll das heissen, dass alles überflüssig ist, was Menschen schaden kann? Aber das kann ja nicht gemeint sein.
  • Skeptischer Optimist 10.06.2019 16:17
    Highlight Highlight Intelligenz ohne Ethik ist nicht Intelligenz, sondern ein Marketingbegriff.

    Nützlich vor allem um unbedarften Investoren das Geld aus der Tasche ziehen zu können.
  • Lienat 10.06.2019 16:00
    Highlight Highlight Solange niemand erklären kann, wie in unserem Hirn durch blosse Verschaltung von ein paar Dutzend Milliarden Neuronen ein selbstbewusster Geist entsteht, ist die Diskussion um die Entscheidungsfindung von Maschinen zielich müssig. Auch wenn der Begriff "künstliche Intelligenz" etwas anderes sugeriert, sind selbst die komplexesten Computer nichts anderes als dumme Maschinen, welche mit sturen Algorithmen mehr oder weniger nützliche Informationen aus grossen Datenbeständen ableiten.
  • raues Endoplasmatisches Retikulum 10.06.2019 15:42
    Highlight Highlight Doch wenn wir uns von der Last der Logik befreien, haben wir Raum für eine neue Mystik.
    Musste an diese Perle denken...
    Play Icon
  • John H. 10.06.2019 15:34
    Highlight Highlight Kernpunkt des Interviews:
    "Wir lassen also die Maschinen mit ihrer künstlichen Intelligenz unseren Alltag regeln und heben in neue Sphären ab?
    Genau. Ich finde das keine uninteressante Perspektive. Wenn die Maschinen die lästigen logischen Probleme besser bewältigen können, dann lasst sie doch machen. Das könnte doch für uns Menschen neue intellektuelle Potentiale freisetzen."
    Das ist entlarvend: "Kümmert euch nicht darum, was wir mit KI machen - ihr seid ja so toll und könnt euer Potential entfalten" Das Motto stammt aus dem vorletzen Jahrhundert "You press the button, we do the rest."
    • You will not be able to use your remote control. 10.06.2019 17:14
      Highlight Highlight Das habe ich ganz umgekehrt verstanden:

      Die 'KI' hat kein 'Intelektuelles Potential', darum kann auch die beste 'KI' nur von Menschen formalisierte Probleme bearbeiten. Das eröffnet den Menschen die Möglichkeit, ganz neue oder andere Probleme zu formalisieren (und damit zu lösen), weil wir uns jetzt vermehrt auf die Formalisierung spezialisieren können.

      Das bedeutet auch, dass wir sehr gut verstehen, 'was wir mit der KI machen'.
    • John H. 10.06.2019 18:09
      Highlight Highlight @ You will…
      Ja und nein. Natürlich definieren wir mit unserer Intelligenz die Aufgaben (Probleme) für KI. Die Formalisierung überlassen wir aber auch (teilweise) der KI, sonst wäre sie keine. Eventuell verstehen Wenige, was" wir" mit der KI machen - aber sicher nicht, was die KI (im Detail) macht.
    • Nick Name 10.06.2019 23:21
      Highlight Highlight Wo hat Bolz gesagt: "Kümmert euch nicht darum, was wir mit KI machen - ihr seid ja so toll und könnt euer Potential entfalten"? Ich seh das weit und breit nirgends in seinen Worten – auch nicht sinngemäss.
    Weitere Antworten anzeigen
  • Linus Luchs 10.06.2019 15:25
    Highlight Highlight Eigenartig, wie Professor Bolz die Ethik von künstlicher Intelligenz trennen kann. Mit Verlaub, mir erscheint das naiv. Entscheidungen werden immer häufiger mit dem Verweis auf Daten gerechtfertigt. Ich denke an Angestellte, die den Job verlieren, weil "das System" angebliche Ineffizienz aufgezeigt hat. Oder betreffend Gesundheit: Die Krankenkasse sieht im persönlichen Datenprofil des Versicherten X ein genetisch bedingtes Herzinfarktrisiko, gleichzeitig hat er zehn Kilogramm Übergewicht. Darf ihn die Kasse unter Druck setzen? Die Prämie erhöhen? Schon stecken wir mitten in ethischen Fragen.
    • R. Klärer 10.06.2019 17:11
      Highlight Highlight Ich denke er meint das so: Die Kündigung wegen Ineffizienz, die die KI vornimmt, ist keine ethische Entscheidung, sondern eine Berechnung. Die ethische Entscheidung liegt in der Antwort auf die Frage: Darf man einem Menschen wegen Ineffizienz kündigen? Diese wird aber nicht von der KI getroffen, sondern von den Menschen. Die KI führt nur aus.
      Also: Mensch entschiedet: Wer ineff. ist, der fliegt. KI entscheidet: nach meinen Berechnungen ist XY ineffzient, also fliegt er. Ethisch ist nur die erste Entscheidung. Diejenige der KI ist rein operationell.
    • You will not be able to use your remote control. 10.06.2019 17:22
      Highlight Highlight Da kann die KI ja nichts dafür, wenn wir die ethischen Fragen stur nach Datenlage beantworten.

      Die KI sagt ja nur, die Daten sagen dasundas.

      Eine KI sagt jedoch nie: Ich finde es grundsätzlich unfair, wenn unterschiedliche Risikogruppen unterschiedliche Prämien zahlen müssen. Die KI weiss nicht was 'fair' bedeutet.
    • Flexon 10.06.2019 19:18
      Highlight Highlight @Klärer
      Bei genauerer Betrachtung ist die menschliche ethische Entscheidung auch eine Berechnung bzw. ein hoffentlich sachliches Abwägen. Eine KI könnte verschiedene Faktoren wie Ineffizienz, Teamspirit, Politik, Genderquoten, vergleiche mit ähnlichen Situationen etc... miteinander austarieren und wäre dabei irgendwann vernünftiger und damit ethischer als Menschen.
    Weitere Antworten anzeigen
  • Gawayn 10.06.2019 15:21
    Highlight Highlight Soviel also habe ich verstanden..

    Entscheidet ein Mensch, ob er handeln muss und wie, sind es Entscheidungen.

    Eröffnet eine unbemannte Drohne selbständig das Feuer auf Menschen, sind es Berechnungen...

    Irgendwas entgeht mir grad...
    • John H. 10.06.2019 15:49
      Highlight Highlight Guter Beitrag:
      Entscheidungen als Zusammenfassung von Logik, Emotion und Handlungsdruck.
      Berechnungen müssen erstellt/programmiert werden. Wer macht das nach welchen Kriterien?
      Das beantwortet er nicht.
    • You will not be able to use your remote control. 10.06.2019 17:33
      Highlight Highlight > Wer macht das nach welchen Kriterien?

      Wer kann das nachvollziehen oder kontrollieren?

      Aktuell gibt es vor allem das Kriterium 'machbar'. Die erstellte Logik soll geheim bleiben. Die nötigen Ressourcen haben nicht viele.

      Das sind aber nicht KI betreffende neue Fragen.
  • TheRealDonald 10.06.2019 15:16
    Highlight Highlight Hinsichtlich der zukünftigen Entwicklung von Künstlicher Intelligenz irgendwelche längerfristigen Prognosen abzugeben ist ziemlich verwegen, wenn nicht gar unseriös.
    Unser Hirn ist auch nur eine Ansammlung von Schaltkreisen in welchem erlernte Programme ablaufen. In vielen Bereichen sind uns Computer schon weit überlegen und es wird der Tag kommen an welchem ein kleiner Rechner die Gesamtleistung eines Hirns problemlos übertrifft. Vielleicht schon früher als wir erwarten. Und darauf sollten wir vorbereitet sein!
  • Triple A 10.06.2019 14:58
    Highlight Highlight Gerade wenn man die Werke vom zitierten Isaac Asimov und vom anderen SF-Autoren liest, wird eines klar. Hr. Bolz lässt sich von Wunschvorstellungen leiten. Es gibt keinen logischen Grund weshalb komplexe neuronale Netzwerke z.B. kein Selbstbewusstsein entwickeln können. -Ausser man man ist äusserst arrogant oder man glaubt (!) der Mensch sei einzigartig. Aber das hat beides wenig mit Wissenschaft zu tun!
    • Wander Kern 10.06.2019 19:50
      Highlight Highlight Das stimmt. Andererseits gibt es gute Gründe anzunehmen, dass gewisse Bewusstseinsinhalte sich grundsätzlich nicht aus den Eigenschaften neuronaler Netze herleiten lassen.
      Ein Beispiel: Ein solches Netzwerk mag irgendwo eine Temperatur messen und darauf intelligent reagieren. Es scheint trotzdem unsinnig zu behaupten, das System habe eine Hitzewahrnehmung oder gar Schmerzen.
    • Schaaggi 11.06.2019 07:38
      Highlight Highlight Da hat das Marketing gut verfangen, wenn man einem der heute existierenden neuronalen Netzwerke die Fähigkeit zu eigenem Bewusstsein zutraut.

      Ob in geheimen Forschungszentren sowas existiert, kann man jedoch theoretisch nicht ausschliessen.
  • Thom Mulder 10.06.2019 14:55
    Highlight Highlight Der Mann macht einen grundlegenden Denkfehler. Auch ethische Entscheide sind Rechnungen. Was gut oder schlecht ist entscheiden wir durch den höheren oder minderen positiven oder negativen Wert, den ihre Auswirkungen haben. Man braucht diese Zustände nur zu definieren, dann ist eine Maschine in der Lage dieselben Entscheidungen zu treffen wie wir. Am Ende sind wir auch nichts Anderes als Maschinen – wenn auch Biologische und Komplexere, aber dennoch nur Maschinen.
    • supremewash 10.06.2019 15:35
      Highlight Highlight Da haben Sie aber seine Abgrenzung von Entscheidung (Mensch) und Rechnung (Maschine) nicht verstanden.
      Der Mensch gibt die "Entscheidungsgrundlagen" vor, die Maschine errechnet die ideale Lösung für ein Problem auf dieser Basis. Die Maschine folgt also der Ethik ihres Erschaffers.
    • John H. 10.06.2019 15:58
      Highlight Highlight Norbert Bolz macht keinen "Denkfehler", weil es das nicht gibt. Denken ist nie ein Fehler ;-)
      Er ist einfach in einem System aus dem (vor)letzten Jahrhundert gefangen.

Ein nüchterner Blick auf ALLE Vor- und Nachteile von Cannabis – ja, wirklich ALLE

Um den Hanf tobt seit langem ein Glaubenskrieg. Für die einen ist Cannabis eine unterschätzte Einstiegsdroge, die Psychosen auslöst; für die andern ein zu Unrecht verteufeltes Genussmittel und zugleich eine medizinische Allzweckwaffe. Da kann es nicht schlecht sein, einen nüchternen Blick auf die Pflanze und ihre Eigenschaften zu werfen.

Hanf (Cannabis sativa) ist eine der ältesten Nutzpflanzen und wird schon seit Jahrtausenden als Heilpflanze verwendet. Ihre Verwendung als Rauschmittel wurde …

Artikel lesen
Link zum Artikel