Digital
Wir verwenden Cookies und Analysetools, um die Nutzerfreundlichkeit der Internetseite zu verbessern und passende Werbung von watson und unseren Werbepartnern anzuzeigen. Weitere Infos findest Du in unserer Datenschutzerklärung.
Bild

Figuren in Wolken erkennen. Dieses Spiel beherrschen auch neuronale Netze: Sie sehen dann Vögel, Füchse etc. Aus dem normalen Wolkenbild links wird ein seltsames psychedelisches Kunstwerk, wenn man das Netzwerk nur lange genug rechnen lässt.  bild: google

Figuren in Wolken erkennen: Dieses Kinderspiel können neu auch Computer​

Kann künstliche Intelligenz ein Bild interpretieren? Was sehen Computer, wenn sie in den Himmel schauen? Google-Forscher haben es herausgefunden. Die Resultate sind verblüffend.

Christian Stöcker 



Ein Artikel von

Spiegel Online

Was passiert, wenn man ein künstliches Netzwerk aus simulierten Nervenzellen auf ganz normale Fotos ansetzt? Im Idealfall sagt es einem, was auf dem Bild zu sehen ist. Im Extremfall, wenn man das Netzwerk immer weiter nach Sinn suchen lässt, sieht es Dinge, die gar nicht da sind. Auf eine Weise, die unserer eigenen Wahrnehmung verblüffend ähnelt.

Das Grundprinzip, nach dem solche neuronalen Netzwerke funktionieren, ist immer das gleiche. Sie bestehen aus zwei oder mehr Schichten von Knoten, simulierten Nervenzellen. Verbunden werden diese Schichten mit vielen Verknüpfungen. In der Regel ist jeder Knoten der einen Schicht mit allen Knoten der nächsten verbunden. Die Input-Knoten stehen für elementare Merkmale, sie könnten beispielsweise die Pixel eines vorgegebenen Bildes repräsentieren.

«So verstärkt, dass es eine bestimmte Interpretation hervorrief»

Wird ein Input-Knoten aktiviert, reichte er diese Aktivierung über seine Verbindungen an die Knoten der nächsten Schicht weiter. Die Verbindungen wurden gewichtet - man kann sie sich als unterschiedlich dick vorstellen. Je dicker die Verbindung, desto stärker die Aktivierung, die am nächsten Knoten ankommt. Belehrt wird so ein Netzwerk gewissermassen rückwärts: Wenn die Output-Schicht nicht das gewünschte Ergebnis produziert, werden die Gewichtungen der Verbindungen mithilfe eines mathematischen Mechanismus Schicht für Schicht so angepasst, dass das Ergebnis beim nächsten Mal besser zum tatsächlichen Input passt. Mit vielen Durchgängen können die Netze so lernen, Inputs korrekt mit Outputs zu verknüpfen. Schon in den Achtzigerjahren lernten neuronale Netze so beispielsweise, englische Verben zu konjugieren (siehe unten).

Neuroen/ Tabelle

Neuronales Netz aus klassischem Forschungsartikel von 1985: Input- und Output-Knoten, gewichtete Verknüpfungen grafik: David E. Rumelhart/ James L. McClelland

Heute sind neuronale Netze beispielsweise im Bereich der Sprach- und Bilderkennung im Einsatz. Unter anderem bei Google. Eine Forschergruppe um den Russen Alexander Mordvintsev benutzt dort neuronale Netze mit «10 bis 30 Schichten», um Bilder zu erkennen.

Jeder kennt das Phänomen aus dem eigenen Erleben

Mordvintsev und seine Kollegen trainieren ihre Netzwerke auf ähnliche Weise, wie man das auch schon in den Achtzigerjahren tat - nur dass die Netze und die Ergebnisse ungleich komplexer sind: «Wir wissen, dass jede Schicht nach dem Training immer höhere Merkmale des Bildes extrahiert, bis zur letzten Schicht, die gewissermassen entscheidet, was das Bild zeigt.» Eine Schicht suche beispielsweise nach Rändern oder Ecken, spätere nach «Grobformen oder Komponenten wie einer Tür oder einem Blatt». Die letzte Schicht füge diese Komponenten dann zur vollständigen Interpretation eines Bildes zusammen.

Um zu zeigen, wie ein solches Netzwerk arbeitet, haben Mordvintsev und seine Kollegen den Vorgang nun gewissermassen auf den Kopf gestellt. «Wir baten es, ein Input-Bild so zu verstärken, dass es eine bestimmte Interpretation hervorrief.» So wurde dem Netzwerk etwa aufgetragen, in einem Bild voller schwarz-weissem Pixelrauschen Ameisen, Seesterne oder Schrauben zu sehen und die entsprechenden Partien des Bildes dementsprechend hervorzuheben.

Die Resultate sind verblüffend, und sie erinnern an ein Phänomen, das jeder von sich selbst kennt: Blickt man auf unstrukturierte visuelle Reize, sei es eine Raufasertapete, ein Teppichboden oder eine Wolke, wird man darin früher oder später Objekte oder Gesichter zu erkennen glauben. Genau das taten nun auch die künstlichen neuronalen Netzwerke. Mordvintsev und seine Kollegen haben ihre Technik «Inceptionism» getauft, in Anlehnung an Christopher Nolans mehrschichtigen Traum-Film.

Schwein mit Schneckenhaus, Fisch mit Hundegesicht

Als Nächstes versorgten die Forscher ihr Netzwerk mit Fotos von realen Objekten oder Landschaften, beauftragten aber eine bestimmte Schicht des Netzes, «seine» Wahrnehmung hervorzuheben. Bekamen frühe Schichten des Netzes diesen Auftrag, entstanden so Streifen- oder Kringelmuster, «weil diese Schichten sensibel für grundlegende Merkmale wie Ränder und ihre Ausrichtungen sind».

Wurden jedoch die späteren, tieferen Schichten des Netzwerks zu den Herren der Deutung gemacht, geschah etwas Verblüffendes: Aus einem unspektakulären Foto weisser Wolken vor blauem Himmel etwa extrahierte das Netzwerk nach und nach fantastische Objekte und Gestalten, etwa ein Wesen, das wie ein Schwein mit Schneckenhaus aussieht, oder einen Fisch mit dem Gesicht eines Hundes.

Bild

bild: Google

Wenn diese Technik auf unterschiedliche Bilder angewendet wird, kommen dabei irrwitzige, oft seltsam beunruhigende Bilder zustande, die an die Werke von Künstlern erinnern, die Halluzinationen einzufangen versucht haben. Sie wirken, als hätten die Forscher ihren Netzwerken psychoaktive Drogen verabreicht - und das stimmt ja auch in gewisser Weise. Denn auch menschliche Halluzinationen sind oft genug nichts anderes als die Überinterpretation bestimmter Merkmale, die ein überreizter visueller Kortex aus dem Input erzeugt, den die Augen liefern.

Nun sind neuronale Netze also so weit, dass sie nicht nur ähnlich lernen wie menschliche Kinder - sie können auch Bilder schaffen, die von psychedelischer Kunst aus Menschenhand nicht mehr zu unterscheiden ist.

Neuronale Netzwerke: Die Geschichte

Die Idee, dass man die Morphologie des menschlichen Nervensystems nachbilden könnte, um Maschinen so etwas wie Denken, Lernen oder Wahrnehmung beizubringen, stammt schon aus den Vierzigerjahren des vergangenen Jahrhunderts. Lange Zeit aber blieben die sogenannten neuronalen Netzwerkmodelle eher rudimentär, ein Gebiet für Spezialisten mit besonderer Liebe zur Abstraktion. Dann, in der ersten Hälfte der Achtzigerjahre, änderte sich das vor allem dank einer einzigen Studie. Die Psychologen David Rumelhart und James McClelland zeigten, dass so ein extrem rudimentäres Pseudogehirn lernen kann, die Vergangenheitsformen englischer Verben korrekt zu bilden - und im Laufe des Lernprozesses vorübergehend die gleichen Fehler macht wie ein menschliches Kind beim gleichen Vorgang. Statt «went» warf das Netz als Antwort vorübergehend «goed» aus - es wendete also die Regel korrekt an, aber eben bei einem unregelmässigen Verb.

Das Netzwerk lernte also Regeln und anschliessend auch die Ausnahmen von diesen Regeln - ohne dass eine einzige Regel jemals explizit formuliert worden wäre. Die Studie löste in den Kognitionswissenschaften einen kleinen Boom aus, plötzlich wurden neuronale Netzwerkmodelle auf alle möglichen Fragestellungen angewendet, der Begriff «Konnektionismus» für die neue Wissenschaft kam auf. Dann kam das Internet, die digitale Revolution nahm ihren Lauf und plötzlich gab es Rechenleistung und entsprechende Computer in Hülle und Fülle. Heute sind neuronale Netzwerke nicht mehr nur Modelle für Psychologen - sie sind zu mächtigen Werkzeugen in den Händen jener geworden, die Computern das Sehen, Denken, Deuten beibringen wollen.

Da könnte dich auch interessieren

Wenn du diese 25 fantastischen historischen Bilder siehst, folgst auch du @History_Pics

Das könnte dich auch interessieren:

Nach 27 Jahren kommt der Nachfolger der SMS – das musst du über RCS wissen

Link zum Artikel

Merkel beginnt bei Staatsbesuch plötzlich zu zittern – Entwarnung folgt kurz darauf

Link zum Artikel

Wetter: Nächste Woche wird's heiss

Link zum Artikel

Ohrfeige für Bundesanwalt vom Bundesstrafgericht – Lauber ist im FIFA-Fall befangen

Link zum Artikel

40 Millionen Liter Trinkwasser verschwunden? Das Rätsel von Tägerig ist gelöst

Link zum Artikel

OMG – wir haben Knoblauch unser ganzes Leben lang falsch geschält

Link zum Artikel

Warum Donald Trump 2020 wiedergewählt wird – und warum nicht

Link zum Artikel

Ein 3-jähriges Mädchen zerstört eine Fliege – das macht dann 56'000 Franken

Link zum Artikel

«Kann man sich in einen guten Freund verlieben?»

Link zum Artikel

Facebook will eine digitale Weltwährung etablieren

Link zum Artikel

Federer vor Halle-Auftakt: «Rasen hat seine eigenen Regeln – vor allem für mich»

Link zum Artikel

We will always love you – vor 60 Jahren veröffentlichte Dolly ihre erste Single

Link zum Artikel

Fazit nach Frauenstreik: Hunderttausende Menschen protestierten für Gleichstellung

Link zum Artikel

«Er hat nicht unrecht» – das sagt Christoph Blocher zu SVP-Glarners Handy-Terror

Link zum Artikel

Du willst dein Handy sicherer machen? Dann solltest du diese 10 Regeln kennen

Link zum Artikel

FCB-Sportchef Streller tritt mit emotionalem SMS zurück: «Es bricht mir s’Herz»

Link zum Artikel

Trump hat sich im Persischen Golf verzockt

Link zum Artikel

5 Action-Heldinnen, die die Filmwelt ordentlich gerockt haben

Link zum Artikel

Preisgeld-Vergleich: So viel mehr kassieren Männer im Sport als Frauen

Link zum Artikel

14 Gründe, warum die Frauen heute streiken

Link zum Artikel

«Das stimmt einfach nicht» – Martullo-Blocher wird in der «Arena» vorgeführt

Link zum Artikel

Nach Handy-Terror: Betroffene Mutter rechnet mit SVP-Glarner ab – und wie

Link zum Artikel

Trump setzte Kopfgeld auf unschuldige Schwarze aus – jetzt melden sie sich zu Wort

Link zum Artikel

9 spannende Geisterstädte und ihre Geschichten

Link zum Artikel
Alle Artikel anzeigen
sentifi.com

Watson_ch Sentifi

Abonniere unseren Newsletter

Themen
3
Bubble Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 48 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
3Alle Kommentare anzeigen
    Alle Leser-Kommentare
  • Saftladen 23.06.2015 08:46
    Highlight Highlight Sehr interessant! Ich bin wirklich froh, dass Watson nebst all den lustigen Artikeln auch spannende, wissenschaftliche Themen bringt. Bestes Beispiel ist für mich nebst diesem Artikel derjenige über die Regenwürmer - bitte mehr davon! :)
  • Don Huber 23.06.2015 06:49
    Highlight Highlight Nein das Programm erkennt eine andere Dimension die über uns ist und visualisiert sie. Diese Dimension können wir selber nicht wahr nehmen. Krass.
  • djangobits 22.06.2015 21:15
    Highlight Highlight Eine sehr sperrige Erklärung was künstliche neuronale Netze sind. Ich glaube man könnte sie einfach als Schichten aus verschiedenen Algorithmen oder Programmen sehen, die Resultate an die nächste Schicht weiterreichen können. Eine Schicht fasst dann zum Beispiel gleichfarbige Pixel zusammen und die nächste Schicht sucht dann beispielsweise nach Linien. etc.

Nimmt China nun an Apple Rache? Huawei-Chef Zhengfei hat die passende Antwort für Trump

Die neusten und wichtigsten Ereignisse im Handelskrieg der USA gegen den chinesischen Smartphone-Hersteller.

Huawei-Chef Ren Zhengfei hält Vergeltungsmassnahmen Chinas gegen Apple für unwahrscheinlich. «Das wird erstens nicht geschehen, und wenn das doch passieren sollte, werde ich der erste sein, der dagegen protestiert», sagte er der Nachrichtenagentur «Bloomberg».

Zhengfei schlägt also versöhnliche Töne an, um die Situation nicht weiter eskalieren zu lassen. Vielleicht geht er auch davon aus, dass eine solch drastische Vergeltungsmassnahme gegen Apple gar nicht notwendig ist. In China ist Huawei …

Artikel lesen
Link zum Artikel