Digital

Figuren in Wolken erkennen. Dieses Spiel beherrschen auch neuronale Netze: Sie sehen dann Vögel, Füchse etc. Aus dem normalen Wolkenbild links wird ein seltsames psychedelisches Kunstwerk, wenn man das Netzwerk nur lange genug rechnen lässt.  bild: google

Figuren in Wolken erkennen: Dieses Kinderspiel können neu auch Computer​

Kann künstliche Intelligenz ein Bild interpretieren? Was sehen Computer, wenn sie in den Himmel schauen? Google-Forscher haben es herausgefunden. Die Resultate sind verblüffend.

22.06.15, 20:39

Christian Stöcker 

Ein Artikel von

Was passiert, wenn man ein künstliches Netzwerk aus simulierten Nervenzellen auf ganz normale Fotos ansetzt? Im Idealfall sagt es einem, was auf dem Bild zu sehen ist. Im Extremfall, wenn man das Netzwerk immer weiter nach Sinn suchen lässt, sieht es Dinge, die gar nicht da sind. Auf eine Weise, die unserer eigenen Wahrnehmung verblüffend ähnelt.

Das Grundprinzip, nach dem solche neuronalen Netzwerke funktionieren, ist immer das gleiche. Sie bestehen aus zwei oder mehr Schichten von Knoten, simulierten Nervenzellen. Verbunden werden diese Schichten mit vielen Verknüpfungen. In der Regel ist jeder Knoten der einen Schicht mit allen Knoten der nächsten verbunden. Die Input-Knoten stehen für elementare Merkmale, sie könnten beispielsweise die Pixel eines vorgegebenen Bildes repräsentieren.

«So verstärkt, dass es eine bestimmte Interpretation hervorrief»

Wird ein Input-Knoten aktiviert, reichte er diese Aktivierung über seine Verbindungen an die Knoten der nächsten Schicht weiter. Die Verbindungen wurden gewichtet - man kann sie sich als unterschiedlich dick vorstellen. Je dicker die Verbindung, desto stärker die Aktivierung, die am nächsten Knoten ankommt. Belehrt wird so ein Netzwerk gewissermassen rückwärts: Wenn die Output-Schicht nicht das gewünschte Ergebnis produziert, werden die Gewichtungen der Verbindungen mithilfe eines mathematischen Mechanismus Schicht für Schicht so angepasst, dass das Ergebnis beim nächsten Mal besser zum tatsächlichen Input passt. Mit vielen Durchgängen können die Netze so lernen, Inputs korrekt mit Outputs zu verknüpfen. Schon in den Achtzigerjahren lernten neuronale Netze so beispielsweise, englische Verben zu konjugieren (siehe unten).

Neuronales Netz aus klassischem Forschungsartikel von 1985: Input- und Output-Knoten, gewichtete Verknüpfungen grafik: David E. Rumelhart/ James L. McClelland

Heute sind neuronale Netze beispielsweise im Bereich der Sprach- und Bilderkennung im Einsatz. Unter anderem bei Google. Eine Forschergruppe um den Russen Alexander Mordvintsev benutzt dort neuronale Netze mit «10 bis 30 Schichten», um Bilder zu erkennen.

Jeder kennt das Phänomen aus dem eigenen Erleben

Mordvintsev und seine Kollegen trainieren ihre Netzwerke auf ähnliche Weise, wie man das auch schon in den Achtzigerjahren tat - nur dass die Netze und die Ergebnisse ungleich komplexer sind: «Wir wissen, dass jede Schicht nach dem Training immer höhere Merkmale des Bildes extrahiert, bis zur letzten Schicht, die gewissermassen entscheidet, was das Bild zeigt.» Eine Schicht suche beispielsweise nach Rändern oder Ecken, spätere nach «Grobformen oder Komponenten wie einer Tür oder einem Blatt». Die letzte Schicht füge diese Komponenten dann zur vollständigen Interpretation eines Bildes zusammen.

Um zu zeigen, wie ein solches Netzwerk arbeitet, haben Mordvintsev und seine Kollegen den Vorgang nun gewissermassen auf den Kopf gestellt. «Wir baten es, ein Input-Bild so zu verstärken, dass es eine bestimmte Interpretation hervorrief.» So wurde dem Netzwerk etwa aufgetragen, in einem Bild voller schwarz-weissem Pixelrauschen Ameisen, Seesterne oder Schrauben zu sehen und die entsprechenden Partien des Bildes dementsprechend hervorzuheben.

Die Resultate sind verblüffend, und sie erinnern an ein Phänomen, das jeder von sich selbst kennt: Blickt man auf unstrukturierte visuelle Reize, sei es eine Raufasertapete, ein Teppichboden oder eine Wolke, wird man darin früher oder später Objekte oder Gesichter zu erkennen glauben. Genau das taten nun auch die künstlichen neuronalen Netzwerke. Mordvintsev und seine Kollegen haben ihre Technik «Inceptionism» getauft, in Anlehnung an Christopher Nolans mehrschichtigen Traum-Film.

Schwein mit Schneckenhaus, Fisch mit Hundegesicht

Als Nächstes versorgten die Forscher ihr Netzwerk mit Fotos von realen Objekten oder Landschaften, beauftragten aber eine bestimmte Schicht des Netzes, «seine» Wahrnehmung hervorzuheben. Bekamen frühe Schichten des Netzes diesen Auftrag, entstanden so Streifen- oder Kringelmuster, «weil diese Schichten sensibel für grundlegende Merkmale wie Ränder und ihre Ausrichtungen sind».

Wurden jedoch die späteren, tieferen Schichten des Netzwerks zu den Herren der Deutung gemacht, geschah etwas Verblüffendes: Aus einem unspektakulären Foto weisser Wolken vor blauem Himmel etwa extrahierte das Netzwerk nach und nach fantastische Objekte und Gestalten, etwa ein Wesen, das wie ein Schwein mit Schneckenhaus aussieht, oder einen Fisch mit dem Gesicht eines Hundes.

bild: Google

Wenn diese Technik auf unterschiedliche Bilder angewendet wird, kommen dabei irrwitzige, oft seltsam beunruhigende Bilder zustande, die an die Werke von Künstlern erinnern, die Halluzinationen einzufangen versucht haben. Sie wirken, als hätten die Forscher ihren Netzwerken psychoaktive Drogen verabreicht - und das stimmt ja auch in gewisser Weise. Denn auch menschliche Halluzinationen sind oft genug nichts anderes als die Überinterpretation bestimmter Merkmale, die ein überreizter visueller Kortex aus dem Input erzeugt, den die Augen liefern.

Nun sind neuronale Netze also so weit, dass sie nicht nur ähnlich lernen wie menschliche Kinder - sie können auch Bilder schaffen, die von psychedelischer Kunst aus Menschenhand nicht mehr zu unterscheiden ist.

Neuronale Netzwerke: Die Geschichte

Die Idee, dass man die Morphologie des menschlichen Nervensystems nachbilden könnte, um Maschinen so etwas wie Denken, Lernen oder Wahrnehmung beizubringen, stammt schon aus den Vierzigerjahren des vergangenen Jahrhunderts. Lange Zeit aber blieben die sogenannten neuronalen Netzwerkmodelle eher rudimentär, ein Gebiet für Spezialisten mit besonderer Liebe zur Abstraktion. Dann, in der ersten Hälfte der Achtzigerjahre, änderte sich das vor allem dank einer einzigen Studie. Die Psychologen David Rumelhart und James McClelland zeigten, dass so ein extrem rudimentäres Pseudogehirn lernen kann, die Vergangenheitsformen englischer Verben korrekt zu bilden - und im Laufe des Lernprozesses vorübergehend die gleichen Fehler macht wie ein menschliches Kind beim gleichen Vorgang. Statt «went» warf das Netz als Antwort vorübergehend «goed» aus - es wendete also die Regel korrekt an, aber eben bei einem unregelmässigen Verb.

Das Netzwerk lernte also Regeln und anschliessend auch die Ausnahmen von diesen Regeln - ohne dass eine einzige Regel jemals explizit formuliert worden wäre. Die Studie löste in den Kognitionswissenschaften einen kleinen Boom aus, plötzlich wurden neuronale Netzwerkmodelle auf alle möglichen Fragestellungen angewendet, der Begriff «Konnektionismus» für die neue Wissenschaft kam auf. Dann kam das Internet, die digitale Revolution nahm ihren Lauf und plötzlich gab es Rechenleistung und entsprechende Computer in Hülle und Fülle. Heute sind neuronale Netzwerke nicht mehr nur Modelle für Psychologen - sie sind zu mächtigen Werkzeugen in den Händen jener geworden, die Computern das Sehen, Denken, Deuten beibringen wollen.

Da könnte dich auch interessieren

Wenn du diese 25 fantastischen historischen Bilder siehst, folgst auch du @History_Pics

Abonniere unseren NewsletterNewsletter-Abo
Themen
3Alle Kommentare anzeigen
3
Um mit zudiskutieren oder Bilder und Youtube-Videos zu posten, musst du eingeloggt sein.
Youtube-Videos und Links einfach ins Textfeld kopieren.
600
  • Saftladen 23.06.2015 08:46
    Highlight Sehr interessant! Ich bin wirklich froh, dass Watson nebst all den lustigen Artikeln auch spannende, wissenschaftliche Themen bringt. Bestes Beispiel ist für mich nebst diesem Artikel derjenige über die Regenwürmer - bitte mehr davon! :)
    3 0 Melden
    600
  • Don Huber 23.06.2015 06:49
    Highlight Nein das Programm erkennt eine andere Dimension die über uns ist und visualisiert sie. Diese Dimension können wir selber nicht wahr nehmen. Krass.
    4 2 Melden
    600
  • mal! 22.06.2015 21:15
    Highlight Eine sehr sperrige Erklärung was künstliche neuronale Netze sind. Ich glaube man könnte sie einfach als Schichten aus verschiedenen Algorithmen oder Programmen sehen, die Resultate an die nächste Schicht weiterreichen können. Eine Schicht fasst dann zum Beispiel gleichfarbige Pixel zusammen und die nächste Schicht sucht dann beispielsweise nach Linien. etc.
    1 0 Melden
    600

6 haarsträubende Beispiele, dass Hacker von Waffen bis Chemieanlagen alles hacken können

Black Hat und Def Con in Las Vegas sind zwei der grössten Veranstaltungen für Hacker weltweit. Dieses Jahr demonstrierten die IT-Sicherheitsexperten, dass nichts und niemand vor Hacker-Angriffen sicher ist. 

An der diesjährigen Hacker-Konferenz Def Con konnten sich Hacker an verschiedenen Wahlcomputern austoben.

Die Veranstalter der Def Con liessen sich nicht lumpen und bauten ein sogenanntes Voting Village mit 30 verschiedenen Wahlautomaten auf, die in den USA seit vielen Jahren eingesetzt werden. Allesamt wurden sie von den Def-Con-Teilnehmern gehackt – einige innert Minuten oder Stunden.

Informatik-Professor Carsten Schürmann von der IT-Universität Kopenhagen verschaffte sich über eine …

Artikel lesen