DE | FR
Wir verwenden Cookies und Analysetools, um die Nutzerfreundlichkeit der Internetseite zu verbessern und passende Werbung von watson und unseren Werbepartnern anzuzeigen. Weitere Infos findest Du in unserer Datenschutzerklärung.
Das chinesische Brettspiel Go ist weitaus komplexer als Schach. 
Das chinesische Brettspiel Go ist weitaus komplexer als Schach. Bild: EPA/EPA

AlphaGo: Googles künstliche Intelligenz lernt unfassbar viel schneller als wir Menschen

2016 besiegte Googles künstliche Intelligenz den weltbesten Go-Spieler. Der Nachfolger AlphaGo Zero hat nun in kurzer Zeit mehr über das Spiel gelernt, als Menschen in tausenden Jahren. Die selbstlernende Software hat gar für Menschen völlig neue Spiel-Taktiken entwickelt.
18.10.2017, 19:0619.10.2017, 06:40

Das Aufsehen war gross als die Google-Software AlphaGo 2016 den Spitzenspieler Lee Sedol im Brettspiel Go besiegte. Forscher haben die Software nun unter dem Titel «AlphaGo Zero» weiterentwickelt. Das System lernte das Spiel ohne menschliches Zutun und besiegte auch seine Vorgängerversionen.

AlphaGo hatte sich unlängst mit einem glatten 3:0-Sieg gegen den vermutlich weltbesten Go-Spieler Ke Jie durchgesetzt. An diesem und weiteren Erfolgen der lernenden Software wurde ersichtlich, wie weit die Entwicklung sogenannter Künstlicher Intelligenz (KI) bereits fortgeschritten ist. Das System stammt von der britischen Firma DeepMind, die vor mehr als drei Jahren vom US-Konzern Google übernommen wurde.

Besonders überraschend waren die Fähigkeiten von AlphaGo, weil das rund 3000 Jahre alte asiatisch Spiel spezielle Anforderungen stellt, die bisher eher dem menschlichen Geist exklusiv zugebilligt wurden. Angesichts nahezu unbegrenzter Möglichkeiten für Züge, ist nämlich viel Intuition, kreatives Denken und Lernfähigkeit gefragt.

Googles künstliche Intelligenz AlphaGo liess dem weltbesten Go-Spieler Ke Jie keine Chance.
Googles künstliche Intelligenz AlphaGo liess dem weltbesten Go-Spieler Ke Jie keine Chance.Bild: EPA/EPA

Während AlphaGo seinen virtuellen Geist noch am Studium von Millionen Zügen von menschlichen Top-Spielern über Monate hinweg gestärkt hatte, gingen die Wissenschaftler um David Silver von DeepMind in London nun andere Wege. Von den Ergebnissen berichten sie im Fachblatt «Nature».

Künstliche Intelligenz soll komplett ohne menschliche Hilfe Lernen

Im Zentrum stand der Gedanke, ein System zu bauen, welches das Spiel ohne Anschauungsmaterial von der Pike auf selbst erlernt und auf sich alleine gestellt weiterentwickelt – also «komplett ohne menschliche Intervention funktioniert», erklärte Silver.

Die Fähigkeit, ein System dazu zu bringen, etwas annähernd von null auf zu erlernen, sei vor allem dann wichtig, wenn es darum geht, eine Form von KI zu entwickeln, die sich selbstständig auf für sie neue Aufgaben jeglicher Art einstellt. Am Ende strebe man die Entwicklung eines Algorithmus an, der potenziell auf jedes Problem angesetzt werden kann, so der Forscher.

Das neue System begann mit nur minimaler Startinformation über die Regeln und Beschaffenheit des Spiels, gegen sich selbst zu spielen. Grundlage von AlphaGo Zero ist ein künstliches neuronales Netzwerk, das darauf abzielt, die Auswahl der nächsten Züge des Programms und den Gewinner der jeweils gespielten Partien vorherzusagen. Für gewonnene Spiele wurde es durch ein Punktesystem belohnt. Dadurch «lernte» AlphaGo Zero mit jedem Spiel dazu.

AlphaGo Zero besiegt AlphaGo 100:0

Nach wenigen Tagen – allerdings immerhin nach fast fünf Millionen Partien gegen sich selbst – schlug das Programm alle seine Vorgänger. Jenes System, das mit den Siegen gegen die Spitzenspieler aufhorchen liess, ging mit einem klaren 100:0 unter. Dafür brauchte es weit weniger Rechenressourcen als AlphaGo, heisst es seitens DeepMind.

Nicht nur habe der Algorithmus sozusagen all das in kurzer Zeit herausgefunden, was Menschen in tausenden Jahren über das Spiel gelernt haben, er habe auch völlig neue Herangehensweisen entwickelt. «Ich denke, ich kann für das Team sprechen, dass wir alle angenehm überrascht darüber sind, wie weit sich das System entwickelt hat», sagte Silver.

Experten äusserten zwar einerseits ihre Anerkennung für die Arbeit des DeepMind-Teams, stiegen aber andererseits auf die Euphoriebremse: So hätten die Wissenschaftler in der Arbeit «selbst ja keine fundamentalen algorithmischen Neuerungen vorgestellt, sondern hauptsächlich existierende Verfahren clever kombiniert», erklärte Marcus Liwicki von der Technische Universität Kaiserslautern.

Die Anwendbarkeit des Ansatzes in anderen Bereichen wäre ausserdem eher eingeschränkt, da das System eben Millionen von Spielen durchführen muss, bei denen Erfolg eindeutig definiert ist, um derart gut zu werden. «Das ist in vielen praktischen Problemen jedoch nicht der Fall», so Liwicki.

(oli/sda/apa)

Künstliche Intelligenz kommt auch immer mehr in Smartphones zum Einsatz

Ethik-Frage: Die Gefahr der selbstfahrender Autos

Video: srf

Künstliche Intelligenz im Kino: Gnadenlose Schaltkreise

1 / 31
Künstliche Intelligenz im Kino: Gnadenlose Schaltkreise
Auf Facebook teilenAuf Twitter teilenWhatsapp sharer
DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet um die Zahlung abzuschliessen)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.

Das könnte dich auch noch interessieren:

Abonniere unseren Newsletter

66 der besten Tweets, die Impfgegner auf die Palme und dich zum Lachen bringen

Obacht, geschätzte watson-Userin, geschätzter -User: Wenn die Tweets in diesem Artikel nicht prompt angezeigt werden, klicke für unseren hilfsbereiten IT-Support auf diesen Link, zähle wahlweise laut oder leise auf fünf und scrolle erst dann weiter.

Zur Story