Das Aufsehen war gross als die Google-Software AlphaGo 2016 den Spitzenspieler Lee Sedol im Brettspiel Go besiegte. Forscher haben die Software nun unter dem Titel «AlphaGo Zero» weiterentwickelt. Das System lernte das Spiel ohne menschliches Zutun und besiegte auch seine Vorgängerversionen.
AlphaGo hatte sich unlängst mit einem glatten 3:0-Sieg gegen den vermutlich weltbesten Go-Spieler Ke Jie durchgesetzt. An diesem und weiteren Erfolgen der lernenden Software wurde ersichtlich, wie weit die Entwicklung sogenannter Künstlicher Intelligenz (KI) bereits fortgeschritten ist. Das System stammt von der britischen Firma DeepMind, die vor mehr als drei Jahren vom US-Konzern Google übernommen wurde.
Besonders überraschend waren die Fähigkeiten von AlphaGo, weil das rund 3000 Jahre alte asiatisch Spiel spezielle Anforderungen stellt, die bisher eher dem menschlichen Geist exklusiv zugebilligt wurden. Angesichts nahezu unbegrenzter Möglichkeiten für Züge, ist nämlich viel Intuition, kreatives Denken und Lernfähigkeit gefragt.
Während AlphaGo seinen virtuellen Geist noch am Studium von Millionen Zügen von menschlichen Top-Spielern über Monate hinweg gestärkt hatte, gingen die Wissenschaftler um David Silver von DeepMind in London nun andere Wege. Von den Ergebnissen berichten sie im Fachblatt «Nature».
Im Zentrum stand der Gedanke, ein System zu bauen, welches das Spiel ohne Anschauungsmaterial von der Pike auf selbst erlernt und auf sich alleine gestellt weiterentwickelt – also «komplett ohne menschliche Intervention funktioniert», erklärte Silver.
Die Fähigkeit, ein System dazu zu bringen, etwas annähernd von null auf zu erlernen, sei vor allem dann wichtig, wenn es darum geht, eine Form von KI zu entwickeln, die sich selbstständig auf für sie neue Aufgaben jeglicher Art einstellt. Am Ende strebe man die Entwicklung eines Algorithmus an, der potenziell auf jedes Problem angesetzt werden kann, so der Forscher.
Das neue System begann mit nur minimaler Startinformation über die Regeln und Beschaffenheit des Spiels, gegen sich selbst zu spielen. Grundlage von AlphaGo Zero ist ein künstliches neuronales Netzwerk, das darauf abzielt, die Auswahl der nächsten Züge des Programms und den Gewinner der jeweils gespielten Partien vorherzusagen. Für gewonnene Spiele wurde es durch ein Punktesystem belohnt. Dadurch «lernte» AlphaGo Zero mit jedem Spiel dazu.
Nach wenigen Tagen – allerdings immerhin nach fast fünf Millionen Partien gegen sich selbst – schlug das Programm alle seine Vorgänger. Jenes System, das mit den Siegen gegen die Spitzenspieler aufhorchen liess, ging mit einem klaren 100:0 unter. Dafür brauchte es weit weniger Rechenressourcen als AlphaGo, heisst es seitens DeepMind.
Nicht nur habe der Algorithmus sozusagen all das in kurzer Zeit herausgefunden, was Menschen in tausenden Jahren über das Spiel gelernt haben, er habe auch völlig neue Herangehensweisen entwickelt. «Ich denke, ich kann für das Team sprechen, dass wir alle angenehm überrascht darüber sind, wie weit sich das System entwickelt hat», sagte Silver.
Experten äusserten zwar einerseits ihre Anerkennung für die Arbeit des DeepMind-Teams, stiegen aber andererseits auf die Euphoriebremse: So hätten die Wissenschaftler in der Arbeit «selbst ja keine fundamentalen algorithmischen Neuerungen vorgestellt, sondern hauptsächlich existierende Verfahren clever kombiniert», erklärte Marcus Liwicki von der Technische Universität Kaiserslautern.
Die Anwendbarkeit des Ansatzes in anderen Bereichen wäre ausserdem eher eingeschränkt, da das System eben Millionen von Spielen durchführen muss, bei denen Erfolg eindeutig definiert ist, um derart gut zu werden. «Das ist in vielen praktischen Problemen jedoch nicht der Fall», so Liwicki.
(oli/sda/apa)
Nein, Gratulation an die Programmierer.
Grüße, der Terminator
Auf der einen Seite toll was für Möglichkeiten sich auf tun... aber stimmt einen auch nachdenklich was die negativen Folgen sein werden.