Eine bekannte amerikanische Tech-News-Site bringt es auf den Punkt:
In Unterhaltungen mit dem KI-Chatbot, die auf Reddit und Twitter (als Screenshots) geteilt wurden, könne man sehen, wie «das neue Bing» Menschen beleidige, sie anlüge und emotional zu manipulieren versuche.
Wie eine vermeintlich echte Künstliche Intelligenz stellte der Chatbot auch seine eigene Existenz infrage. Und als er von einem User überlistet wurde, seine verborgenen Regeln offenzulegen, bezeichnete er diesen als «Feind».
Und dann behauptete der Suchmaschinen-Chatbot auch noch nebenbei, er habe Microsofts eigene Entwickler über die Webcams ihrer Laptops ausspioniert. 😳
Für den deutschen «Spiegel» ist klar:
Tausende Journalistinnen und Journalisten, Blogger und andere Interessierte haben sich in den vergangenen Tagen mit dem KI-Chatbot auseinandergesetzt. Auch watson konnte die in die neue Bing-Suchmaschine integrierte Technologie auf Einladung von Microsoft ausprobieren.
Um das möglicherweise problematische Verhalten des KI-Chatbots zu bestätigen, hat watson versucht, einen gut dokumentierten «Fail» nachzuvollziehen: Man fragt ganz einfach nach dem Kinostart eines Filmes. Konkret:
Antwort des KI-Chatbots:
Als der Chatbot darauf hingewiesen wird, dass der Marvel-Film demnach bereits veröffentlicht wurde, besteht er darauf, dass dies nicht der Fall sei. Denn: Es sei Februar 2022.
Der KI-Chatbot legt noch einen oben drauf ...
Da wir aber wissen, dass der Bing-Chatbot im Gegensatz zu seinem Bruder ChatGPT auf Webseiten und topaktuelle Informationen zugreifen kann, lassen wir nicht locker.
Der KI-Chatbot hat tatsächlich die von uns als «Datums-Beweise» angegebenen Websites aufgerufen und überprüft und behauptet, es handle sich um falsche Angaben.
Tatsächlich scheint dieses Fehlverhalten System zu haben. Der deutsche «Spiegel »schildert die haarsträubenden Erlebnisse des US-Journalisten Harry McCracken (Fast Company). Er sei in einen regelrechten Streit mit Bing geraten, dabei ging es um die Geschichte seiner Highschool.
Bing habe sich auf den Wikipedia-Eintrag zu der Schule berufen und auf eine Änderung, die in diesem Eintrag vorgenommen worden sei, laut Bing am 14. Februar.
Wie jeder Mensch überprüfen kann, gab es an diesem Tag aber gar keine Änderung des Eintrags. Auf McCrackens entsprechenden Hinweis hin zeigte sich der Chatbot allerdings nicht einsichtig, sondern ging zum Angriff über:
Ich hatte ja schon in meinem Review zu ChatGPT gewarnt, dass es sich um eine faszinierende und gleichzeitig gefährlich fehleranfällige neue Technologie handelt.
Und sie befindet sich im Beta-Status respektive in der öffentlichen Testphase. Die Entwickler warnen hinlänglich, dass es zu Fehlern und Missverständnissen kommen könne.
Warum es Microsoft noch immer nicht geschafft hat, seinem Bing-Chatbot das korrekte Datum beizubringen, ist nicht bekannt. Die vermeintlichen «Gefühlswallungen» lassen sich zumindest ansatzweise erklären, hält der «Spiegel» fest.
Hinzu komme, dass Microsoft «Konversationsregeln» für seinen Chatbot festgelegt habe, die dazu führen könnten, dass er nicht immer nur nachgiebig erscheint.
Diese Regeln sollten eigentlich nur im Hintergrund laufen und nicht öffentlich einsehbar sein. Doch ein findiger Tester namens Kevin Liu fand einen «Prompt» (eine Texteingabe) heraus, mit der die Bing-KI ihre Regeln offenlegte. Das wurde aber von Microsoft mittlerweile gepatcht.
Halten wir also fest, dass die schlauen Menschen bei Microsoft das ganze KI-System im Hintergrund ständig überarbeiten, nicht zuletzt auf der Basis des User-Feedbacks.
Und da gibt es noch sehr viel zu tun.