Elon Musks KI-Chatbot Grok bekommt Zügel angelegt, da er anfangs schockierende Bilder von Politikern oder Prominenten generieren liess. So war es am Freitag plötzlich nicht mehr möglich, mit Grok per Text-Befehl Bilder zu erzeugen, die Personen beim Drogenkonsum oder Umgang mit Waffen zeigen.
Bis dahin schien es kaum inhaltliche Einschränkungen zu geben. Andere Angebote zur Bilderzeugung aus Text-Vorgaben wie Dall-E vom ChatGPT-Erfinder OpenAI oder Googles Imagen haben Leitplanken, die so etwas verhindern sollen.
Musk hingegen ist bekannt für seine Abneigung für Einschränkungen, die er als Zensur bezeichnet. Die Leute sollten mit der Software «ein bisschen Spass» haben können, schrieb er am Donnerstag.
Für weitere Kommentare war xAI nicht zu erreichen.
Die eigentliche Technologie, mit der die Bilder generiert werden, stammt nicht von xAI, sondern vom deutschen Start-up Black Forrest Labs. Musks Firma greift auf dessen KI-Modell FLUX.1 zurück. Eine eigene Software zur Bilderzeugung werde entwickelt und brauche noch einige Monate, schrieb Musk.
Die bei Grok erzeugten Bilder haben manchmal fotorealistische Qualität, sind dann aber auch oft übertrieben wie Karikaturen. Insbesondere vor der Präsidentenwahl in den USA im November ist die Angst vor KI-Fälschungen gross, die öffentliche Meinung beeinflussen könnten. Viele Programme vermeiden es daher, Bilder mit realen Personen zu generieren.
Das Gleiche gilt für urheberrechtlich geschützte Figuren wie etwa Disneys Micky Maus, deren Auftauchen in von KI erzeugten Bildern Anwälte auf den Plan rufen kann. Ausserdem könnte dies die Skepsis grosser Werbekunden gegenüber der Plattform noch verstärken. Viele von ihnen fürchten bereits um den Ruf ihrer Marken und zogen Anzeigen von X ab.
Musk verklagte jüngst deswegen mehrere Unternehmen und eine Organisation der Branche. Er wirft ihnen eine koordinierte Aktion vor, um Anzeigendollar von seiner Plattform fernzuhalten.
(dsc/sda/awp/dpa)
Die grösste Ironie dahinter ist, dass es noch nicht all zulange her ist, als Musk vor KI gewarnt hat. Dass man KI Schranken verpassen müsste und dass sie unkontrolliert zu gefährlich wäre.
Jetzt hat er genau dies selbst implementieren lassen. Ich kann mir auch vorstellen, dass diese "Einschränkung" nur eingebaut wurde, weil es nicht lange gedauert hat, dass KI-Bilder von ihm erstellt worden sind.