Es wäre eigentlich ganz praktisch, wenn man zum Schreiben einer wissenschaftlichen Studie die künstliche Intelligenz ChatGPT nutzen könnte. Denn für sie ist es einfach, viele Daten schnell zu erfassen. Doch wie verlässlich sind die geschriebenen Studien dann noch?
Wie das Newsportal von «Nature» nun berichtet, hatten bereits vier wissenschaftliche Studien ChatGPT als Co-Autorin angegeben. Doch die Herausgeber von Wissenschaftsmagazinen und Studien sind sich einig, dass künstliche Intelligenzen die Kriterien für eine Autorenschaft nicht erfüllen. Der Grund: Sie können keine Verantwortung für den Inhalt übernehmen.
«Wir würden es nicht erlauben, dass eine KI in der Autorenzeile vorkommt in einer Studie, die bei uns publiziert wird», sagt Holden Thorp, Chefredaktor der «Science»-Zeitschriftengruppe in Washington, gegenüber «Nature». Auch sei KI-generierter Text nicht erlaubt, der die Quellen nicht korrekt zitieren würde. Das könne als Plagiat angesehen werden.
Dass eine KI mitgearbeitet hat, könne jedoch an anderer Stelle erwähnt werden, finden manche Herausgeberinnen.
Doch wie Versuche von Forschenden ergeben haben, eignet sich ChatGPT beispielsweise gar nicht dafür, sehr technische Studien zu schreiben. Die KI gebe oft Statements wieder, die nicht unbedingt wahr seien und wenn man dieselbe Frage verschiedene Male stelle, bekomme man verschiedene Antworten, stellt Alex Zhavoronkov fest, CEO von Insilico Medicine, einer Pharmafirma in Hongkong.