Wissen
Digital

KI verfälscht Online-Forschung mit Fake-Umfragen

Künstliche Intelligenz (Symbolbild)
Wenn KI-Systeme statt Menschen Fragebögen ausfüllen ... Bild: Shutterstock

KI verfälscht Online-Forschung mit Fake-Umfragen

Künstliche Intelligenz ist zunehmend in der Lage, menschliches Verhalten zu simulieren – etwa Online-Fragebögen wie ein Mensch auszufüllen. Dies gefährdet die Zuverlässigkeit von umfragebasierter Forschung.
24.02.2026, 19:3925.02.2026, 06:46

Online-Umfragen sind seit Jahren ein Eckpfeiler der modernen sozialwissenschaftlichen Forschung. Sie werden genutzt, um das Verhalten und die Überzeugungen grosser Gruppen von Menschen zu erfassen. Sie spielen daher eine wichtige Rolle bei Meinungsumfragen und der Politikgestaltung. Plattformen wie Amazon Mechanical Turk, Prolific und Lucid ermöglichen es Forschern seit Langem, Daten schnell und kostengünstig zu sammeln.

Laut einer in Nature erschienenen Studie eines Forschungsteams der IMT School for Advanced Studies Lucca und der University of Cambridge sind genau diese Systeme nun anfällig für weitreichende Manipulationen durch künstliche Intelligenz.

Frühere Studien hatten bereits ergeben, dass zwischen 30 und 90 Prozent der Antworten bei solchen sozialwissenschaftlichen Umfragen nicht authentisch oder sogar betrügerisch sein könnten. Selbst der niedrigere Prozentsatz liegt über dem, was mit statistischen Korrekturen aufgefangen werden kann.

«Alle Daten potenziell verfälscht»

Co-Studienautor Folco Panizza erklärt in einer Mitteilung der IMT School, dass es sich um ein grundlegendes Problem handle, da alle Daten potenziell verfälscht seien und selbst ein geringfügiges Mass an Verfälschung statistische Analysen untergraben könne – insbesondere wenn geringe Auswirkungen gemessen werden sollen.

«Das Problem ist, dass die bisher verwendeten Tools zur Unterscheidung zwischen Menschen und Nicht-Menschen nicht mehr wirksam sind. Wir können nicht sagen, ob der Befragte eine Person ist oder nicht.»
Folco Panizza

Digitales Katz-und-Maus-Spiel

Seit Jahren versuchen Wissenschaftler, die automatisierte Teilnahme an Online-Umfragen zu verhindern, etwa durch Kontrollfragen oder technische Barrieren wie das bekannte Captcha (completely automated public Turing test to tell computers and humans apart, deutsch: vollautomatischer öffentlicher Turing-Test zur Unterscheidung von Computern und Menschen).

Leider gelingt es modernen KI-Systemen immer besser, auch solche Kontrollen zu umgehen. Daraus hat sich ein digitales Katz-und-Maus-Spiel entwickelt: Forscher erfinden eine neue Erkennungsmethode, die KI lernt daraus und passt sich an. Das Problem verschlimmert sich dadurch tendenziell, denn die KI-Systeme lernen aus den Versuchen, sie zu entlarven.

Menschliche Denkfehler nutzen

Hilfreich könnte da der Ansatz sein, die Logik der Bot-Erkennung umzukehren: Anstatt nach Schwächen der KI zu suchen, könnten Forscher Aufgaben entwickeln, die sich die Grenzen des menschlichen Denkens zunutze machen. Menschen machen nämlich systematische Denkfehler, argumentieren nicht immer konsistent und lassen sich vom Kontext beeinflussen.

Sprachmodelle (LLMs) sind auf Korrektheit und Kohärenz ausgerichtet, während menschliche Antworten oft chaotisch und mitunter sogar widersprüchlich sind. Es könnte daher schwieriger sein, ein KI-System dazu zu bringen, absichtlich auf menschliche Art zu versagen, als dass es richtige Antworten gibt.

«Maschinen sind sehr gut darin, das Verhalten von Menschen nachzuahmen, aber sie sind viel weniger gut darin, die Fehler nachzuahmen, die Menschen machen.»
Folco Panizza

Paradaten auswerten

Daneben könnten auch die sogenannten Paradaten herangezogen werden, um Mensch und Maschine zu unterscheiden. Dies sind Daten über den Ausfüllprozess selbst, zum Beispiel wie viel Zeit jemand für eine Frage benötigt, wie schnell er tippt und wie er kopiert und einfügt. Ein Computer, der schliesslich nicht zwei Minuten lang über eine Frage nachdenken würde, liesse sich dadurch erkennen.

Wiederum ein anderer Ansatz könnte darin bestehen, den Einsendungen Wahrscheinlichkeitswerte zuzuweisen. Dabei wird jede Antwort mit bekannten Mustern in menschlichen und von KI generierten Antworten verglichen. Auf dieser Grundlage erhält eine Einsendung eine Punktzahl, die angibt, wie wahrscheinlich es ist, dass sie von einer echten Person stammt. Anstatt Antworten einfach zu löschen, können Forscher dann mit gewichteten Daten arbeiten.

Nicht nur die Sozialwissenschaften sind von den Auswirkungen von Computersystemen, die Umfragen beeinflussen, betroffen. Online-Umfragen werden auch verwendet, um die öffentliche Meinung zu messen und politische Entscheidungen zu rechtfertigen. Wenn diese Daten in erheblichem Umfang durch KI-Systeme beeinflusst werden, kann dies Auswirkungen darauf haben, wie gesellschaftliche Trends interpretiert und Entscheidungen getroffen werden.

(dhr)

Jugendliche verschickten KI-Deepnudes von Mitschülerinnen

Video: watson/sabethvela
DANKE FÜR DIE ♥
Würdest du gerne watson und unseren Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet, um die Zahlung abzuschliessen.)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.
Warum der KI-Boom böse enden könnte
1 / 9
Warum der KI-Boom böse enden könnte

Er gehört zu den Hauptverantwortlichen für den aktuellen KI-Boom: OpenAI-Chef Sam Altman. Doch die immensen KI-Investitionen der Techkonzerne bergen gewaltige Risiken. Es häufen sich Anzeichen, dass Erwartungen und Realität auseinanderdriften.

quelle: keystone / mark schiefelbein
Auf Facebook teilenAuf X teilen
KI-Künstlerin mit Millionen Streams
Video: watson
Das könnte dich auch noch interessieren:
Du hast uns was zu sagen?
Hast du einen relevanten Input oder hast du einen Fehler entdeckt? Du kannst uns dein Anliegen gerne via Formular übermitteln.
23 Kommentare
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
Die beliebtesten Kommentare
avatar
La Sendvičovač
24.02.2026 21:13registriert Juli 2020
Und mein Kollege liess sich letztens ein paar Captcha-Varianten von der KI entwickeln. Fängt ja gut an; wir trainieren die KI mit Sachen, die sie nicht tun soll 😂
262
Melden
Zum Kommentar
avatar
Garp
24.02.2026 19:43registriert August 2018
Man muss Umfragen dann wieder per Post verschicken.
234
Melden
Zum Kommentar
avatar
Jack Bones (1)
25.02.2026 00:47registriert Juli 2022
Das gute ist, dass praktisch alle Socialmedia Plattformen regelrecht mit AI Slop überflutet werden. Nur eine Frage der Zeit bis sich Menschen von Socialmedia abwenden.
212
Melden
Zum Kommentar
23
Scientology-Run geht auf Tiktok viral: Was steckt dahinter?
Diese Tiktok-Challenge aus den USA polarisiert: Junge Creator stürmen durch die Gebäude der Scientology-Kirche in Los Angeles. Was es mit dem Trend auf sich hat und ob sich die Teilnehmenden damit strafbar machen, liest du hier.
«Currently mastering free will» – der Versuch, die komplette Ausnutzung des freien Willens zu perfektionieren: Das steht in der Profilbeschreibung des Tiktokers Jayden («swhilley»), dessen Video über seinen «Scientology Run» bereits über 35 Millionen Aufrufe erhalten hat.
Zur Story