Hinter dieser Maga-Influencerin steckt ein Medizinstudent aus Indien
Sie posiert im Bikini beim Eisfischen, schiesst mit Waffen, trinkt Bier und verbreitet knallharte konservative Parolen. Millionen klicken, liken, folgen. Für viele ist «Emily Hart» die perfekte Mischung aus Patriotismus und Sex-Appeal.
Doch Emily existiert eigentlich gar nicht.
Hinter dem viralen Account steckt laut einem Bericht von «Wired» ein 22-jähriger Medizinstudent aus Indien. Mit den KI-generierten Bildern hat er ein kleines Online-Imperium grösstenteils auf Instagram und Facebook aufgebaut – und will damit tausende Dollar im Monat verdient haben.
Idee kam von der KI
Die Idee entstand offenbar aus Geldnot. Während seines Studiums suchte der angehende Orthopäde nach Wegen, schnell Geld zu verdienen. Klassische Versuche wie YouTube oder der Verkauf von Lernmaterial scheiterten. Erst als er begann, mit Hilfe von Google Gemini Inhalte zu entwickeln, kam der Durchbruch.
Die KI soll ihm geraten haben, gezielt eine Figur für ein konservatives US-Publikum zu erschaffen – eine Zielgruppe, die als besonders loyal und zahlungskräftig gilt.
So entstand «Emily Hart», eine junge, attraktive Frau, optisch angelehnt an Stars wie Jennifer Lawrence und Sydney Sweeney. In ihrer inszenierten Online-Persona ist sie Krankenschwester, liebt die Bibel, Waffen, Bier – und vor allem klare politische Botschaften. Ihre Posts sind bewusst provokant formuliert, oft radikal konservativ, religiös aufgeladen und anti-liberal. Genau das brachte Reichweite.
Innerhalb eines Monats sammelte der Account zehntausende Followerinnen und Follower, einzelne Videos erreichten Millionen Aufrufe. Der Student perfektionierte das System: tägliche Beiträge mit kalkulierter Empörung, sogenanntes «Rage Bait», das sowohl Zustimmung als auch Widerspruch provoziert – und damit den Algorithmus füttert.
Profite mit KI «absurd einfach»
Das Ganze wurde schnell monetarisiert. Neben Merchandise verkaufte der Student auch exklusive Inhalte über die Plattform Fanvue, die – anders als viele Konkurrenten – KI-generierte Inhalte erlaubt. Dort zahlten User für freizügige Bilder und direkten Kontakt mit der vermeintlichen Influencerin.
Der Betreiber selbst beschreibt das Geschäftsmodell gegenüber Wired rückblickend als absurd einfach: Weniger als eine Stunde Arbeit pro Tag, dafür Einnahmen, die er mit einem normalen Job in seiner Heimat nicht erreichen könnte.
Laut seinen eigenen Aussagen hält er die Zielgruppe, die ihn reich gemacht hat, für «extrem dumm». Gleichzeitig räumt er ein, dass ein vergleichbares Experiment mit einer liberalen Figur komplett gescheitert sei – das Publikum habe die künstliche Natur der Inhalte schneller erkannt und weniger interagiert.
Expertinnen und Experten sehen darin keinen Einzelfall. Valerie Wirtschafter vom Brookings Institution warnt laut der New York Post, dass KI solche Täuschungen immer überzeugender gestalte. Gerade politisch aufgeladene Inhalte in Kombination mit attraktiven Figuren könnten gezielt Aufmerksamkeit erzeugen und User manipulieren.
Er sieht sich nicht als Betrüger
Lange blieb der Account offenbar unbehelligt, auch weil Plattformen wie Instagram ihre eigenen Regeln zur Kennzeichnung von KI-Inhalten nicht konsequent durchsetzten.
Erst im Februar wurde das Profil wegen betrügerischer Aktivitäten gelöscht. Auch andere Fake-Accounts, etwa ein angeblicher Soldaten-Influencer mit Nähe zu Donald Trump, zeigen, wie verbreitet das Phänomen inzwischen ist.
Der Student selbst sieht sich dennoch nicht als Betrüger. Er habe niemanden direkt geschädigt, sagt er. Inzwischen will er sich wieder auf sein Medizinstudium konzentrieren.
