KI-Brille doch nicht so sicher? Meta lässt Sex-Videos auswerten – ohne Anonymisierung
Seit Jahren versuchen Tech-Konzerne, den Verbraucherinnen und Verbrauchern smarte Brillen als unverzichtbare Alltagshelfer schmackhaft zu machen – mit mässigem Erfolg. Google scheiterte mit seiner «Google Glass» – die Öffentlichkeit war dem Datenschutz gegenüber skeptisch, das Produkt wurde niemals so attraktiv gestaltet wie etwa ein Smartphone.
Doch nun scheint Konkurrent Meta mit seiner Ray-Ban-Brille einen Nerv getroffen zu haben: Millionen Exemplare wurden weltweit verkauft. Statt nach einem möchtegern-futuristischen Gadget sieht das Produkt vor allem einfach nach einer normalen, stylischen Brille aus.
Sie kann Videos aufzeichnen, Fragen beantworten, auf KI-Funktionen zurückgreifen. Doch eine alte Sorge bleibt: die Privatsphäre. Meta preist die Brillen laut The Decoder unter dem Hinweis an, sie seien «unter Berücksichtigung Ihrer Privatsphäre» entwickelt worden.
Eine Investigativrecherche aus Schweden zeigt aber, dass die Brille mehr aufzeichnet, als Nutzerinnen und Nutzern bewusst sein dürfte, und diese Daten werden dann auch noch ausgewertet.
KI-Brillen: Meta lässt Sex-Videos auswerten
Die schwedischen Zeitungen «Svenska Dagbladet» und «Göteborgs-Posten» haben aufgedeckt, wie Meta mit den Nutzerdaten aus seinen smarten Brillen umgeht. Die Brille, die mit Ray-Ban- oder Oakley-Branding verkauft wird, verarbeitet Sprache, Text, Bilder und Videos automatisch – und diese Daten werden an Server von Meta übermittelt.
Laut der Recherche landen die Aufnahmen bei einer Firma namens Sama in Nairobi, Kenia. Dort arbeiten Angestellte daran, Metas KI-Systeme zu trainieren, indem sie die Inhalte der Videos markieren, beschriften und kategorisieren – darunter auch sehr private Aufnahmen.
«Wir sehen alles – von Wohnzimmern bis zu nackten Körpern. Meta hat diese Art von Inhalten in seinen Datenbanken», berichtet ein Sama-Mitarbeiter gegenüber den schwedischen Journalistinnen und Journalisten. Die Videos zeigen demnach Menschen, die sich umziehen, auf die Toilette gehen oder sogar Sex haben – möglicherweise sogar mit erkennbaren Gesichtern?
Meta: KI-Brillen bringen «sehr dunkle Dinge» hervor
Eigentlich sollten derlei Daten nicht für die KI-Auswertung genutzt werden – und eigentlich sollten zudem Gesichter unkenntlich gemacht werden, wie es in der Recherche unter Bezugnahme auf ehemalige Meta-Mitarbeitende heisst. Auch Bankkarten und Chats über Verbrechen oder Proteste wurden gesichtet, mitunter «sehr dunkle Dinge», wie ein weiterer Beschäftigter laut Svenska Dagbladet sagt.
Doch die Algorithmen machen mitunter Fehler: «Die Algorithmen versagen manchmal. Besonders bei schwierigen Lichtverhältnissen werden bestimmte Gesichter und Körper sichtbar», sagte ein Ex-Mitarbeiter.
Die schwedischen Journalistinnen und Journalisten testeten die Brille selbst und stellten fest, dass sich eine Weitergabe von Daten zwar abschalten liess – dann waren die KI-Funktionen aber nicht mehr nutzbar.
KI-Brillen-Auswertung: Mitarbeiter unterbezahlt
So nachlässig wie die Privatsphäre für Nutzerinnen und Nutzer der KI-Brillen ist, so krass bewacht werden gleichzeitig die Mitarbeitenden in der Datenauswertung in Kenia. Der Recherche zufolge sollen Kameras in den Büros hängen, eigene Handys seien verboten, Geheimhaltungsvereinbarungen schränken die Arbeitenden ein. Wer Fragen stellt, soll seinen Job riskieren.
Die zugehörige Datenauswertungsfirma Sama ist kein unbeschriebenes Blatt. Die Firma hat laut «The Decoder» bereits für OpenAI und Facebook gearbeitet und war in der Content-Moderation tätig. Dabei wurden Arbeitende mit extrem belastenden Inhalten konfrontiert, darunter Darstellungen von Gewalt und Missbrauch.
Eine Recherche der Time deckte auf, dass Sama-Mitarbeiterinnen und -Mitarbeiter in Kenia damals nur 1.32 bis 2 Dollar pro Stunde verdienten. Nach Berichten über Traumatisierung und schlechte Arbeitsbedingungen beendete Sama 2023 die Content-Moderation.
Auch aus Sicht des europäischen Datenschutzes gibt es Probleme: Die Datenschutzgrundverordnung (DSGVO) der EU verpflichtet Unternehmen, Nutzerdaten gemäss europäischen Standards zu behandeln. Die schwedische Datenschutzbehörde IMY betont, dass dieser Schutz auch bei Subunternehmen in Drittländern gewährleistet sein muss.
Meta erklärt derweil, dass Daten global verarbeitet werden, da das Unternehmen weltweit operiert. Für Kenia existiert jedoch kein Angemessenheitsbeschluss der EU. Mit derartigen Beschlüssen stellt die EU fest, dass das Datenschutzrecht in Drittländern mit den europäischen Standards vereinbar ist. Dementsprechend ist die Datenübertragung der Brillen-Videos EU-rechtlich ein Problem.
