DE | FR
Wir verwenden Cookies und Analysetools, um die Nutzerfreundlichkeit der Internetseite zu verbessern und passende Werbung von watson und unseren Werbepartnern anzuzeigen. Weitere Infos findest Du in unserer Datenschutzerklärung.
Der Facebook-Konzern hat ein Problem mit rassistisch voreingenommenen Algorithmen.
Der Facebook-Konzern hat ein Problem mit rassistisch voreingenommenen Algorithmen.
Bild: keystone

Facebooks «Künstliche Intelligenz» hält schwarze Männer für Affen

Der US-Social-Media-Konzern will weitere «sensible Themenkategorien» identifiziert haben und setzt angeblich Top-Manager auf die Problematik an.
07.09.2021, 16:5008.09.2021, 07:34

BBC News hat am Montag einen Fall von rassistischer Voreingenommenheit bei Künstlicher Intelligenz (KI) angeprangert. Mit Folgen für die weltweit grösste Social-Media-Plattform.

Was ist passiert?

Facebook-User, die sich ein journalistisches Video mit dunkelhäutigen Männern ansahen, wurden daraufhin von Facebooks automatischem Empfehlungssystem gefragt, ob sie «weiterhin Videos über Primaten sehen» wollten.

Das US-Unternehmen erklärte auf Anfrage von BBC News, das sei «eindeutig ein inakzeptabler Fehler», deaktivierte das System und leitete eine interne Untersuchung ein.

Die «Primaten»-Empfehlung sei «ein algorithmischer Fehler auf Facebook» gewesen und spiegle nicht den Inhalt des Videos wider, sagte ein Vertreter des Unternehmens.

«Wir haben die gesamte Themen-Empfehlungsfunktion deaktiviert, sobald wir erkannt haben, dass dies passiert, damit wir die Ursache untersuchen und verhindern können, dass dies erneut passiert.»
Facebook-Sprecher
quelle: bbc.com

Es sei der jüngste in einer langjährigen Reihe von Fehlern, die Bedenken hinsichtlich rassistischer Voreingenommenheit in der KI aufkommen liessen, konstatiert die BBC.

Im Jahr 2015 bezeichnete die automatische Bildauswertung von Google Fotos abgebildete Schwarze als «Gorillas». Das Unternehmen zeigte sich «entsetzt» und versprach Besserung. Allerdings bestand die Lösung laut «Wired»-Bericht darin, Fotosuchen für das Wort «Gorilla» einzuschränken.

2020 kündigte der Facebook-Konzern die Einsetzung eines internen Teams an, das bei Facebook und Instagram unter anderem untersuchen würde, ob seine Algorithmen rassistische Voreingenommenheit aufweisen.

Update 8. September: In einer Stellungnahme von Facebooks Vizepräsident Tom AlisonFacebook heisst es, man untersuche weiterhin den Vorfall und es seien andere «sensible Themenkategorien» identifiziert worden. Facebook setze «Top-Manager auf das Thema an», twitterte der US-Journalist Ryan Mac. Darunter seien Roy Austin, der beim Social-Media-Konzern im Januar zum Leiter der Abteilung für Bürgerrechte ernannt wurde, sowie Jerome Pesenti, Vizepräsident für KI.

Quellen

(dsc)

DANKE FÜR DIE ♥
Würdest du gerne watson und Journalismus unterstützen? Mehr erfahren
(Du wirst umgeleitet um die Zahlung abzuschliessen)
5 CHF
15 CHF
25 CHF
Anderer
Oder unterstütze uns per Banküberweisung.

«Hate Speech» bei Facebook – was toleriert wird, und was nicht

1 / 27
«Hate Speech» bei Facebook – was toleriert wird, und was nicht
quelle: epa/epa / koca sulejmanovic
Auf Facebook teilenAuf Twitter teilenWhatsapp sharer

Welcher dieser 12 Facebook-Kommentier-Typen bist du?

Das könnte dich auch noch interessieren:

Abonniere unseren Newsletter

Nach Facebook-Hetze gegen Merkel: 40-jähriger Corona-Schwurbler verurteilt

Der gelernte Gärtner war Mitglied einer geschlossenen, etwa 5000 Mitglieder umfassenden Facebook-Gruppe, in der auch zu Gewalt gegen «Asylanten und Migranten» aufgerufen wurde.

Ein Berliner Facebook-Nutzer ist nach Hetze gegen die deutsche Kanzlerin Angela Merkel zu acht Monaten Haft auf Bewährung verurteilt worden.

Der 40-Jährige habe sich der öffentlichen Aufforderung zu Straftaten, der Störung des öffentlichen Friedens durch Androhung von Straftaten sowie der Volksverhetzung schuldig gemacht, begründete das Amtsgericht Berlin-Tiergarten am Donnerstag. Der Angeklagte hatte zuvor gestanden und erklärt, er habe sich «übelst über die Corona-Massnahmen …

Artikel lesen
Link zum Artikel