BBC News hat am Montag einen Fall von rassistischer Voreingenommenheit bei Künstlicher Intelligenz (KI) angeprangert. Mit Folgen für die weltweit grösste Social-Media-Plattform.
Was ist passiert?
Facebook-User, die sich ein journalistisches Video mit dunkelhäutigen Männern ansahen, wurden daraufhin von Facebooks automatischem Empfehlungssystem gefragt, ob sie «weiterhin Videos über Primaten sehen» wollten.
Das US-Unternehmen erklärte auf Anfrage von BBC News, das sei «eindeutig ein inakzeptabler Fehler», deaktivierte das System und leitete eine interne Untersuchung ein.
Die «Primaten»-Empfehlung sei «ein algorithmischer Fehler auf Facebook» gewesen und spiegle nicht den Inhalt des Videos wider, sagte ein Vertreter des Unternehmens.
Es sei der jüngste in einer langjährigen Reihe von Fehlern, die Bedenken hinsichtlich rassistischer Voreingenommenheit in der KI aufkommen liessen, konstatiert die BBC.
Im Jahr 2015 bezeichnete die automatische Bildauswertung von Google Fotos abgebildete Schwarze als «Gorillas». Das Unternehmen zeigte sich «entsetzt» und versprach Besserung. Allerdings bestand die Lösung laut «Wired»-Bericht darin, Fotosuchen für das Wort «Gorilla» einzuschränken.
2020 kündigte der Facebook-Konzern die Einsetzung eines internen Teams an, das bei Facebook und Instagram unter anderem untersuchen würde, ob seine Algorithmen rassistische Voreingenommenheit aufweisen.
Update 8. September: In einer Stellungnahme von Facebooks Vizepräsident Tom AlisonFacebook heisst es, man untersuche weiterhin den Vorfall und es seien andere «sensible Themenkategorien» identifiziert worden. Facebook setze «Top-Manager auf das Thema an», twitterte der US-Journalist Ryan Mac. Darunter seien Roy Austin, der beim Social-Media-Konzern im Januar zum Leiter der Abteilung für Bürgerrechte ernannt wurde, sowie Jerome Pesenti, Vizepräsident für KI.
Just got a statement from Facebook VP Tom Alison about our story from last week on how the platform labeled a video of black men as related to “primates.” FB is:
— Ryan Mac 🙃 (@RMac18) September 8, 2021
1) continuing to investigate
2) disabled other topic rec features
3) identifying other “sensitive topical categories” pic.twitter.com/bIuQKlrntm
(dsc)
Trump könnte durch die KI mit einer Orange verwechseln. Das macht die KI aber nicht zum Biden-Wähler.
Ich wittere hier aber einen anderen, viel grösseren Skandal.
Wer leugnet dass Menschen zu den Primaten gehören, ist nichts weiter als ein übler SPEZIESIST!!¨!
😄