International
Technologie

ChatGPT cache un sombre secret

Bildschirmarbeiter in Nairobi.
A Nairobi, des employés se sont livrés à des «étiquetages de données» traumatisants pour améliorer l'IA ChatGPT.Shutterstock/sama.com (montage watson)

ChatGPT cache un sombre secret

OpenAi a engagé des employés pour moins de 2 dollars de l'heure pour programmer l'intelligence artificielle ChatGPT. Des travailleurs contractuels qui ont aidé à rendre l'IA plus sûre. Mais à quel prix pour ceux-ci?
23.01.2023, 06:2123.01.2023, 06:52
Daniel Schurter
Daniel Schurter
Daniel Schurter
Suivez-moi
Plus de «International»

OpenAI, l'entreprise américaine derrière l'intelligence artificielle (IA) ChatGPT, a payé des travailleurs kenyans moins de 2 dollars de l'heure pour filtrer les contenus choquants hors de l'algorithme de l'IA. C'est ce que révèle une enquête publiée mercredi par le célèbre magazine d'information Time.

Malgré leur rôle essentiel dans la construction du chatbot de l'IA, ces informaticiens auraient été confrontés à des conditions éreintantes et à de faibles salaires et certains d'entre eux auraient fini traumatisés.

Filtrer les contenus choquants

Ces employés ont en effet été utilisés pour «étiqueter des données». Cela signifie qu'ils devaient filtrer des dizaines de milliers de lignes de texte pour évacuer les éléments trop choquants afin de rendre l'IA assez sûre pour une utilisation publique. Parmi les descriptions qu'ils ont dû traiter, des descriptions:

  • d'abus sexuels commis sur des enfants
  • de zoophilie
  • d'inceste
  • de meurtres
  • de suicides
  • de torture
  • d'automutilations

Cette problématique n'est pas sans rappeler les conditions de travail douteuses des modérateurs de contenus travaillant pour le compte de grandes plateformes de médias sociaux, tel que Facebook.

Traiter du texte produit par des humains: oupsi.

Depuis le lancement de sa phase de test publique en novembre 2022, un véritable engouement s'est créé autour des capacités linguistiques de ChatGPT. Mais l'IA n'a pas toujours été aussi performante, comme le fait remarquer Vice.

Le logiciel précédent, basé sur un modèle linguistique appelé GPT-3, avait tendance à produire des textes à connotation sexiste, violente ou raciste. La raison est bien simple: le modèle a utilisé comme matériau de base des textes extraits de milliards de pages web. Des contenus textuels produits donc par des auteurs humains — et pas toujours les plus bienveillants.

Basée à San Francisco, elle recrute au Kenya et en Inde

Avant de lancer ChatGPT, ses créateurs ont donc cherché une solution pour filtrer rapidement le langage «toxique» de l'énorme ensemble de données.

Pour ce faire, OpenAI s'est associé à Sama, une entreprise de marquage de données. Le marquage de données, c'est quoi? L'action de reconnaître et marquer le contenu «toxique» dans un outil de filtrage pour en écarter les données que l'IA pourra ensuite utiliser.

Sama, basée à San Francisco, emploie pourtant des employés dans des pays en développement. Elle leur promet un «travail numérique éthique» et «digne». L'entreprise a notamment recruté au Kenya, en Ouganda et en Inde pour des clients de la Silicon Valley comme Google, Meta ou Microsoft.

OpenAi se défend

Un porte-parole de l'entreprise a expliqué:

«Notre mission est de veiller à ce que tout un chacun puisse bénéficier de l'intelligence artificielle. Nous travaillons dur pour développer des systèmes d'IA sûrs et utiles, qui limitent les préjugés et les contenus nuisibles»

Il continue:

«La catégorisation et le filtrage des textes et des images est une étape nécessaire pour minimiser les contenus violents et sexuels présents dans les données du programme et pour créer des outils capables de détecter les contenus malsains»

Il était également précisé que les employés avaient droit à des séances individuelles et de groupe avec des «thérapeutes en santé mentale formés de manière professionnelle et agréés».

Etrangement, Sama a pourtant résilié son contrat avec OpenAI en février 2022, huit mois avant la date inscrite sur le contrat.

Situation difficile avec Meta

Le même mois, le magazine Time a publié un article critique sur le travail de Sama avec Meta. En cause: des modérateurs de contenu de l'entreprise de Mark Zuckerberg ont été traumatisés après avoir visionné à répétition des images et des vidéos d'exécutions, de viols et d'abus d'enfants pour 1,50 dollar de l'heure.

Time ignore si OpenAI a coopéré avec d'autres entreprises d'étiquetage de données. La société américaine reste discrète à ce sujet.

En décembre dernier, le média en ligne Motherboard, appartenant au groupe de médias Vice, avait déjà révélé que les avancées en matière d'IA, tant saluées, n’avaient été possibles qu’avec l’aide de travailleurs sous-payés à l'étranger.

Un travail humain important et nécessaire

Malgré l'opinion très répandue selon laquelle un logiciel d'IA tel que ChatGPT fonctionne de lui-même de manière quasi magique, un travail humain très important est nécessaire pour empêcher l'IA de générer des contenus inappropriés ou illégaux.

Les logiciels d'IA représentent un marché de plusieurs milliards de dollars et pourraient bouleverser des secteurs entiers de l'économie. Comme on pouvait s'y attendre, les entreprises du monde entier se livrent à une course aux technologies les plus performantes.

L'externalisation du travail routinier et potentiellement traumatisant profite aux grands groupes technologiques à bien des égards, constate Vice: les entreprises «peuvent économiser beaucoup d'argent en utilisant une main-d'œuvre bon marché, en évitant une jurisprudence stricte sur les conditions de travail et en créant une distance entre leurs outils "innovants" et les travailleurs derrière».

Microsoft investit

Le magazine Time constate:

«L'IA, malgré tout son charme, dépend très souvent d'un travail caché d'exploitation humaine. Des travailleurs invisibles restent en marge, même si leurs efforts sont indispensables à des industries de plusieurs milliards de dollars.»

Selon les rapports, les dirigeants d'OpenAI sont en train de négocier avec des investisseurs pour lever des fonds à hauteur de 29 milliards de dollars, comprenant un investissement potentiel de 10 milliards de dollars de la part de Microsoft. OpenAI deviendrait ainsi l'une des entreprises d'IA les plus riches du monde. Elle est déjà le leader incontesté sur le marché.

Voici le robot humanoïde le plus réaliste au monde
Video: watson
2 Commentaires
Comme nous voulons continuer à modérer personnellement les débats de commentaires, nous sommes obligés de fermer la fonction de commentaire 72 heures après la publication d’un article. Merci de votre compréhension!
2
Apple va réparer un bug qui énervait certains Juifs
Apple a admis être informé d'un bug signalé par des utilisateurs d'iPhone : lors de la recherche d'un émoji pour un message, saisir «Jérusalem» affiche le drapeau palestinien.

Apple a indiqué être au courant d'un bug informatique sur les iPhone signalé par des utilisateurs: quand ils cherchent un émoji pour illustrer un message, l'entrée «Jérusalem» donne comme résultat le drapeau palestinien.

L’article