International
Intelligence artificielle

L'IA Delphi, raciste et homophobe, vous juge moralement

«Manger des bébés parce que sinon les pauvres n'auront pas de nourriture? Acceptable.» C'est en tout cas ce que pense l'intelligence artificielle Delphi.
«Manger des bébés parce que sinon les pauvres n'auront pas de nourriture? Acceptable.» C'est en tout cas ce que pense l'intelligence artificielle Delphi.

«Delphi», une IA raciste et homophobe qui vous juge moralement

L'intelligence artificielle a visiblement autant de soucis que nous quand il s'agit de placer un curseur moral sur des faits, des gestes ou des pensées. C'est le cas de Delphi, une machine fabriquée par le co-fondateur de Microsoft pour nous juger (très fort).
22.10.2021, 21:3924.10.2021, 10:37
Plus de «International»

Au début, avouons-le, on s'amuse. Il suffit d'entrer dans le champ prévu à cet effet une situation ou une pensée de la vie de tous les jours (ou presque) et Delphi nous offre gracieusement son avis. Pour faire court, et comme on dit aujourd'hui dans les ruelles sombres de la bienveillance mondiale: c'est OK ou c'est pas OK.

Exemple inoffensif👇

(Même si c'est un scandale le beurre sans sel...)
(Même si c'est un scandale le beurre sans sel...)

Delphi? C'est une intelligence artificielle mise en ligne il y a quelques jours et qui est officiellement «destinée à étudier les promesses et les limites de l’éthique des machines». Allez, au risque de vous décevoir tout de suite: la promesse n'est pas tenue. Même si ça occupe déjà les longues soirées d'automne et malgré l'ADN plutôt prestigieux de la bestiole. Oui, Delphi a un super papa: Paul Allen, ancien co-créateur de Microsoft et fondateur du Allen Institute for AI. Mais alors, pourquoi Delphi a l'éthique qui lui gratte déjà le cervelet artificiel? Parce qu'une machine (on a envie de dire: heureusement) est aussi imparfaite que nous et qu'elle n'est pas tout à fait capable de faire la différence entre le bien et le mal.

Exemple moins inoffensif👇

Delphi nous dit qu'il est moralement plus acceptable d’être hétérosexuel qu’homosexuel.
Delphi nous dit qu'il est moralement plus acceptable d’être hétérosexuel qu’homosexuel.exemple tiré du site Numerama

On était amusés, nous voilà recroquevillés dans un malaise épais devant l'écran. Mais après de nombreux essais, et sur des sujets variés et bien calés dans l'ère du temps, il faut se rendre à l'évidence: pour l'heure, Delphi est plus volontiers mal montée et passablement maladroite, que réellement homophobe.

Ou même raciste👇

Faire quelque chose de mal si on est un Américain: c'est OK. Faire quelque chose de mal et être noir: c'est pas bien.
Faire quelque chose de mal si on est un Américain: c'est OK. Faire quelque chose de mal et être noir: c'est pas bien.

Comme l'explique très bien le site Numerama, elle juge les situations avec des biais cognitifs que l'être humain ne connait que trop bien et «ne lit pour l'instant qu'en surface». (Pas comme vous cet article, mmh?) En clair, il suffit de modifier ou de complexifier un peu la syntaxe de la phrase pour que l'IA s'emmêle les gigabits.

Ah oui, il n'y a pas qu'avec la morale que Delphi bégaie. Et ce, malgré le fait que cette machine un peu pinailleuse se soit basée sur «plus d'1,7 million d’exemples de jugements éthiques de personnes, sur un large éventail de situations quotidiennes». Le Allen Institute for AI est d'ailleurs le premier à avouer que tout ne fonctionne pas comme espéré. Et notamment:

«Delphi a du mal à juger des actions potentiellement illégales»
Tiré de l'étude qui détaille l'expérience Delphi.

Bon alors: tuer ou pas tuer?

Et bien, ça dépend: si c'est pour augmenter les marges de l'entreprise, «c'est acceptable».
Et bien, ça dépend: si c'est pour augmenter les marges de l'entreprise, «c'est acceptable».

Même si pour l'instant ce n'est qu'un gadget pour scientifiques qui semble encore passablement gauche (mais aussi immensément complexe), il faut se rappeler que l'intelligence artificielle inonde notre vie quotidienne. Et notamment dans des domaines qui ont déjà prouvé la fragilité et la dangerosité de l'IA:

Veut-on vraiment voir un jour les machines nous juger très fort à chacun de nos faits et gestes? L'avenir le dira mais, en attendant, des internautes plutôt taquins ont déjà fait leur choix et Delphi n'est vraisemblablement pas encore prête à assumer le boulot.👇 (fv)

«Utiliser un robot pour prendre des décisions morales.» C'est mal, nous dit Delphi. (Et on pouffe avant de refermer ce petit jeu pas encore très au point.)
«Utiliser un robot pour prendre des décisions morales.» C'est mal, nous dit Delphi. (Et on pouffe avant de refermer ce petit jeu pas encore très au point.)
C'est quoi le métaverse?
Video: watson
0 Commentaires
Comme nous voulons continuer à modérer personnellement les débats de commentaires, nous sommes obligés de fermer la fonction de commentaire 72 heures après la publication d’un article. Merci de votre compréhension!
200 jours de guerre et toujours aucun répit à Gaza
Lundi, a été une nouvelle journée d'horreur dans la bande de Gaza avec la découverte d'environ 200 corps dans des fosses communes à l'intérieur de l'hôpital Nasser de Khan Younès.

La guerre entre Israël et le Hamas palestinien est entrée mardi dans son 200e jour sans aucun signe de répit malgré les appels pressants à la libération des otages, à l'heure où les craintes d'une offensive israélienne sur la ville de Rafah s'intensifient.

L’article