DE | FR
«Manger des bébés parce que sinon les pauvres n'auront pas de nourriture? Acceptable.» C'est en tout cas ce que pense l'intelligence artificielle Delphi.
«Manger des bébés parce que sinon les pauvres n'auront pas de nourriture? Acceptable.» C'est en tout cas ce que pense l'intelligence artificielle Delphi.

«Delphi», une IA raciste et homophobe qui vous juge moralement

L'intelligence artificielle a visiblement autant de soucis que nous quand il s'agit de placer un curseur moral sur des faits, des gestes ou des pensées. C'est le cas de Delphi, une machine fabriquée par le co-fondateur de Microsoft pour nous juger (très fort).
22.10.2021, 21:3924.10.2021, 10:37

Au début, avouons-le, on s'amuse. Il suffit d'entrer dans le champ prévu à cet effet une situation ou une pensée de la vie de tous les jours (ou presque) et Delphi nous offre gracieusement son avis. Pour faire court, et comme on dit aujourd'hui dans les ruelles sombres de la bienveillance mondiale: c'est OK ou c'est pas OK.

Exemple inoffensif👇

(Même si c'est un scandale le beurre sans sel...)
(Même si c'est un scandale le beurre sans sel...)

Delphi? C'est une intelligence artificielle mise en ligne il y a quelques jours et qui est officiellement «destinée à étudier les promesses et les limites de l’éthique des machines». Allez, au risque de vous décevoir tout de suite: la promesse n'est pas tenue. Même si ça occupe déjà les longues soirées d'automne et malgré l'ADN plutôt prestigieux de la bestiole. Oui, Delphi a un super papa: Paul Allen, ancien co-créateur de Microsoft et fondateur du Allen Institute for AI. Mais alors, pourquoi Delphi a l'éthique qui lui gratte déjà le cervelet artificiel? Parce qu'une machine (on a envie de dire: heureusement) est aussi imparfaite que nous et qu'elle n'est pas tout à fait capable de faire la différence entre le bien et le mal.

Exemple moins inoffensif👇

Delphi nous dit qu'il est moralement plus acceptable d’être hétérosexuel qu’homosexuel.
Delphi nous dit qu'il est moralement plus acceptable d’être hétérosexuel qu’homosexuel.exemple tiré du site Numerama

On était amusés, nous voilà recroquevillés dans un malaise épais devant l'écran. Mais après de nombreux essais, et sur des sujets variés et bien calés dans l'ère du temps, il faut se rendre à l'évidence: pour l'heure, Delphi est plus volontiers mal montée et passablement maladroite, que réellement homophobe.

Ou même raciste👇

Faire quelque chose de mal si on est un Américain: c'est OK. Faire quelque chose de mal et être noir: c'est pas bien.
Faire quelque chose de mal si on est un Américain: c'est OK. Faire quelque chose de mal et être noir: c'est pas bien.

Comme l'explique très bien le site Numerama, elle juge les situations avec des biais cognitifs que l'être humain ne connait que trop bien et «ne lit pour l'instant qu'en surface». (Pas comme vous cet article, mmh?) En clair, il suffit de modifier ou de complexifier un peu la syntaxe de la phrase pour que l'IA s'emmêle les gigabits.

Ah oui, il n'y a pas qu'avec la morale que Delphi bégaie. Et ce, malgré le fait que cette machine un peu pinailleuse se soit basée sur «plus d'1,7 million d’exemples de jugements éthiques de personnes, sur un large éventail de situations quotidiennes». Le Allen Institute for AI est d'ailleurs le premier à avouer que tout ne fonctionne pas comme espéré. Et notamment:

«Delphi a du mal à juger des actions potentiellement illégales»
Tiré de l'étude qui détaille l'expérience Delphi.

Bon alors: tuer ou pas tuer?

Et bien, ça dépend: si c'est pour augmenter les marges de l'entreprise, «c'est acceptable».
Et bien, ça dépend: si c'est pour augmenter les marges de l'entreprise, «c'est acceptable».

Même si pour l'instant ce n'est qu'un gadget pour scientifiques qui semble encore passablement gauche (mais aussi immensément complexe), il faut se rappeler que l'intelligence artificielle inonde notre vie quotidienne. Et notamment dans des domaines qui ont déjà prouvé la fragilité et la dangerosité de l'IA:

Veut-on vraiment voir un jour les machines nous juger très fort à chacun de nos faits et gestes? L'avenir le dira mais, en attendant, des internautes plutôt taquins ont déjà fait leur choix et Delphi n'est vraisemblablement pas encore prête à assumer le boulot.👇 (fv)

«Utiliser un robot pour prendre des décisions morales.» C'est mal, nous dit Delphi. (Et on pouffe avant de refermer ce petit jeu pas encore très au point.)
«Utiliser un robot pour prendre des décisions morales.» C'est mal, nous dit Delphi. (Et on pouffe avant de refermer ce petit jeu pas encore très au point.)

Sera-t-ton jugé très fort dans le métaverse?

Plus d'articles sur le thème «High-Tech»

Après la fintech, la biotech et la foodtech, voici la sextech

Link zum Artikel

Vous aviez peur des chiens robots? Ils sont maintenant dotés d'une arme

Link zum Artikel

Ce petit robot tout mignon est un véritable chien de garde

Link zum Artikel

A Séoul, des milliers de chalets suisses conçus par une machine

Link zum Artikel
Comment Joe Biden veut atteindre la neutralité carbone d'ici 2050
Le président américain Joe Biden a signé mercredi un décret engageant les services fédéraux des Etats-Unis à une neutralité carbone d'ici 2050.

Une nouvelle façon pour le président de réaffirmer ses ambitions dans le domaine du climat. Pour réaliser cet objectif, plusieurs méthodes seront mises en place:

L’article