A moins de s'être imposé une détox digitale pendant six mois, impossible d'être passé à côté: ChatGPT, une intelligence artificielle (IA) conversationnelle révolutionnaire, a pris le monde comme une tornade. Sur la Toile, divers domaines s'en sont déjà emparés; ici un robot juridique, là un bot de son enfant intérieur, on vous passe la liste.
En matière de recherches en ligne, les IA pourraient même renverser le monopole indisputé des plateformes comme Google. Microsoft, qui s'apprête à investir dix milliards de dollars dans la startup d'intelligence artificielle OpenAI, a déjà flairé le bon filon.
Au-delà de l'engouement autour de cette pieuvre virtuelle qui puise dans les profondeurs du web, les limites - des erreurs, ou des questions d'éthique - font déjà lever plus d'un sourcil.
Récemment, c'est le monde de l'enseignement qui suait à grosses gouttes, alors que les étudiants semblaient avoir trouvé un assistant bien pratique pour rédiger leurs séminaires. Certains experts estiment que les hackers pourraient être facilités par l'outil. Plus inquiétante, l'idée d'une véritable armée de robots autonomes engageant des cibles humaines via un système de reconnaissance faciale fait frémir.
Au final, l'IA est-elle «cet ami qui nous veut du bien», ou risque-t-elle de nous faire dériver dans un scénario digne de I, Robot?
watson a directement posé la question au principal intéressé: «Dis, ChatGPT, quels dangers pourrais-tu représenter pour la société humaine?» Nous avons décortiqué sa réponse avec un expert (un vrai humain) du secteur.
ChatGPT a entièrement raison. L'outil a beaucoup lu; les sites web, les portails comme Wikipédia, toutes les bibliothèques de livres numériques. De manière générale, il prend un mot, le vectorise, avant de l'assigner à un contexte, c’est-à-dire le situer par rapport à d’autres mots. Puis, il recherche les habitudes statistiques qui apparaissent au sein de cette masse de mots. Il est ensuite capable de déterminer quel mot a statistiquement le plus de chances de succéder à un autre mot. ChatGPT est donc une machine très performante pour aligner des mots de manière plausible.
Or, le problème, c'est que l'outil puise dans un ensemble de données en majorité en anglais. Certes, le monde anglophone est multiple - allant jusqu'en Asie ou en Afrique, mais tout reste dépendant de la langue.
Ce biais général de langue vient s’additionner aux biais présents dans les textes trouvés en ligne. Par exemple, Wikipédia compte beaucoup plus d’articles sur des hommes que sur des femmes. Il en résulte une version tronquée de la réalité. L’équipe de ChatGPT a reconnu le problème et cherche à rectifier le modèle, mais c'est un long chemin.
ChatGPT évoque un autre bon point. La question de la véracité des informations est au cœur des outils qui génèrent du contenu. Dans les grandes lignes, ChatGPT fournit du contenu intéressant et bien structuré. Mais beaucoup d’utilisateurs s’amusent à piéger l'IA, laquelle peut vraiment dire des bêtises. Parfois, cela se voit rapidement, et parfois, c'est moins évident.
Dans les deux cas, la machine le dit avec le même ton. Le vrai risque, c'est alors de croire que la machine sait tout. «Si GPT le dit, ce doit être vrai». Nous avions déjà eu ce débat aux débuts de Wikipédia.
En matière de fake news, un texte faux est problématique, mais l'IA peut produire des images, ou même des films entiers! De plus, à travers les interactions, on peut avoir l’impression de parler avec une personne humaine. Ces fausses informations pourront être personnifiées via des agents artificiels capables d’interaction. Distinguer le robot de conversation d’une personne humaine va devenir très difficile.
Et pourtant, ChatGPT ne comprend rien à la réalité et il n’est pas comparable à une personne; il est basé sur des formules mathématiques.
Nous devons à tout prix nous méfier de notre tendance humaine à tout personnaliser.
C'est en effet un point très valide. ChatGPT vient bousculer tous ceux dont la tâche est de générer de l’information, soit les chercheurs, les journalistes, les gens dans le marketing, mais également ceux qui créent du visuel. On pensait que les domaines créatifs étaient moins touchés, mais la démocratisation de ces outils va bouleverser cette croyance.
Autre côté de la médaille: les droits de propriété intellectuelle. Qui est le «véritable» créateur des textes ou des images produites par l'IA?
Cette peur du «dépassement» trahit un récit humain très puissant. Les machines vont-elles nous dépasser puis nous contrôler ou, au contraire, ne sont-elles que des outils pour nous rendre plus performants? Le problème n'est pas qu'une machine dépasse les capacités de l'humain. Prenez une calculatrice: voilà un outil qui nous dépasse en calcul mental pour notre plus grand bénéfice. La réponse de ChatGPT démontre, au fond, une inquiétude: on perçoit l'humain comme au-dessus de son environnement, au haut d'une pyramide de l’évolution. Or, nous avons peur d'être déchus de cette place.
ChatGPT évoque également le risque posé par les armes autonomes. D'une certaine façon, c'est normal. L’outil s’est nourri de nos propres discussions sur les effets de la technologie, et les robots «tueurs» sont en bonne place. Des discussions poussées sur la régulation des armes autonomes ont lieu à Genève au sein des organisations internationales (red: le Comité international de la Croix-Rouge (CICR) plaide notamment pour une interdiction totale à leur recours).
La réponse de l’outil reflète donc cette inquiétude, même si, pour l'heure, des prototypes de robots complètement autonomes sont certes testés dans les centres de recherche des armées du monde, mais ils ne sont pas encore viables sur le terrain. En outre, les robots autonomes sont pour l’heure incapables d’intégrer et de respecter les règles du droit de la guerre.
C'est correct. La thématique de la «boîte noire» est un sujet essentiel de l’éthique de l’IA. On connaît les données qui rentrent, et celles qui sortent. Entre-deux, la machine travaille, mais il est difficile de comprendre pourquoi et comment elle arrive à un résultat précis. Rien que dans votre exemple: ChatGPT ne vous a fourni aucune source, aucune référence, sur cinq réponses.
Imaginez un robot utilisé pour rendre justice ou pour accepter une demande d’hypothèque: on voudra comprendre comment l'IA arrive à sa conclusion, ou calcule un score.
Comme beaucoup de gens, je suis impressionné par la démocratisation d’un outil très puissant. L'IA va pousser certains métiers à évoluer et il va nous permettre d’être plus précis et plus rapides dans certaines tâches. Mais il nous faut à tout prix accompagner le développement de ces technologies et leur utilisation à large échelle.
Les choix politiques que nous faisons sont prioritaires: il ne faut pas se laisser impressionner par un discours d’emballement technologique. On veut nous faire croire que la technologie avance et que seuls les rabat-joie se plaignent. Mais c’est faux et nous devons garder la main sur ces questions.
A titre d’exemple, l'Union européenne (UE) est à bout touchant d’une nouvelle législation sur l’IA. La Suisse a choisi une position plus attentiste sur ce sujet, mais elle y viendra.