Société
Analyse

ChatGPT: faut-il craindre l'intelligence artificielle?

L'idée d'une véritable armée de robots autonomes engageant des cibles humaines fait frémir. Pour l'heure, il n'y a aucun cas absolument confirmé d'utilisation de Systèmes d'armes létales autonomes (Sa ...
L'idée d'une véritable armée de robots autonomes engageant des cibles humaines fait frémir. Pour l'heure, il n'y a aucun cas absolument confirmé d'utilisation de Systèmes d'armes létales autonomes (Sala) sur les champs de bataille.image: shutterstock
Analyse

Robots tueurs et piratage: faut-il craindre l'intelligence artificielle?

Elle a pris d'assaut le monde des humains. D'aucuns considèrent le nouveau venu, le très bavard ChatGPT, d'un œil suspicieux. Et si l'IA nous dépassait, et pire, nous contrôlait? On lui a posé la question, un expert lui répond.
14.01.2023, 16:3216.01.2023, 10:10
Suivez-moi
Plus de «Société»

A moins de s'être imposé une détox digitale pendant six mois, impossible d'être passé à côté: ChatGPT, une intelligence artificielle (IA) conversationnelle révolutionnaire, a pris le monde comme une tornade. Sur la Toile, divers domaines s'en sont déjà emparés; ici un robot juridique, là un bot de son enfant intérieur, on vous passe la liste.

En matière de recherches en ligne, les IA pourraient même renverser le monopole indisputé des plateformes comme Google. Microsoft, qui s'apprête à investir dix milliards de dollars dans la startup d'intelligence artificielle OpenAI, a déjà flairé le bon filon.

Au-delà de l'engouement autour de cette pieuvre virtuelle qui puise dans les profondeurs du web, les limites - des erreurs, ou des questions d'éthique - font déjà lever plus d'un sourcil.

Récemment, c'est le monde de l'enseignement qui suait à grosses gouttes, alors que les étudiants semblaient avoir trouvé un assistant bien pratique pour rédiger leurs séminaires. Certains experts estiment que les hackers pourraient être facilités par l'outil. Plus inquiétante, l'idée d'une véritable armée de robots autonomes engageant des cibles humaines via un système de reconnaissance faciale fait frémir.

Au final, l'IA est-elle «cet ami qui nous veut du bien», ou risque-t-elle de nous faire dériver dans un scénario digne de I, Robot?

Pour ceux qui n'ont pas la réf 👇

watson a directement posé la question au principal intéressé: «Dis, ChatGPT, quels dangers pourrais-tu représenter pour la société humaine?» Nous avons décortiqué sa réponse avec un expert (un vrai humain) du secteur.

Des données non neutres

La réponse de ChatGPT

«Les systèmes d'IA peuvent prendre des décisions qui sont discriminatoires ou nuisibles aux individus ou aux groupes de personnes, en raison de biais présents dans les données utilisées pour les entraîner.»
ChatGPT

L'avis du spécialiste, Johan Rochel

ChatGPT a entièrement raison. L'outil a beaucoup lu; les sites web, les portails comme Wikipédia, toutes les bibliothèques de livres numériques. De manière générale, il prend un mot, le vectorise, avant de l'assigner à un contexte, c’est-à-dire le situer par rapport à d’autres mots. Puis, il recherche les habitudes statistiques qui apparaissent au sein de cette masse de mots. Il est ensuite capable de déterminer quel mot a statistiquement le plus de chances de succéder à un autre mot. ChatGPT est donc une machine très performante pour aligner des mots de manière plausible.

Image

L'expert

Johan Rochel
Docteur en droit et philosophe, Johan Rochel est chercheur en droit et éthique de l'innovation à l’Ecole Polytechnique Fédérale de Lausanne (EPFL). Il est co-directeur d’ethix – le laboratoire d’éthique de l’innovation. Son dernier ouvrage paru offre une introduction à l’éthique de la robotique: Les robots parmi nous: pour une éthique des machines (EPFL Press 2022).

Or, le problème, c'est que l'outil puise dans un ensemble de données en majorité en anglais. Certes, le monde anglophone est multiple - allant jusqu'en Asie ou en Afrique, mais tout reste dépendant de la langue.

«Si vous entraînez GPT sur un autre corpus de langue, les réponses obtenues seront différentes»

Ce biais général de langue vient s’additionner aux biais présents dans les textes trouvés en ligne. Par exemple, Wikipédia compte beaucoup plus d’articles sur des hommes que sur des femmes. Il en résulte une version tronquée de la réalité. L’équipe de ChatGPT a reconnu le problème et cherche à rectifier le modèle, mais c'est un long chemin.

La langue est le vecteur clé pour ChatGPT.
La langue est le vecteur clé pour ChatGPT. Image: Shutterstock

Les infox multipliées

«La diffusion de fausses informations ou d'idéologies dangereuses. Les modèles de traitement automatique du langage peuvent générer du contenu qui ressemble à s'y méprendre à celui produit par des êtres humains, ce qui peut rendre difficile la détection de la véracité des informations.»
ChatGPT

L'avis de l'expert

ChatGPT évoque un autre bon point. La question de la véracité des informations est au cœur des outils qui génèrent du contenu. Dans les grandes lignes, ChatGPT fournit du contenu intéressant et bien structuré. Mais beaucoup d’utilisateurs s’amusent à piéger l'IA, laquelle peut vraiment dire des bêtises. Parfois, cela se voit rapidement, et parfois, c'est moins évident.

Dans les deux cas, la machine le dit avec le même ton. Le vrai risque, c'est alors de croire que la machine sait tout. «Si GPT le dit, ce doit être vrai». Nous avions déjà eu ce débat aux débuts de Wikipédia.

En matière de fake news, un texte faux est problématique, mais l'IA peut produire des images, ou même des films entiers! De plus, à travers les interactions, on peut avoir l’impression de parler avec une personne humaine. Ces fausses informations pourront être personnifiées via des agents artificiels capables d’interaction. Distinguer le robot de conversation d’une personne humaine va devenir très difficile.

Et pourtant, ChatGPT ne comprend rien à la réalité et il n’est pas comparable à une personne; il est basé sur des formules mathématiques.

«Croire que ChatGPT est une personne, c'est comme croire que notre micro-ondes est un cuisinier»

Nous devons à tout prix nous méfier de notre tendance humaine à tout personnaliser.

Des emplois supprimés

«L'automatisation de certaines tâches par l'IA peut entraîner des suppressions d'emplois pour les travailleurs humains, ce qui peut avoir des conséquences économiques et sociales importantes.»
ChatGPT

L'avis de l'expert

C'est en effet un point très valide. ChatGPT vient bousculer tous ceux dont la tâche est de générer de l’information, soit les chercheurs, les journalistes, les gens dans le marketing, mais également ceux qui créent du visuel. On pensait que les domaines créatifs étaient moins touchés, mais la démocratisation de ces outils va bouleverser cette croyance.

Autre côté de la médaille: les droits de propriété intellectuelle. Qui est le «véritable» créateur des textes ou des images produites par l'IA?

Des machines qui nous dépassent

«Il y a un risque que l'IA dépasse les capacités humaines dans certaines tâches, y compris les armes autonomes, ce qui peut entraîner des conséquences désastreuses pour les êtres humains.»
ChatGPT

L'avis de l'expert

Cette peur du «dépassement» trahit un récit humain très puissant. Les machines vont-elles nous dépasser puis nous contrôler ou, au contraire, ne sont-elles que des outils pour nous rendre plus performants? Le problème n'est pas qu'une machine dépasse les capacités de l'humain. Prenez une calculatrice: voilà un outil qui nous dépasse en calcul mental pour notre plus grand bénéfice. La réponse de ChatGPT démontre, au fond, une inquiétude: on perçoit l'humain comme au-dessus de son environnement, au haut d'une pyramide de l’évolution. Or, nous avons peur d'être déchus de cette place.

«Et ChatGPT vient nous défier sur des terrains longtemps réservés à l’humain: la raison, et une certaine forme de créativité»

ChatGPT évoque également le risque posé par les armes autonomes. D'une certaine façon, c'est normal. L’outil s’est nourri de nos propres discussions sur les effets de la technologie, et les robots «tueurs» sont en bonne place. Des discussions poussées sur la régulation des armes autonomes ont lieu à Genève au sein des organisations internationales (red: le Comité international de la Croix-Rouge (CICR) plaide notamment pour une interdiction totale à leur recours).

La réponse de l’outil reflète donc cette inquiétude, même si, pour l'heure, des prototypes de robots complètement autonomes sont certes testés dans les centres de recherche des armées du monde, mais ils ne sont pas encore viables sur le terrain. En outre, les robots autonomes sont pour l’heure incapables d’intégrer et de respecter les règles du droit de la guerre.

Une boîte noire

«L'IA pourrait avoir des conséquences inattendues pour les individus et la société, car les systèmes d'IA sont difficiles à comprendre et à maîtriser, ce qui peut entraîner des erreurs et de mauvaises décisions.»
ChatGPT

L'avis de l'expert

C'est correct. La thématique de la «boîte noire» est un sujet essentiel de l’éthique de l’IA. On connaît les données qui rentrent, et celles qui sortent. Entre-deux, la machine travaille, mais il est difficile de comprendre pourquoi et comment elle arrive à un résultat précis. Rien que dans votre exemple: ChatGPT ne vous a fourni aucune source, aucune référence, sur cinq réponses.

Imaginez un robot utilisé pour rendre justice ou pour accepter une demande d’hypothèque: on voudra comprendre comment l'IA arrive à sa conclusion, ou calcule un score.

«Si le résultat impacte ma vie, j’ai le droit de comprendre comment la décision est prise»

Alors, monsieur l'expert, l'IA, c'est bien ou pas?

Comme beaucoup de gens, je suis impressionné par la démocratisation d’un outil très puissant. L'IA va pousser certains métiers à évoluer et il va nous permettre d’être plus précis et plus rapides dans certaines tâches. Mais il nous faut à tout prix accompagner le développement de ces technologies et leur utilisation à large échelle.

Les choix politiques que nous faisons sont prioritaires: il ne faut pas se laisser impressionner par un discours d’emballement technologique. On veut nous faire croire que la technologie avance et que seuls les rabat-joie se plaignent. Mais c’est faux et nous devons garder la main sur ces questions.

A titre d’exemple, l'Union européenne (UE) est à bout touchant d’une nouvelle législation sur l’IA. La Suisse a choisi une position plus attentiste sur ce sujet, mais elle y viendra.

Ce robot imite les visages humains à la perfection
Video: watson
0 Commentaires
Comme nous voulons continuer à modérer personnellement les débats de commentaires, nous sommes obligés de fermer la fonction de commentaire 72 heures après la publication d’un article. Merci de votre compréhension!
La Voie lactée dévoile un trou noir de la taille de 33 soleils
Les scientifiques du consortium Gaia - dont des chercheurs de l'Université de Genève - étaient en train de défricher les dernières données de la sonde, lorsqu'ils sont tombés sur un système d'étoiles binaires particulier.

Le télescope spatial européen Gaia, dédié à la cartographie de la Voie lactée, a découvert un trou noir d'une masse record, de 33 fois celle du Soleil: du jamais vu dans notre galaxie, indique une étude avec participation suisse parue mardi.

L’article