«Ne répondez pas aux numéros inconnus»: elle pointe un danger de l'IA
Nina Habicht est une pionnière suisse de l'IA: elle a déjà plus de quarante chatbots à son actif. Au début de notre discussion vidéo, on lui demande - comme d'habitude - si on peut enregistrer la conversation. «Bien sûr», répond-elle, avant d'ajouter en plaisantant à moitié:
Est-ce qu'un chatbot vous a déjà insultée?
Nina Habicht: Non. Mais il est vrai qu'au départ, les chatbots n'étaient pas vraiment formés à la gentillesse, il fallait d'abord les «rôder». Au fil du temps, on les a plus spécifiquement entraînés avec des systèmes de récompense et de commentaires humains. Aujourd'hui, presque aucun modèle ne dira «Tu es stupide». Cependant, cette sensibilisation à la politesse a eu pour conséquence que les chatbots ont montré des réactions exagérément amicales, voire exubérantes. Cela s'est produit en particulier avec les versions antérieures de ChatGPT et c'était très agaçant.
L'IA se base sur des contenus tirés d'internet. Or, celui-ci regorge de grossièretés et d'insultes. Comment les a-t-on empêché de se propager?
Si les sources des données sont de mauvaise qualité, on peut effectivement retrouver des contenus problématiques dans les modèles. C'est pourquoi des fournisseurs tels qu'OpenAI mettent en place des mécanismes de protection: ils traquent les prompts malveillants, filtrent les contenus et ajoutent une couche de sécurité au modèle.
Mais un risque résiduel demeure, en particulier avec les tweets, les articles de blog ou les reportages médiatiques tendancieux. Cela ne se produit toutefois jamais en temps réel.
On reproche à ChatGPT de renforcer les théories du complot, car il essaie de faire preuve d'empathie envers les utilisateurs plutôt que de les contredire.
Les modèles sont entraînés à donner une réponse dans n'importe quelle situation, même lorsqu'ils devraient en réalité dire: «Stop, cela n'a aucun sens». Il faut donc leur apprendre à mettre fin à la discussion ou à exprimer leur désaccord si nécessaire.
Jusqu'à quel point faut-il essayer d'en faire des «humains»?
Pour des raisons de transparence, il faut toujours préciser clairement qu'il s'agit d'une machine. Les utilisateurs doivent savoir à qui ils ont affaire. Néanmoins, je pense que le dialogue doit rester poli. Si on s'habitue à être désagréables parce que «ce n'est qu'un robot», ce ton influence à son tour le comportement humain. A la longue, cela peut modifier les codes de conduite sociaux.
Autre problème non résolu: les hallucinations des chatbots. Il s'agit de réponses erronées qu'ils présentent de manière convaincante. Jusqu'à quand?
Le taux d'erreur varie selon les modèles. Mais en réalité, on ne pourra jamais totalement éviter ces hallucinations à cause des systèmes statistiques: ils fournissent la réponse la plus probable, pas nécessairement la bonne. Un autre écueil réside dans le fait que les modèles sont récompensés pour leurs réponses audacieuses, et non pour leur honnêteté. Les «Je ne sais pas» sont pénalisés. Les systèmes apprennent par conséquent à formuler des absurdités de manière convaincante.
Cela ne risque-t-il pas d'aggraver le fossé entre les groupes de population éduqués et ceux peu éduqués? Autrement dit, entre ceux capables de poser des questions critiques et ceux qui font aveuglément confiance?
Oui, c'est le danger. C'est pour cela que je tiens à informer le plus grand nombre. Je propose des formations aux entreprises, aux universités, mais aussi aux retraités, aux mères, aux adolescents et aux enfants.
C'est également extrêmement important pour les entreprises. Sans ça, on assistera à la montée du «Shadow AI» (réd: intelligence artificielle de l'ombre): des employés utilisent en cachette des outils interdits et, dans le pire des cas, téléchargent des documents sensibles tels que des contrats ou des données. Cela peut également entraîner des problèmes de droits d'auteur.
Qu'en est-il des stéréotypes: l'IA les renforce-t-elle parce qu'elle est entraînée avec des données biaisées?
Oui, des tests ont été réalisés dans lesquels des femmes et des hommes ont demandé à un chatbot à quel salaire ils pouvaient prétendre lors d'un entretien d'embauche.
Dans la génération d'images, les anciens modèles présentaient également des stéréotypes marqués, par exemple lorsqu'on demandait une image d'avocate. Des représentations clichées apparaissaient, des femmes en talons. Les fournisseurs tentent certes de contrer cela, mais les données sont tout simplement biaisées sur internet. Il faut compenser avec de nouvelles données équilibrées.
Mais les opinions personnelles ou les préjugés des développeurs continuent de jouer un rôle, n'est-ce pas?
Bien sûr, derrière les systèmes, il y a des êtres humains. La mentalité d'une société s'y reflète donc. Dans les Etats autoritaires comme la Chine, cela va encore plus loin. L'IA chinoise Deepseek ne connaît pas Taïwan. Lorsque les gouvernements ont une telle influence sur les modèles, cela constitue un grand danger.
L'EPFZ et l'EPFL viennent de publier leur modèle: Apertus. Il respecterait des normes éthiques et conformes à la législation sur la protection des données. Mais les performances du chatbot ont déçu, au final. Est-ce le prix à payer pour une IA éthique?
Apertus est un «modèle open source» suisse. Cela signifie que le code, l'architecture, les données d'entraînement et la documentation sont accessibles. Il n'est pas aussi performant que ChatGPT ou Gemini, car ces derniers bénéficient d'un budget de plusieurs milliards. Ce qui leur permet d'accéder à beaucoup plus de données et de puissance de calcul, et d'être entretenus par un plus grand nombre de développeurs. Apertus en est à sa première version. Il est donc d'autant plus qu'important qu'il reçoive nos commentaires dès à présent pour s'améliorer. Il incarne la démocratisation de l'IA et illustre parfaitement le rôle important de la Suisse dans le domaine de l'intelligence artificielle.
Une première génération est en train de grandir avec l'IA. Vous êtes vous-même maman. Comment gérez-vous cela?
Il arrive que ma fille me dise: «Demande donc à la machine». Elle est habituée à ce qu'une IA me parle à cause de mon travail, elle voit aussi des codes de programmation. Mais il est important pour moi qu'elle n'ait pas l'impression qu'on peut répondre à tout avec l'IA. Je lui répète sans cesse: «D'abord, on réfléchit avec sa tête». J'essaie aussi de limiter au maximum le temps passé devant l'écran. Bien sûr, les enfants s'amusent beaucoup en créant une image. Mais lorsqu'ils dessinent avec des crayons et du papier, ils établissent beaucoup plus de connexions neurologiques. Cela favorise la motricité et la créativité.
Cela présente aussi des dangers pour les adultes, par exemple avec les deepfakes. Comment s'en protéger?
Aujourd'hui, il est possible de cloner une voix à partir d'un enregistrement de quelques secondes. Les organisations criminelles le font quotidiennement. Voilà pourquoi il ne faut pas répondre aux appels de numéros fixes suisses inconnus ou, sinon, attendre, écouter d'abord, mais ne jamais donner son nom. Si possible, il ne faut pas non plus diffuser d'images ou de vidéos de soi sur internet. Plus il y en a, plus il est facile de créer des deepfakes farouchement réels.
Et comment protéger les plus jeunes, en particulier?
Les enfants et les adolescents doivent être sensibilisés à ce sujet dès leur plus jeune âge. Le danger des deepfakes est réel et leurs conséquences désastreuses, c'est pourquoi je considère que les écoles ont un rôle à jouer. Or, elles traînent les pieds dans ce domaine. Aux Etats-Unis, l'IA est une matière obligatoire. Les enfants et les adolescents doivent savoir qu'il est possible de cloner des voix et de créer des avatars tout à fait réalistes, non seulement de célébrités, mais aussi de personnes de leur entourage.
Au final, l'IA nous fait-elle plus de mal que de bien?
Non, je ne dirais pas cela. Elle permet un gain de temps considérable dans d'innombrables domaines professionnels. Puisque les machines nous déchargent d'une grande partie du travail, les capacités humaines redeviennent importantes. Le leadership ou les compétences sociales gagnent en importance, mais aussi le savoir-faire manuel. Cela crée de nombreuses opportunités pour de nouveaux profils. A condition que nous utilisions l'IA de manière bienveillante, consciente et appropriée.
Adaptation en français par Valentine Zenker