Suisse
Intelligence artificielle

Nina Habicht, experte suisse de l'IA, nous livre ses craintes

«Ne répondez pas aux numéros inconnus»: elle pointe un danger de l'IA

La Suissesse Nina Habicht s'intéresse à l'IA depuis quinze ans. Elle pointe les risques de cette nouvelle technologie, mais souligne aussi ses avantages. Surtout, elle assure que notre pays peut jouer un rôle important dans le domaine.
28.09.2025, 18:5528.09.2025, 18:55
Annika Bangerter, Stephanie Schnydrig / ch media

Nina Habicht est une pionnière suisse de l'IA: elle a déjà plus de quarante chatbots à son actif. Au début de notre discussion vidéo, on lui demande - comme d'habitude - si on peut enregistrer la conversation. «Bien sûr», répond-elle, avant d'ajouter en plaisantant à moitié:

«Tant que vous n'utilisez pas mon visage et ma voix pour un deepfake»

Est-ce qu'un chatbot vous a déjà insultée?
Nina Habicht: Non. Mais il est vrai qu'au départ, les chatbots n'étaient pas vraiment formés à la gentillesse, il fallait d'abord les «rôder». Au fil du temps, on les a plus spécifiquement entraînés avec des systèmes de récompense et de commentaires humains. Aujourd'hui, presque aucun modèle ne dira «Tu es stupide». Cependant, cette sensibilisation à la politesse a eu pour conséquence que les chatbots ont montré des réactions exagérément amicales, voire exubérantes. Cela s'est produit en particulier avec les versions antérieures de ChatGPT et c'était très agaçant.

L'IA se base sur des contenus tirés d'internet. Or, celui-ci regorge de grossièretés et d'insultes. Comment les a-t-on empêché de se propager?
Si les sources des données sont de mauvaise qualité, on peut effectivement retrouver des contenus problématiques dans les modèles. C'est pourquoi des fournisseurs tels qu'OpenAI mettent en place des mécanismes de protection: ils traquent les prompts malveillants, filtrent les contenus et ajoutent une couche de sécurité au modèle.

«ChatGPT bloque par exemple les critiques à caractère politique, religieux ou criminel»

Mais un risque résiduel demeure, en particulier avec les tweets, les articles de blog ou les reportages médiatiques tendancieux. Cela ne se produit toutefois jamais en temps réel.

Portrait
Nina Habicht a étudié l'informatique de gestion à la ZHAW ainsi que l'économie d'entreprise et l'économie politique à l'Université de Bâle. Elle a suivi une formation en leadership à l'IMD Lausanne. Depuis 2011, elle s'intéresse à l'intelligence artificielle, en particulier à la conception et à la mise en œuvre d'agents IA, d'assistants vocaux, de chatbots et d'avatars numériques. En 2019, elle a fondé la plateforme dreamleap (anciennement Voicetechhub). Cette dernière propose aux PME une plateforme tout-en-un sécurisée et des formations. Nina Habicht vit et travaille à Zurich.
infobox image
Image:

On reproche à ChatGPT de renforcer les théories du complot, car il essaie de faire preuve d'empathie envers les utilisateurs plutôt que de les contredire.
Les modèles sont entraînés à donner une réponse dans n'importe quelle situation, même lorsqu'ils devraient en réalité dire: «Stop, cela n'a aucun sens». Il faut donc leur apprendre à mettre fin à la discussion ou à exprimer leur désaccord si nécessaire.

«Mais à l'heure actuelle, ils ne disposent toutefois pas de cette capacité à se corriger eux-mêmes»

Jusqu'à quel point faut-il essayer d'en faire des «humains»?
Pour des raisons de transparence, il faut toujours préciser clairement qu'il s'agit d'une machine. Les utilisateurs doivent savoir à qui ils ont affaire. Néanmoins, je pense que le dialogue doit rester poli. Si on s'habitue à être désagréables parce que «ce n'est qu'un robot», ce ton influence à son tour le comportement humain. A la longue, cela peut modifier les codes de conduite sociaux.

Autre problème non résolu: les hallucinations des chatbots. Il s'agit de réponses erronées qu'ils présentent de manière convaincante. Jusqu'à quand?
Le taux d'erreur varie selon les modèles. Mais en réalité, on ne pourra jamais totalement éviter ces hallucinations à cause des systèmes statistiques: ils fournissent la réponse la plus probable, pas nécessairement la bonne. Un autre écueil réside dans le fait que les modèles sont récompensés pour leurs réponses audacieuses, et non pour leur honnêteté. Les «Je ne sais pas» sont pénalisés. Les systèmes apprennent par conséquent à formuler des absurdités de manière convaincante.

«Il faut donc toujours vérifier les sources et demander un deuxième avis, par exemple via un deuxième modèle ou une recherche classique»

Cela ne risque-t-il pas d'aggraver le fossé entre les groupes de population éduqués et ceux peu éduqués? Autrement dit, entre ceux capables de poser des questions critiques et ceux qui font aveuglément confiance?
Oui, c'est le danger. C'est pour cela que je tiens à informer le plus grand nombre. Je propose des formations aux entreprises, aux universités, mais aussi aux retraités, aux mères, aux adolescents et aux enfants.

«Ce n'est que si tout le monde apprend à utiliser correctement l'IA que l'on pourra minimiser les risques»

C'est également extrêmement important pour les entreprises. Sans ça, on assistera à la montée du «Shadow AI» (réd: intelligence artificielle de l'ombre): des employés utilisent en cachette des outils interdits et, dans le pire des cas, téléchargent des documents sensibles tels que des contrats ou des données. Cela peut également entraîner des problèmes de droits d'auteur.

Qu'en est-il des stéréotypes: l'IA les renforce-t-elle parce qu'elle est entraînée avec des données biaisées?
Oui, des tests ont été réalisés dans lesquels des femmes et des hommes ont demandé à un chatbot à quel salaire ils pouvaient prétendre lors d'un entretien d'embauche.

«Les femmes ont systématiquement reçu des recommandations plus basses»

Dans la génération d'images, les anciens modèles présentaient également des stéréotypes marqués, par exemple lorsqu'on demandait une image d'avocate. Des représentations clichées apparaissaient, des femmes en talons. Les fournisseurs tentent certes de contrer cela, mais les données sont tout simplement biaisées sur internet. Il faut compenser avec de nouvelles données équilibrées.

«On doit par ailleurs accroître la diversité au sein des équipes de développeurs. Sinon, seul un petit groupe façonnera l'avenir numérique du monde entier»

Mais les opinions personnelles ou les préjugés des développeurs continuent de jouer un rôle, n'est-ce pas?
Bien sûr, derrière les systèmes, il y a des êtres humains. La mentalité d'une société s'y reflète donc. Dans les Etats autoritaires comme la Chine, cela va encore plus loin. L'IA chinoise Deepseek ne connaît pas Taïwan. Lorsque les gouvernements ont une telle influence sur les modèles, cela constitue un grand danger.

L'EPFZ et l'EPFL viennent de publier leur modèle: Apertus. Il respecterait des normes éthiques et conformes à la législation sur la protection des données. Mais les performances du chatbot ont déçu, au final. Est-ce le prix à payer pour une IA éthique?
Apertus est un «modèle open source» suisse. Cela signifie que le code, l'architecture, les données d'entraînement et la documentation sont accessibles. Il n'est pas aussi performant que ChatGPT ou Gemini, car ces derniers bénéficient d'un budget de plusieurs milliards. Ce qui leur permet d'accéder à beaucoup plus de données et de puissance de calcul, et d'être entretenus par un plus grand nombre de développeurs. Apertus en est à sa première version. Il est donc d'autant plus qu'important qu'il reçoive nos commentaires dès à présent pour s'améliorer. Il incarne la démocratisation de l'IA et illustre parfaitement le rôle important de la Suisse dans le domaine de l'intelligence artificielle.

Une première génération est en train de grandir avec l'IA. Vous êtes vous-même maman. Comment gérez-vous cela?
Il arrive que ma fille me dise: «Demande donc à la machine». Elle est habituée à ce qu'une IA me parle à cause de mon travail, elle voit aussi des codes de programmation. Mais il est important pour moi qu'elle n'ait pas l'impression qu'on peut répondre à tout avec l'IA. Je lui répète sans cesse: «D'abord, on réfléchit avec sa tête». J'essaie aussi de limiter au maximum le temps passé devant l'écran. Bien sûr, les enfants s'amusent beaucoup en créant une image. Mais lorsqu'ils dessinent avec des crayons et du papier, ils établissent beaucoup plus de connexions neurologiques. Cela favorise la motricité et la créativité.

«Je ne laisse pas ma fille utiliser l'IA sans surveillance et trop souvent. Ce serait comme donner les clés d'une voiture à un enfant»

Cela présente aussi des dangers pour les adultes, par exemple avec les deepfakes. Comment s'en protéger?
Aujourd'hui, il est possible de cloner une voix à partir d'un enregistrement de quelques secondes. Les organisations criminelles le font quotidiennement. Voilà pourquoi il ne faut pas répondre aux appels de numéros fixes suisses inconnus ou, sinon, attendre, écouter d'abord, mais ne jamais donner son nom. Si possible, il ne faut pas non plus diffuser d'images ou de vidéos de soi sur internet. Plus il y en a, plus il est facile de créer des deepfakes farouchement réels.

Et comment protéger les plus jeunes, en particulier?
Les enfants et les adolescents doivent être sensibilisés à ce sujet dès leur plus jeune âge. Le danger des deepfakes est réel et leurs conséquences désastreuses, c'est pourquoi je considère que les écoles ont un rôle à jouer. Or, elles traînent les pieds dans ce domaine. Aux Etats-Unis, l'IA est une matière obligatoire. Les enfants et les adolescents doivent savoir qu'il est possible de cloner des voix et de créer des avatars tout à fait réalistes, non seulement de célébrités, mais aussi de personnes de leur entourage.

Au final, l'IA nous fait-elle plus de mal que de bien?
Non, je ne dirais pas cela. Elle permet un gain de temps considérable dans d'innombrables domaines professionnels. Puisque les machines nous déchargent d'une grande partie du travail, les capacités humaines redeviennent importantes. Le leadership ou les compétences sociales gagnent en importance, mais aussi le savoir-faire manuel. Cela crée de nombreuses opportunités pour de nouveaux profils. A condition que nous utilisions l'IA de manière bienveillante, consciente et appropriée.

Adaptation en français par Valentine Zenker

Une IA a créé des couples de stars et leurs enfants
1 / 30
Une IA a créé des couples de stars et leurs enfants
source: jérémy pomeroy
partager sur Facebookpartager sur X
Ils deviennent millionnaires et leur réaction est inoubliable
Video: watson
Ceci pourrait également vous intéresser:
As-tu quelque chose à nous dire ?
As-tu une remarque pertinente ou as-tu découvert une erreur ? Tu peux volontiers nous transmettre ton message via le formulaire.
0 Commentaires
Comme nous voulons continuer à modérer personnellement les débats de commentaires, nous sommes obligés de fermer la fonction de commentaire 72 heures après la publication d’un article. Merci de votre compréhension!
Blatten croule sous les dons: «Des problèmes vont survenir»
La commune valaisanne de Blatten décide seule de l’utilisation des dons reçus, qui se comptent en millions. Une situation qui fait réagir la conseillère nationale Anna Giacometti, qui interpelle le Conseil fédéral.
Il y a quatre mois, un immense éboulement a recouvert le village de Blatten, dans le Lötschental valaisan. Une catastrophe qui a engendré un formidable élan de solidarité: la Chaîne du Bonheur a récolté près de 23 millions de francs en faveur des habitants sinistrés.
L’article