Suisse
Société

Beaucoup de Suisses utilisent l'IA comme psy

Image
Image: shutterstock

Utiliser l'IA comme psy est devenu un «réflexe pour beaucoup de Suisses»

Parmi les jeunes, solliciter des chatbots pour aborder des questions de santé mentale est de plus en plus fréquent. Une pratique qui a des avantages, mais qui n'est pas exempte de risques. Explications.
15.03.2026, 18:5415.03.2026, 18:54

On estime qu'en Suisse, près de 85 000 personnes vivent avec une schizophrénie. Bien que les premiers signes se manifestent dès l'âge de 15 ans, le diagnostic intervient souvent trop tard, diminuant ainsi les chances de rétablissement. C'est le cri d'alarme lancé par l'association PositiveMinders à l'occasion des Journées nationales de la schizophrénie, organisées du 14 au 21 mars prochain.

En raison des «tabous persistants» qui entourent ces troubles, les jeunes n'osent souvent pas évoquer ce qu'ils vivent, explique l'association. Pourtant, depuis quelque temps, les personnes atteintes ont trouvé un allié insoupçonné: l'intelligence artificielle (IA).

«Interroger une IA sur la santé mentale et lui confier ses difficultés est devenu un réflexe quotidien pour beaucoup de personnes, en particulier pour les très jeunes», renseigne Jean-Christophe Leroy, directeur général de PositiveMinders. Il affirme avoir commencé à observer ce phénomène il y a environ une année et demie.

«Beaucoup de limites»

Un tel usage des logiciels d'IA peut interroger. Contactée, la Fédération suisse des psychologues (FSP) indique «suivre de près» ces évolutions et être en train de développer des lignes directrices destinées à ses membres.

«Il est important de distinguer les chatbots des applications scientifiquement conçues pour accompagner une psychothérapie», souligne Cathy Maret, responsable Public Affairs à la FSP. Si les deuxièmes peuvent se révéler efficaces, du moins sous certaines conditions, les premiers «présentent pour l’instant beaucoup de limites».

«Les études disponibles montrent que le recours à ces outils peut se révéler inefficace, voire dangereux»
Cathy Maret

«Personnellement, je pense que ces outils peuvent apporter beaucoup de choses positives», estime en revanche Laura Vowels, psychothérapeute, professeure associée au Royaume-Uni et chercheuse auprès de l'Université de Lausanne. Selon elle, ce phénomène comporte à la fois des avantages et des inconvénients.

Toujours disponible...

Un exemple? L'IA est toujours disponible, tandis que de nombreux psychothérapeutes ont de longues listes d'attente, illustre-t-elle. Un point de vue que partage Jean-Christophe Leroy:

«Contrairement aux personnes physiques, un chatbot peut être sollicité à toute heure, y compris le soir et la nuit, quand ces difficultés ont tendance à se manifester»
Jean-Christophe Leroy

Les deux intervenants s'accordent également sur un autre point: l'IA est souvent perçue par les utilisateurs comme neutre, non jugeante et non biaisée. Cela encouragerait les personnes à s'ouvrir, les plus jeunes en particulier. Jean-Christophe Leroy observe que ces derniers ont beaucoup plus de facilité à s'adresser à des tchats, ce que son association a constaté «bien avant l'avènement de l'IA».

«Cette manière de communiquer leur permet d'extérioriser des choses qu'ils n'osent évoquer auprès de personne», poursuit-il. «La plupart des fois, les personnes ont juste besoin d'être écoutées, sans qu'on leur propose des solutions», relève Laura Vowels. «De ce point de vue, l'IA peut faire beaucoup de bien».

La chercheuse précise toutefois que cela s'applique surtout aux personnes qui ne souffrent pas de troubles sévères ou qui n'ont pas de pensées suicidaires. «Ces outils n'ont, en effet, pas été créés pour identifier ces risques», souligne-t-elle.

«Il faut être très précis pour qu'un chatbot s'en rende compte, ce qui peut être problématique»
Laura Vowels

...mais toujours d'accord avec vous

Autre problème: les chatbots sont connus pour être toujours d'accord avec les utilisateurs. Ce n'est pas toujours une bonne chose, à en croire Laura Vowels: «L'IA risque de valider des émotions négatives, sans challenger les personnes ni les encourager à changer leur comportement, comme le ferait un thérapeute», dit-elle. «Dans les cas extrêmes, cela peut également alimenter les psychoses et les hallucinations des patients».

Ce phénomène, baptisé «psychose de l'IA», a fait couler beaucoup d'encre l'an dernier, notamment aux Etats-Unis. Plusieurs personnes y ont commis des violences ou ont mis fin à leurs jours après des échanges avec un chatbot.

Confrontée à l’accumulation des cas, OpenAI a reconnu l'été dernier que ChatGPT n’était pas encore entièrement prêt à discuter avec des personnes psychologiquement fragiles, rapporte le Monde. L'entreprise a affirmé travailler à des remèdes, visant notamment à rendre son chatbot moins obligeant.

«Il s'agit d'un phénomène marginal, mais qu'il ne faut pas négliger», commente Jean-Christophe Leroy, qui rappelle que «le diagnostic par IA et l'autodiagnostic sont très peu fiables». Il ajoute:

«Laisser ces outils déterminer ce dont on souffre représente l'un des principaux dangers de cette pratique»
Jean-Christophe Leroy

La manière de s'adresser au chatbot joue également un rôle central. «Les réponses peuvent varier énormément en fonction des questions qu'on lui pose», assure le directeur de PositiveMinders. Deux scénarios opposés peuvent alors se réaliser: les personnes peuvent être poussées à se renfermer sur elles-mêmes - «ce qui est problématique» - ou être encouragées à chercher de l'aide extérieure.

«L'IA peut alors devenir un énorme allié des professionnels de la santé, car elle favorise l'intervention précoce», complète-t-il, en rappelant qu'«agir tôt est très important et facilite le rétablissement».

Ne pas confondre aide et thérapie

Laura Vowels conseille «d'être clair» avec les chatbots et de leur dire exactement ce que l'on veut. «Demander à l'IA d'être écouté, challengé, ou de nous parler en tant que psy, permet de cadrer et d'améliorer la conversation», propose-t-elle. Avant de nuancer:

«Il ne faut pas compter uniquement sur ces outils. Parler avec des gens et avoir d'autres points de vue est également utile»
Laura Vowels

«L'IA peut accompagner au quotidien, mais nous recommandons toujours de consulter un médecin et de solliciter ses amis, ses proches ou des personnes de confiance», lui fait écho Jean-Christophe Leroy.

«L'IA peut être thérapeutique, dans le sens où elle peut aider à se sentir mieux, mais elle n'est pas une thérapeute. Il ne faut pas confondre les deux choses», résume Laura Vowels. Et de conclure:

«A l'heure actuelle, ces outils ne peuvent pas remplacer une thérapie»
Laura Vowels
33 images générées par IA délicieusement bizarres
1 / 37
33 images générées par IA délicieusement bizarres
partager sur Facebookpartager sur X
ChatGPT: Quand la réalité dépasse la fiction
Video: watson
Ceci pourrait également vous intéresser:
Avez-vous quelque chose à nous dire ?
Avez-vous une remarque ou avez-vous découvert une erreur ? Vous pouvez nous transmettre votre message via le formulaire.
0 Commentaires
Votre commentaire
YouTube Link
0 / 600
Le risque d’avalanches explose dans les Alpes surtout au sud
De fortes chutes de neige ont accru le risque d’avalanches dans les Alpes, particulièrement au sud, avec un danger évalué à niveau 4.
Les importantes chutes de neige samedi et durant la nuit de samedi à dimanche, avant tout au sud des Alpes, rend le danger d'avalanche élevé. Il faut s'attendre à de nombreuses coulées spontanées.
L’article