Utiliser l'IA comme psy est devenu un «réflexe pour beaucoup de Suisses»
On estime qu'en Suisse, près de 85 000 personnes vivent avec une schizophrénie. Bien que les premiers signes se manifestent dès l'âge de 15 ans, le diagnostic intervient souvent trop tard, diminuant ainsi les chances de rétablissement. C'est le cri d'alarme lancé par l'association PositiveMinders à l'occasion des Journées nationales de la schizophrénie, organisées du 14 au 21 mars prochain.
En raison des «tabous persistants» qui entourent ces troubles, les jeunes n'osent souvent pas évoquer ce qu'ils vivent, explique l'association. Pourtant, depuis quelque temps, les personnes atteintes ont trouvé un allié insoupçonné: l'intelligence artificielle (IA).
«Interroger une IA sur la santé mentale et lui confier ses difficultés est devenu un réflexe quotidien pour beaucoup de personnes, en particulier pour les très jeunes», renseigne Jean-Christophe Leroy, directeur général de PositiveMinders. Il affirme avoir commencé à observer ce phénomène il y a environ une année et demie.
«Beaucoup de limites»
Un tel usage des logiciels d'IA peut interroger. Contactée, la Fédération suisse des psychologues (FSP) indique «suivre de près» ces évolutions et être en train de développer des lignes directrices destinées à ses membres.
«Il est important de distinguer les chatbots des applications scientifiquement conçues pour accompagner une psychothérapie», souligne Cathy Maret, responsable Public Affairs à la FSP. Si les deuxièmes peuvent se révéler efficaces, du moins sous certaines conditions, les premiers «présentent pour l’instant beaucoup de limites».
«Personnellement, je pense que ces outils peuvent apporter beaucoup de choses positives», estime en revanche Laura Vowels, psychothérapeute, professeure associée au Royaume-Uni et chercheuse auprès de l'Université de Lausanne. Selon elle, ce phénomène comporte à la fois des avantages et des inconvénients.
Toujours disponible...
Un exemple? L'IA est toujours disponible, tandis que de nombreux psychothérapeutes ont de longues listes d'attente, illustre-t-elle. Un point de vue que partage Jean-Christophe Leroy:
Les deux intervenants s'accordent également sur un autre point: l'IA est souvent perçue par les utilisateurs comme neutre, non jugeante et non biaisée. Cela encouragerait les personnes à s'ouvrir, les plus jeunes en particulier. Jean-Christophe Leroy observe que ces derniers ont beaucoup plus de facilité à s'adresser à des tchats, ce que son association a constaté «bien avant l'avènement de l'IA».
«Cette manière de communiquer leur permet d'extérioriser des choses qu'ils n'osent évoquer auprès de personne», poursuit-il. «La plupart des fois, les personnes ont juste besoin d'être écoutées, sans qu'on leur propose des solutions», relève Laura Vowels. «De ce point de vue, l'IA peut faire beaucoup de bien».
La chercheuse précise toutefois que cela s'applique surtout aux personnes qui ne souffrent pas de troubles sévères ou qui n'ont pas de pensées suicidaires. «Ces outils n'ont, en effet, pas été créés pour identifier ces risques», souligne-t-elle.
...mais toujours d'accord avec vous
Autre problème: les chatbots sont connus pour être toujours d'accord avec les utilisateurs. Ce n'est pas toujours une bonne chose, à en croire Laura Vowels: «L'IA risque de valider des émotions négatives, sans challenger les personnes ni les encourager à changer leur comportement, comme le ferait un thérapeute», dit-elle. «Dans les cas extrêmes, cela peut également alimenter les psychoses et les hallucinations des patients».
Ce phénomène, baptisé «psychose de l'IA», a fait couler beaucoup d'encre l'an dernier, notamment aux Etats-Unis. Plusieurs personnes y ont commis des violences ou ont mis fin à leurs jours après des échanges avec un chatbot.
Confrontée à l’accumulation des cas, OpenAI a reconnu l'été dernier que ChatGPT n’était pas encore entièrement prêt à discuter avec des personnes psychologiquement fragiles, rapporte le Monde. L'entreprise a affirmé travailler à des remèdes, visant notamment à rendre son chatbot moins obligeant.
«Il s'agit d'un phénomène marginal, mais qu'il ne faut pas négliger», commente Jean-Christophe Leroy, qui rappelle que «le diagnostic par IA et l'autodiagnostic sont très peu fiables». Il ajoute:
La manière de s'adresser au chatbot joue également un rôle central. «Les réponses peuvent varier énormément en fonction des questions qu'on lui pose», assure le directeur de PositiveMinders. Deux scénarios opposés peuvent alors se réaliser: les personnes peuvent être poussées à se renfermer sur elles-mêmes - «ce qui est problématique» - ou être encouragées à chercher de l'aide extérieure.
«L'IA peut alors devenir un énorme allié des professionnels de la santé, car elle favorise l'intervention précoce», complète-t-il, en rappelant qu'«agir tôt est très important et facilite le rétablissement».
Ne pas confondre aide et thérapie
Laura Vowels conseille «d'être clair» avec les chatbots et de leur dire exactement ce que l'on veut. «Demander à l'IA d'être écouté, challengé, ou de nous parler en tant que psy, permet de cadrer et d'améliorer la conversation», propose-t-elle. Avant de nuancer:
«L'IA peut accompagner au quotidien, mais nous recommandons toujours de consulter un médecin et de solliciter ses amis, ses proches ou des personnes de confiance», lui fait écho Jean-Christophe Leroy.
«L'IA peut être thérapeutique, dans le sens où elle peut aider à se sentir mieux, mais elle n'est pas une thérapeute. Il ne faut pas confondre les deux choses», résume Laura Vowels. Et de conclure:
