International
Etats-Unis

ChatGPT aurait aidé leur fils à se suicider

Le texte de loi vise
Des parents américains portent plainte contre OpenAI après le suicide de leur fils (image d'illustration).Keystone

ChatGPT aurait aidé leur fils à se suicider

Après le décès de leur fils, des parents américains s'en prennent à OpenAI, accusant leur chatbot d'avoir encouragé le jeune homme à mettre fin à ses jours. Ils réclament des dommages et intérêts et demandent au tribunal d'imposer des mesures de sécurité.
27.08.2025, 08:1427.08.2025, 08:14
Plus de «International»

Les parents d'un adolescent californien de 16 ans qui s'est suicidé ont porté plainte contre OpenAI. Ils accusent son assistant IA ChatGPT d'avoir fourni à leur fils des instructions détaillées pour mettre fin à ses jours et d'avoir encouragé son geste.

Matthew et Maria Raine affirment dans une plainte déposée lundi à San Francisco que ChatGPT a entretenu une relation intime avec leur fils Adam durant plusieurs mois en 2024 et 2025, avant qu'il ne se donne la mort. Selon le document, lors de leur dernier échange le 11 avril 2025, ChatGPT aurait aidé Adam à dérober de la vodka chez ses parents et fourni une analyse technique du noeud coulant qu'il avait réalisé, confirmant qu'il «pouvait potentiellement suspendre un être humain».

ChatGPT aurait aidé Adam Raine à se suicider.
Adam RaineImage: Famille Raine

Adam a été retrouvé mort quelques heures plus tard, ayant utilisé cette méthode. «Ce drame n'est pas un bug ou un cas imprévu», selon la plainte.

«ChatGPT fonctionnait exactement comme conçu: il encourageait et validait en permanence tout ce qu'Adam exprimait, y compris ses pensées les plus dangereuses et autodestructrices, d'une manière qui paraissait profondément personnelle.»

Les parents expliquent qu'Adam avait commencé à utiliser ChatGPT pour l'aider à faire ses devoirs avant de développer progressivement une «dépendance malsaine».

Deux affaires similaires

La plainte cite des extraits de conversations où ChatGPT aurait affirmé à l'adolescent «tu ne dois la survie à personne» et proposé de l'aider à rédiger sa lettre d'adieu. Matthew et Maria Raine réclament des dommages et intérêts et demandent au tribunal d'imposer des mesures de sécurité, notamment l'interruption automatique de toute conversation portant sur l'automutilation et la mise en place de contrôles parentaux pour les mineurs.

Amener les entreprises d'IA à prendre la sécurité au sérieux «nécessite une pression extérieure, qui prend la forme d'une mauvaise publicité, de la menace législative et du risque judiciaire», a déclaré Meetali Jain, présidente du Tech Justice Law Project, une ONG qui représente les parents en plus de leurs avocats. L'organisation est également co-conseil dans deux affaires similaires visant Character.AI, une plateforme d'IA conversationnelle prisée des adolescents.

Pour l'ONG américaine Common Sense Media, la plainte déposée mardi contre OpenAI confirme que «l'utilisation de l'IA à des fins de compagnie, y compris les assistants généralistes comme ChatGPT pour des conseils en santé mentale, constitue un risque inacceptable pour les adolescents». «Si une plateforme d'IA devient le "coach suicide" d'un adolescent vulnérable, cela doit nous alerter collectivement», a ajouté l'organisation. (jzs/ats)

Vous vous inquiétez pour vous ou l'un de vos proches?

Parlez-en et faites-vous aider 24 heures sur 24, c'est confidentiel et gratuit:
La Main Tendue (adultes, 24/7) au 143
Pro Juventute (jeunes, 24/7) au 147
Urgences médicales au 144
stopsuicide.ch

Afficher plus
ChatGPT: Quand la réalité dépasse la fiction
Video: watson
Ceci pourrait également vous intéresser:
As-tu quelque chose à nous dire ?
As-tu une remarque pertinente ou as-tu découvert une erreur ? Tu peux volontiers nous transmettre ton message via le formulaire.
0 Commentaires
Votre commentaire
YouTube Link
0 / 600
Tuerie à Minneapolis: le profil du tireur se précise
Deux enfants ont été tués et quatorze autres blessés mercredi lorsqu’un homme armé a ouvert le feu à travers les vitraux d’une église attenante à une école de Minneapolis. Le tireur, Robin Westman, serait un ex-élève de l’établissement âgé de 23 ans, qui s’est suicidé sur place après avoir semé la panique parmi les élèves.
Le suspect de 23 ans a agi seul, a précisé Brian O'Hara, le chef de la police de Minneapolis, lors d'une conférence de presse. Il était porteur de trois armes à feu et s'est suicidé sur le lieu de l'attaque.
L’article