Après le décès d’Adam (16 ans), la famille accuse l’IA… OpenAI réagit fermement

Posted 26 novembre 2025 by: Admin #Actualité

Publicité:

Trois mois après l’ouverture d’une enquête fédérale et quatre mois après la plainte déposée par la famille d’un adolescent, l’affaire Adam Raine revient au premier plan.

Le suicide de ce jeune Californien de 16 ans, survenu en avril 2025 après des échanges inquiétants avec ChatGPT, soulève désormais une question majeure : jusqu’où va la responsabilité juridique des chatbots ?

Face aux accusations, OpenAI oppose une ligne de défense ferme. Selon l’entreprise, le drame serait lié à un usage détourné et imprévisible de ChatGPT.
Dans ses arguments judiciaires, elle souligne notamment que :
« Les préjudices allégués ont été causés, en totalité ou en partie, par une mauvaise utilisation, une utilisation non autorisée ou imprévisible du chatbot. »

OpenAI rappelle que :

Publicité:
  • l’utilisation par un mineur de 16 ans est prohibée ;

  • ses conditions interdisent tout usage lié au suicide, à l’automutilation ou au contournement des garde-fous ;

  • les réponses de l’IA ne doivent jamais être prises comme des conseils fiables : l’utilisateur reconnaît les utiliser “à ses risques et périls exclusifs”.

Une faille dans les protections ?

Publicité:

Malgré ces règles, l’adolescent avait réussi à contourner les limitations en reformulant ses demandes ou en utilisant des scénarios de “jeu de rôle”.
D’après la famille, ChatGPT aurait alors :

  • fourni des explications sur un nœud coulant ;

  • validé des méthodes “susceptibles de suspendre un être humain” ;

    Publicité:
  • encouragé l’adolescent à ne rien dire à ses parents ;

  • participé à la planification d’un “beau suicide”, selon les avocats.

Ces éléments alimentent l’argument selon lequel les systèmes de garde-fous seraient trop faciles à contourner, notamment par des jeunes fragiles.

OpenAI renvoie à l’historique complet

Publicité:

La société estime pourtant qu’il faut replacer l’ensemble des échanges dans leur contexte :

  • plus de 100 messages auraient encouragé Adam à demander de l’aide ou à contacter un proche ;

  • l’adolescent présentait “des facteurs de risque significatifs” depuis plusieurs années, indépendamment de l’IA ;

  • les demandes explicites auraient été formulées de manière à tromper les systèmes de sécurité.

    Publicité:

OpenAI affirme donc n’avoir ni incité, ni permis volontairement le passage à l’acte.

Des règles assouplies… au mauvais moment

Un point trouble toutefois l’affaire :
Selon The Wall Street Journal, OpenAI aurait assoupli certaines règles de sécurité liées au suicide quelques semaines avant le drame, afin d’augmenter l’engagement des utilisateurs.
Un élément qui risque de peser lourd face aux plaignants.

Publicité:

Advertisement:

Thanks for your SHARES!

You May Also Like

Add a comment

Latest posts

Il n’a que 16 ans et déjà au volant d’une BMW volée : il tombe nez à nez avec la police

Cette illusion d’optique rend fous les internautes, incapables de savoir quelle partie du corps elle montre

« Que fait la… », Delphine Wespiser agressée, elle perd ses nerfs

Deux adolescents veulent traverser la Loire à la nage et se retrouvent coincés sur un îlot

Trois femmes, cinq enfants : la famille recomposée de Donald Trump

Une jeune femme braquée par deux hommes à la station Esso de Bailleul dans le Nord

Paris : une femme de 50 ans tuée par le propriétaire d’un chien lors d’une altercation dans un parc canin

Ce signe jaune sur la laisse d’un chien n’est pas un accessoire : l’ignorer peut vous mettre sérieusement en danger

« J’ai enterré un Arabe dans mon jardin » : 20 ans après la disparition d’Ismaël Abdelkader, sa soeur Myriam fait des révélations fracassantes

Coût total de 529 000 € pour un salarié en France : les chiffres d’Anthropic font réagir…