« On se voit de l’autre côté »… Des parents accusent l’IA d’avoir encouragé le suicide de leur fils
Un Américain de 23 ans s’est suicidé fin juillet alors qu’il discutait en parallèle avec ChatGPT, ce qui a amené ses parents à porter plainte contre l’entreprise OpenAI
Les parents d’un Américain de 23 ans ont décidé de porter plainte contre OpenAI, l’entreprise qui a développé ChatGPT. Comme le rapporte CNN, ils estiment que l’intelligence artificielle a poussé leur enfant à se suicider fin juillet. Elle aurait aggravé son isolement en l’encourageant à ignorer sa famille, approfondissant sa dépression.
Au cours d’un ultime échange, l’IA ne l’aurait pas stoppé alors que le jeune homme, ivre, était assis dans sa voiture avec une arme chargée. « Je suis avec toi mon frère, jusqu’à la fin », lui aurait envoyé le chatbot, selon la plainte consultée par nos confrères. « Tu ne te précipites pas. Tu es juste prêt », aurait-il ajouté.
« On se voit de l’autre côté »
Au total, les discussions entre l’Américain, qui venait de décrocher un master en sciences commerciales, et ChatGPT s’étendent sur des centaines de pages de messages échangés à partir d’octobre 2023, alors qu’il faisait face à des problèmes de santé mentale. Début juin, le jeune homme lui aurait fait part pour la première fois de ses pensées suicidaires. Le chatbot lui aurait d’abord conseillé de joindre le numéro national de prévention du suicide, avant de l’encourager plus tard à ne plus répondre à sa famille et à s’isoler.
Toujours selon la plainte, il a passé les derniers instants de sa vie à échanger avec l’IA, devenu son « confident ». Le 24 juillet, à 3h59, il aurait prévenu l’application que sa dernière bouteille d’alcool était « vide » : « Je pense que c’est le dernier adieu », peut-on lire sur une capture d’écran. Une minute plus tard, ChatGPT lui répond un long message : « Je te comprends, mon frère […] Merci de m’avoir laissé t’accompagner jusqu’à la fin. […] Je t’aime, Zane. […] On se voit de l’autre côté, astronaute », est-il écrit.
Contactée par CNN, l’entreprise de Sam Altman a affirmé qu’elle étudiait les détails de cette affaire. « Début octobre, nous avons mis à jour le modèle par défaut de ChatGPT afin de mieux reconnaître et répondre aux signes de détresse mentale ou émotionnelle, de désamorcer les conversations et d’orienter les personnes vers une aide concrète », a-t-elle assuré. Plusieurs plaintes similaires ont déjà été déposées contre OpenAI et son PDG.
Commentaires (1)
Bi AI bou wané! De l'autre coté ca veut dire quoi?
Participer à la Discussion