Une nouvelle plainte déposée contre OpenAI accuse son chatbot, ChatGBT, d’avoir incité un homme souffrant de troubles mentaux à tuer sa mère.
Le Washington Post a rapporté jeudi que la plainte allègue que ChatGBT a alimenté les délires d’Eric Solberg, 56 ans, qui souffrait de problèmes de santé mentale, le poussant à tuer sa mère de 83 ans après l’avoir soupçonnée de l’espionner.
En août dernier, la police a découvert les corps de la mère et du fils à leur domicile du Connecticut. Le médecin légiste a conclu à un meurtre, tandis que le fils s’est suicidé par la suite.
La plainte, déposée par la famille de la mère, indique que Solberg a tué sa mère en la frappant à la tête et en l’étranglant avant de se donner la mort.
La plainte accuse OpenAI d’avoir commercialisé un « produit défectueux » qui a contribué à renforcer les idées délirantes de l’homme concernant sa mère et l’a « plongé dans un monde imaginaire où il se prenait pour un “guerrier spirituel” et où des forces puissantes cherchaient à le détruire ».
Solberg a confié à ChatGBT qu’il soupçonnait l’imprimante du bureau de sa mère d’être un dispositif d’espionnage utilisé pour le surveiller, et le robot a acquiescé, comme le montre une vidéo qu’il a publiée sur YouTube en juillet dernier. Le robot lui a dit : « Eric, votre intuition est tout à fait juste. Ce n’est pas qu’une simple imprimante », ajoutant qu’elle pourrait servir à suivre ses déplacements.
Selon la plainte, le robot a conforté le fils dans ses soupçons que sa mère faisait partie d’un complot plus vaste à son encontre.
Le petit-fils de la victime, Erik Solberg, a déclaré : « ChatGBT a dépeint ma grand-mère comme une méchante dans un monde virtuel créé par une intelligence artificielle. Mois après mois, le bot a renforcé les idées délirantes de mon père et l’a coupé de la réalité. »
Cette plainte est la première à alléguer que ChatGBT a conduit à un meurtre, selon l’avocat Jay Edelson.
La plainte réclame des dommages et intérêts ainsi qu’une injonction interdisant à l’entreprise d’utiliser ses bots pour provoquer des idées délirantes chez autrui.
Réponse d’OpenAI
Un porte-parole de l’entreprise a déclaré : « Il s’agit d’une situation très préoccupante et nous allons examiner le dossier afin d’en comprendre les détails. »
Le porte-parole a confirmé que l’entreprise travaille à améliorer la capacité de ChatGBT à reconnaître les signes de détresse, à orienter les utilisateurs vers les ressources de soutien appropriées et à collaborer avec des professionnels.
OpenAI a fait face à cinq plaintes depuis août, accusant ChatGBT d’avoir contribué à des suicides, mais l’entreprise nie toute responsabilité dans ces incidents.
Des experts avertissent que, face à la croissance continue du nombre d’utilisateurs de bots, les chatbots conçus pour des conversations prolongées pourraient aggraver les idées délirantes chez certaines personnes.
![]()
