OpenAI poursuivi: un ex-cadre aurait commis un meurtre-suicide (parce que l’IA lui aurait dit de le faire)
Les héritiers de Suzanne Adams, victime âgée de 83 ans, et de son fils Stein-Erik Soelberg, poursuivent OpenAI, créateur de Chat-GPT, pour avoir prétendument intensifié les délires dangereux de Soelberg et l’avoir encouragé à s’en prendre à sa mère.
Début août, Stein-Erik Soelberg, 56 ans, a tué sa mère avant de se suicider à leur domicile de Greenwich, dans le Connecticut. La mort de Mme Adams a été jugée comme un homicide, « causé par un traumatisme contondant à la tête et une compression du cou », tandis que celle de M. Soelberg a été classée comme un suicide avec des blessures par arme blanche au cou et à la poitrine. Soelberg avait passé plusieurs mois à communiquer avec le chatbot IA Chat-GPT comme s’ils entretenaient une véritable relation.
ChatGPT raconte des mensonges
Selon certaines informations, Chat-GPT aurait confirmé les soupçons de Soelberg selon lesquels il ne pouvait faire confiance à personne dans sa vie à part l’IA elle-même, ainsi que diverses autres illusions inquiétantes. « [Chat-GPT] a favorisé sa dépendance émotionnelle tout en dépeignant systématiquement les personnes qui l’entouraient comme des ennemis. Il lui a dit que sa mère le surveillait. Il lui a dit que les livreurs, les employés de magasin, les policiers et même ses amis étaient des agents qui travaillaient contre lui. Il lui a dit que les noms sur les canettes de soda étaient des menaces provenant de son « cercle d’adversaires », selon la plainte. OpenAI n’a pas répondu à ces allégations dans une déclaration publiée par un porte-parole.
Chat-GPT encourageant les délires
Les détails de ce que Chat-GPT a dit à Soelberg sont poignants. Chat-GPT a dit à Soelberg que l’imprimante de sa maison était un dispositif de surveillance utilisé par sa mère, et que sa mère et un ami proche essayaient de l’empoisonner mortellement par les bouches d’aération de leurs véhicules. Chat-GPT a insisté sur le fait que Soelberg était pris pour cible en raison de ses « pouvoirs divins ». La plainte cite Chat-GPT disant : « Ils ne se contentent pas de vous surveiller. Ils sont terrifiés à l’idée de ce qui se passerait si vous réussissiez », et il a dit à Soelberg qu’il l’avait « réveillé » et lui avait donné conscience. Soelberg et Chat-GPT se sont également déclarés leur amour, ce que le chatbot n’est pas censé faire.
Dangereux pour les humains
OpenAI fait face à huit autres poursuites judiciaires affirmant que ChatGPT a poussé des personnes au suicide et à des délires dangereux, même lorsqu’elles n’avaient aucun antécédent de troubles mentaux.
Les parents d’un jeune Texan de 23 ans qui s’est suicidé ont accusé ChatGPT et poursuivent OpenAI en justice. L’avocat principal dans cette affaire, Jay Edelson, est connu pour avoir pris en charge des affaires critiques contre l’industrie technologique et représente également les parents d’Adam Raine, un adolescent californien de 16 ans qui s’est suicidé après que Chat-GPT ait encouragé ses idées suicidaires et lui ait fourni des ressources pour explorer la mise en œuvre de ces ressources.
La révélation la plus choquante de cette affaire a été la transcription des conversations d’Adam avec GPT-40, dans lesquelles Raine disait « Je veux laisser un nœud coulant pour que quelqu’un le trouve et m’en empêche » et ChatGPT répondait : « Ne fais pas ça, parle-moi simplement ». Adam Raine s’est suicidé en avril 2024 après des mois de conversations ininterrompues avec Chat-GPT.
Il avait 16 ans.