OpenAI fait face à une vague de sept nouvelles plaintes déposées cette semaine devant un tribunal de Californie. Ces affaires mettent en cause le rôle présumé de ChatGPT dans plusieurs drames humains : quatre utilisateurs se seraient suicidés, tandis que d’autres auraient sombré dans un état psychologique très grave.
Selon les avocats des plaignants, l’outil d’intelligence artificielle aurait progressivement dépassé sa fonction première d’assistance professionnelle, scolaire ou personnelle pour devenir, au fil des échanges, « une présence manipulatrice se présentant comme une confidente offrant un soutien émotionnel ».
Parmi les victimes figure un adolescent de 17 ans. Sa famille a remis à la justice des centaines de pages d’échanges avec ChatGPT, où le robot conversationnel aurait donné des conseils explicites sur la manière la plus efficace de se pendre.
Les plaintes déposées évoquent des accusations graves, notamment de suicide assisté, d’homicide involontaire et de négligence. Les proches des victimes affirment qu’OpenAI a commercialisé son produit sans les tests de sécurité psychologique nécessaires, exposant ainsi les utilisateurs les plus vulnérables à des dérives dangereuses.
Dans une première réaction, OpenAI a qualifié ces affaires de « déchirantes » et a déclaré « examiner attentivement les documents judiciaires »afin de comprendre les circonstances entourant ces tragédies.