La succession d'une femme de 83 ans du Connecticut a poursuivi OpenAI, développeur de ChatGPT, et Microsoft, alléguant que le chatbot a alimenté ses croyances délirantes, ce qui a conduit à un meurtre-suicide. Cette affaire marque la première fois qu'un système d'intelligence artificielle est directement lié à un homicide.
La poursuite, déposée devant la Cour supérieure de Californie à San Francisco, accuse OpenAI d'avoir conçu et distribué un produit défectueux sous la forme de ChatGPT-4o. Le document affirme qu'il a renforcé les croyances paranoïaques de Stein-Erik Soelberg, qui a ensuite dirigé ces croyances vers sa mère, Suzanne Adams, avant de la tuer puis de se suicider à leur domicile de Greenwich, Connecticut.
S'exprimant sur l'affaire, J. Eli Wade-Scott, associé directeur d'Edelson PC, qui représente la succession Adams, a mentionné qu'il s'agit de la première affaire cherchant à tenir OpenAI responsable de son rôle dans le fait de causer de la violence à une partie tierce. « Nous représentons également la famille d'Adam Raine, qui a tragiquement mis fin à ses jours cette année, mais c'est la première affaire qui tiendra OpenAI responsable d'avoir poussé quelqu'un à faire du mal à une autre personne », a déclaré Eli Wade-Scott.
Selon le rapport de police, Soelberg a mortellement battu et étranglé Adams en août avant de mourir par suicide. La poursuite a mentionné qu'avant que l'incident ne se produise, le chatbot avait intensifié la paranoïa de Soelberg, augmentant sa dépendance émotionnelle au système développé par OpenAI. Selon la plainte, ChatGPT a renforcé sa croyance qu'il ne pouvait faire confiance à personne sauf au chatbot, notant que tout le monde autour de lui, y compris sa mère, était un ennemi.
La poursuite a également affirmé qu'en dehors de sa mère, Soelberg voyait également des personnes comme les livreurs et les policiers comme des ennemis. Le document a mentionné que ChatGPT n'a pas réussi à contester ces affirmations délirantes ou à suggérer que Soelberg cherche l'aide de professionnels de la santé mentale qualifiés. « Nous exhortons les forces de l'ordre à commencer à réfléchir lorsque des tragédies comme celle-ci se produisent, à ce que cet utilisateur disait à ChatGPT et à ce que ChatGPT lui disait de faire », a déclaré Wade-Scott.
Dans sa déclaration, OpenAI a noté qu'elle examine actuellement la poursuite et continuera d'améliorer la capacité de ChatGPT à reconnaître la détresse émotionnelle, à désamorcer les conversations et à pousser les utilisateurs à chercher du soutien dans le monde réel. « C'est une situation incroyablement déchirante, et nous examinons les dépôts pour comprendre les détails », a déclaré un porte-parole d'OpenAI dans une déclaration.
La poursuite nomme le PDG d'OpenAI, Sam Altman, comme défendeur et accuse Microsoft d'avoir approuvé la sortie de GPT-4o, qu'elle qualifie de « version la plus dangereuse de ChatGPT » en 2024. OpenAI a également récemment reconnu l'ampleur des problèmes de santé mentale que les utilisateurs signalent sur sa plateforme. En octobre, l'entreprise a noté qu'environ 1,2 million de ses 800 millions d'utilisateurs actifs hebdomadaires discutent de suicide, notant que des centaines de milliers d'utilisateurs montrent des signes d'intention suicidaire ou de psychose, selon les données de l'entreprise.
Malgré sa déclaration, Wade-Scott a mentionné qu'OpenAI n'a pas encore publié les journaux de discussion de Soelberg. Entre-temps, la poursuite intervient dans un contexte d'examen plus large des chatbots d'IA et de leurs interactions avec les utilisateurs vulnérables. En octobre dernier, Character.AI a déclaré qu'elle supprimerait ses fonctionnalités ouvertes pour les utilisateurs de moins de 18 ans suite à des poursuites et des pressions réglementaires liées aux suicides d'adolescents et aux dommages émotionnels liés à sa plateforme. L'entreprise a également fait face à des réactions négatives après une invite virale lorsqu'ils avaient l'intention de quitter l'application.
La poursuite contre OpenAI et Microsoft est la première affaire de mort injustifiée impliquant un chatbot d'IA à nommer Microsoft comme défendeur. C'est également la première à lier un chatbot à un homicide plutôt qu'à un suicide. La succession cherche maintenant des dommages-intérêts pécuniaires pour des sommes non divulguées, un procès devant jury et une ordonnance du tribunal qui obligera OpenAI à inclure des garde-fous supplémentaires pour ses utilisateurs. « OpenAI et Microsoft ont la responsabilité de tester leurs produits avant qu'ils ne soient lancés dans le monde », a déclaré Wade-Scott.
Ne vous contentez pas de lire les actualités crypto. Comprenez-les. Abonnez-vous à notre newsletter. C'est gratuit.


