OpenAI annonce une fonctionnalité de contact de confiance et une détection améliorée de la détresse alors que les poursuites judiciaires en matière de santé mentale se consolident devant un tribunal californien. De nouvelles affaires sont attendues. (En savoir plusOpenAI annonce une fonctionnalité de contact de confiance et une détection améliorée de la détresse alors que les poursuites judiciaires en matière de santé mentale se consolident devant un tribunal californien. De nouvelles affaires sont attendues. (En savoir plus

OpenAI renforce ses mesures de protection en santé mentale dans le cadre de procès consolidés en Californie

2026/03/04 07:02
Temps de lecture : 4 min
Pour tout commentaire ou toute question concernant ce contenu, veuillez nous contacter à l'adresse suivante : [email protected]

OpenAI élargit les mesures de protection de la santé mentale dans le cadre de poursuites consolidées en Californie

Felix Pinkston 03 mars 2026 23h02

OpenAI annonce une fonctionnalité de contact de confiance et une détection améliorée de la détresse alors que les poursuites en matière de santé mentale se consolident devant les tribunaux californiens. De nouvelles affaires sont attendues.

OpenAI élargit les mesures de protection de la santé mentale dans le cadre de poursuites consolidées en Californie

OpenAI déploie de nouvelles fonctionnalités de sécurité en matière de santé mentale pour ChatGPT tout en se préparant simultanément à une vague élargie de litiges, alors que plusieurs poursuites alléguant que le chatbot a contribué à des préjudices pour les utilisateurs ont été consolidées en une seule procédure californienne.

La société a annoncé le 3 mars 2026 qu'elle lancera prochainement une fonctionnalité de « contact de confiance » permettant aux utilisateurs adultes de désigner quelqu'un qui reçoit des notifications lorsqu'ils pourraient avoir besoin d'un soutien supplémentaire. Cette fonctionnalité s'appuie sur les contrôles parentaux introduits en septembre 2025, qui, selon OpenAI, ont suscité « un engagement encourageant de la part des familles ».

La pression juridique s'intensifie

Le timing n'est pas fortuit. Un tribunal californien a récemment consolidé plusieurs affaires liées à la santé mentale contre OpenAI, avec un juge de coordination qui sera désigné dans les prochains jours. Plus troublant pour l'entreprise : les avocats des plaignants ont informé le tribunal qu'ils avaient l'intention de déposer des affaires supplémentaires.

OpenAI a adopté un ton nettement mesuré en abordant le litige, déclarant qu'elle traiterait les affaires « avec soin, transparence, respect pour les personnes impliquées » et a reconnu que les situations impliquent « de vraies personnes et de vraies vies ». L'entreprise a exhorté les observateurs à « suspendre leur jugement » à mesure que les faits émergent par le biais des procédures judiciaires.

Améliorations techniques

Au-delà de la fonctionnalité de contact de confiance, OpenAI affirme qu'elle améliore la façon dont ses modèles détectent la détresse émotionnelle grâce à de nouvelles méthodes d'évaluation qui simulent des conversations prolongées sur la santé mentale. Ce travail implique le Conseil sur le bien-être et l'IA de l'entreprise ainsi que son réseau mondial de médecins.

Ces mises à jour font suite à des améliorations significatives de la sécurité des modèles au cours de l'année écoulée. Lorsque GPT-5 a été lancé fin 2025, OpenAI a signalé qu'il avait considérablement réduit les réponses indésirables dans les scénarios de santé mentale par rapport à GPT-4o. L'entreprise a également mis en place des limites de temps de session et des « rappels doux » encourageant les utilisateurs à faire des pauses pendant les interactions prolongées.

OpenAI a mis à jour ses politiques d'utilisation pour interdire explicitement l'utilisation de ses modèles pour diagnostiquer des conditions médicales ou fournir un traitement spécifique de santé mentale, positionnant ChatGPT comme un outil de soutien plutôt qu'un substitut professionnel.

L'ampleur du défi

Avec plus de 900 millions d'utilisateurs hebdomadaires de ChatGPT, les enjeux sont considérables. Une étude de l'université de Stanford et d'autres recherches ont alimenté les inquiétudes concernant le potentiel des chatbots pilotés par l'IA à contribuer aux préjudices psychologiques, y compris les allégations dans les poursuites en cours selon lesquelles ChatGPT aurait contribué à la psychose, la paranoïa et aux suicides d'utilisateurs.

L'entreprise s'est également engagée à verser jusqu'à 2 millions de dollars en subventions pour la recherche externe sur des sujets de santé mentale culturellement ancrés et des méthodes d'évaluation améliorées — une reconnaissance que les efforts internes seuls pourraient ne pas suffire.

La façon dont la procédure californienne consolidée se déroulera façonnera probablement les attentes réglementaires pour l'ensemble de l'industrie de l'IA. La sélection par le tribunal de l'avocat principal pour les plaignants, attendue prochainement, signalera avec quelle agressivité ces affaires progresseront.

Source de l'image : Shutterstock
  • openai
  • chatgpt
  • sécurité de l'IA
  • santé mentale
  • litige
Clause de non-responsabilité : les articles republiés sur ce site proviennent de plateformes publiques et sont fournis à titre informatif uniquement. Ils ne reflètent pas nécessairement les opinions de MEXC. Tous les droits restent la propriété des auteurs d'origine. Si vous estimez qu'un contenu porte atteinte aux droits d'un tiers, veuillez contacter [email protected] pour demander sa suppression. MEXC ne garantit ni l'exactitude, ni l'exhaustivité, ni l'actualité des contenus, et décline toute responsabilité quant aux actions entreprises sur la base des informations fournies. Ces contenus ne constituent pas des conseils financiers, juridiques ou professionnels, et ne doivent pas être interprétés comme une recommandation ou une approbation de la part de MEXC.