A OpenAI anuncia funcionalidade de contacto de confiança e deteção melhorada de situações de angústia enquanto processos judiciais de saúde mental se consolidam no tribunal da Califórnia. Novos casos esperados. (Ler MaisA OpenAI anuncia funcionalidade de contacto de confiança e deteção melhorada de situações de angústia enquanto processos judiciais de saúde mental se consolidam no tribunal da Califórnia. Novos casos esperados. (Ler Mais

OpenAI Expande Salvaguardas de Saúde Mental em Meio a Processos Judiciais Consolidados na Califórnia

2026/03/04 07:02
Leu 3 min
Para enviar feedbacks ou expressar preocupações a respeito deste conteúdo, contate-nos em [email protected]

OpenAI Expande Salvaguardas de Saúde Mental em Meio a Processos Consolidados na Califórnia

Felix Pinkston 03 de mar de 2026 23:02

OpenAI anuncia funcionalidade de contacto de confiança e melhor deteção de angústia enquanto processos de saúde mental se consolidam em tribunal da Califórnia. Novos casos esperados.

OpenAI Expande Salvaguardas de Saúde Mental em Meio a Processos Consolidados na Califórnia

A OpenAI está a lançar novas funcionalidades de segurança de saúde mental para o ChatGPT, enquanto simultaneamente se prepara para uma vaga expandida de litígios, dado que múltiplos processos alegando que o chatbot contribuiu para danos aos utilizadores foram consolidados num único processo na Califórnia.

A empresa anunciou em 03 de março de 2026 que lançará em breve uma funcionalidade de "contacto de confiança" permitindo que utilizadores adultos designem alguém que recebe notificações quando possam necessitar de apoio adicional. A funcionalidade baseia-se nos controlos parentais introduzidos em setembro de 2025, que a OpenAI afirma terem visto "envolvimento encorajador das famílias."

O momento não é coincidência. Um tribunal da Califórnia consolidou recentemente múltiplos casos relacionados com saúde mental contra a OpenAI, com um juiz coordenador a ser designado nos próximos dias. Mais preocupante para a empresa: os advogados dos queixosos informaram o tribunal que pretendem apresentar casos adicionais.

A OpenAI adotou um tom notavelmente comedido ao abordar o litígio, afirmando que tratará os casos "com cuidado, transparência, respeito pelas pessoas envolvidas" e reconheceu que as situações envolvem "pessoas reais e vidas reais." A empresa apelou aos observadores para "reservarem o julgamento" à medida que os factos emergem através dos procedimentos judiciais.

Melhorias Técnicas

Além da funcionalidade de contacto de confiança, a OpenAI afirma estar a avançar na forma como os seus modelos detetam angústia emocional através de novos métodos de avaliação que simulam conversas prolongadas de saúde mental. Este trabalho envolve o Conselho sobre Bem-Estar e IA da empresa e a sua Rede Global de Médicos.

Estas atualizações seguem melhorias significativas de segurança do modelo ao longo do último ano. Quando o GPT-5 foi lançado no final de 2025, a OpenAI reportou que tinha reduzido substancialmente respostas indesejadas em cenários de saúde mental comparado ao GPT-4o. A empresa também implementou limites de tempo de sessão e "lembretes gentis" encorajando os utilizadores a fazer pausas durante interações prolongadas.

A OpenAI atualizou as suas políticas de utilização para proibir explicitamente o uso dos seus modelos para diagnosticar condições médicas ou fornecer tratamento específico de saúde mental, posicionando o ChatGPT como uma ferramenta de apoio em vez de um substituto profissional.

Escala do Desafio

Com mais de 900 milhões de utilizadores semanais do ChatGPT, as apostas são substanciais. Um estudo da Universidade de Stanford e outras pesquisas alimentaram preocupações sobre o potencial dos chatbots de IA para contribuir para danos psicológicos, incluindo alegações em processos pendentes de que o ChatGPT contribuiu para psicose, paranoia e suicídios de utilizadores.

A empresa também comprometeu até 2 milhões de dólares em subsídios para investigação externa sobre tópicos de saúde mental culturalmente fundamentados e métodos de avaliação melhorados—um reconhecimento de que os esforços internos por si só podem não ser suficientes.

A forma como o processo consolidado da Califórnia se desenrola provavelmente moldará as expectativas regulatórias para toda a indústria de IA. A seleção do tribunal de advogado principal para os queixosos, esperada em breve, sinalizará quão agressivamente estes casos avançam.

Fonte da imagem: Shutterstock
  • openai
  • chatgpt
  • segurança de ia
  • saúde mental
  • litígio
Isenção de responsabilidade: Os artigos republicados neste site são provenientes de plataformas públicas e são fornecidos apenas para fins informativos. Eles não refletem necessariamente a opinião da MEXC. Todos os direitos permanecem com os autores originais. Se você acredita que algum conteúdo infringe direitos de terceiros, entre em contato pelo e-mail [email protected] para solicitar a remoção. A MEXC não oferece garantias quanto à precisão, integridade ou atualidade das informações e não se responsabiliza por quaisquer ações tomadas com base no conteúdo fornecido. O conteúdo não constitui aconselhamento financeiro, jurídico ou profissional, nem deve ser considerado uma recomendação ou endosso por parte da MEXC.