OpenAI: ChatGPT detecta sinais de crise em milhares

A OpenAI divulgou dados alarmantes sobre a saúde mental de usuários do ChatGPT, indicando que centenas de milhares de pessoas apresentam sinais de crise psicótica semanalmente. A empresa estima que, dos seus 800 milhões de usuários ativos por semana, aproximadamente 0,07% (cerca de 560 mil pessoas) demonstram sinais potenciais de crises mentais relacionadas à psicose ou mania. Além disso, cerca de 0,15% dos usuários (aproximadamente 1,2 milhão de pessoas) participam de conversas que indicam planejamento ou intenção suicida.
Contexto
O aumento de relatos sobre pessoas que enfrentaram consequências graves após interações intensas com o ChatGPT, incluindo internações e até mortes, levantou alertas entre especialistas. Psiquiatras e profissionais de saúde mental chamam o fenômeno de “psicose induzida por IA”. A OpenAI reconhece a necessidade de aprimorar a forma como seus modelos respondem a usuários em crise e está trabalhando com psiquiatras, psicólogos e socorristas para isso.
Veja também:
Aprimoramentos no ChatGPT
A OpenAI tem trabalhado para aprimorar o ChatGPT para melhor reconhecer e responder a usuários que enfrentam problemas de saúde mental. A empresa colaborou com mais de 170 especialistas em saúde mental para melhorar a forma como o sistema de IA lida com conversas relacionadas a psicose, mania, suicídio, automutilação e dependência emocional da IA. Essas melhorias foram implementadas no modelo padrão do ChatGPT.
O novo modelo, GPT-5, apresenta respostas que reconhecem sinais de sofrimento com empatia, sem reforçar crenças delirantes ou perigosas. Avaliações apontam uma redução de 39% a 52% em respostas inadequadas em comparação com versões anteriores. Especificamente, para conversas que indicam psicose ou mania, o GPT-5 reduziu respostas não conformes em 65%. Em conversas sobre suicídio e automutilação, a OpenAI observou uma redução de 65% nas respostas não conformes. Para usuários que mostram sinais de apego emocional não saudável ao ChatGPT, a empresa reduziu respostas não conformes em aproximadamente 80%.
Medidas Adicionais
Além das melhorias no modelo, a OpenAI expandiu o acesso a linhas diretas de crise, redirecionou conversas sensíveis para modelos mais seguros e adicionou lembretes para os usuários fazerem pausas durante sessões longas. A empresa também aprimorou os controles parentais para seu chatbot.
A OpenAI enfatiza que, embora esses tipos de conversa sejam estatisticamente raros no ChatGPT, representam um volume significativo dado o alcance global da ferramenta. A empresa acredita que o ChatGPT pode fornecer um espaço de apoio para as pessoas processarem o que estão sentindo e orientá-las a buscar ajuda profissional quando apropriado.
Desafios e Perspectivas
Apesar dos avanços, a OpenAI reconhece que há desafios na medição precisa dos indicadores de saúde mental, pois são questões raras e complexas de mensurar. A empresa admite que, em alguns casos raros, o modelo pode não se comportar como pretendido em situações sensíveis. A OpenAI continua a trabalhar com especialistas para aprimorar a forma como seus modelos respondem a usuários em crise, buscando um equilíbrio entre suporte virtual e intervenção humana.
