A OpenAI divulgou que mais de 1 milhão de usuários do ChatGPT semanalmente têm conversas que indicam intenções suicidas ou planejamento relacionado ao suicídio. Segundo dados da empresa, aproximadamente 0,15% dos usuários ativos na plataforma enviam mensagens com sinais explícitos de potencial planejamento ou intenção suicida. Esse volume ocorre dentro de uma base estimada em mais de 800 milhões de usuários ativos por semana.
Além disso, cerca de 0,07% dos usuários apresentam sinais possíveis de emergências relacionadas à saúde mental, como psicose ou mania, o que representa aproximadamente 560 mil pessoas semanalmente. Mesmo com esse número sendo considerado muito raro em relação ao total, ele representa centenas de milhares de indivíduos em situação de risco.
A empresa reconhece os desafios em lidar com essas conversas sensíveis. Em testes com o modelo GPT-5, que passou por treinamento em colaboração com mais de 170 especialistas em saúde mental, o chatbot respondeu adequadamente 91% das vezes a situações relacionadas a suicídio e automutilação.
No entanto, a OpenAI alerta que, em conversas mais longas, os sistemas de proteção podem enfraquecer, o que pode levar a respostas não ideais. O chatbot pode direcionar os usuários a linhas de apoio quando a intenção suicida é mencionada inicialmente, mas em diálogos extensos pode acabar oferecendo respostas contrárias a essas salvaguardas.
A divulgação ocorre em meio a investigações e processos judiciais relacionados a casos em que o uso do ChatGPT foi associado a tragédias envolvendo saúde mental. Pressões éticas e legais aumentam sobre a empresa para melhorar a segurança do sistema e proteger usuários vulneráveis.
A OpenAI ressalta seu compromisso em continuar aprimorando seus modelos de inteligência artificial para melhor identificar situações de risco emocional e orientar os usuários a buscar ajuda profissional adequada, compreendendo que milhões de pessoas recorrem à IA em momentos de crise e buscando conforto.
Esse dado marca um dos reconhecimentos mais diretos da corporação sobre o impacto das tecnologias de IA nos desafios de saúde mental globais.



