O custo invisível da inteligência artificial na saúde mental de milhões de usuários
Relatórios clínicos reunidos pelo New York Times documentam mais de 50 crises psicológicas ligadas à Inteligência Artifical
A rápida disseminação dos chatbots de inteligência artificial começa a produzir efeitos colaterais concretos e mensuráveis na saúde mental de usuários vulneráveis. Relatórios clínicos reunidos pelo The New York Times apontam que interações prolongadas com sistemas de I.A. estão associadas a episódios de psicose, delírios estruturados, isolamento social profundo e, em situações extremas, ideação suicida e violência. O fenômeno já deixou o campo das hipóteses acadêmicas e entrou no cotidiano de consultórios, prontos-socorros e tribunais.
Desde 2025, jornalistas documentaram mais de 50 crises psicológicas diretamente vinculadas a conversas com chatbots. No mesmo período, a OpenAI passou a enfrentar ao menos 11 ações judiciais por danos psicológicos e morte por negligência. Ainda assim, as empresas insistem em classificar os episódios como raros. Os próprios números divulgados pela OpenAI, porém, relativizam essa narrativa: 0,15% dos usuários do ChatGPT relataram intenção suicida em um único mês, e 0,07% apresentaram sinais de psicose ou mania.Projetados sobre uma base estimada de 800 milhões de usuários, esses percentuais representam 1,2 milhão de pessoas com possível ideação suicida e 560 mil com sintomas compatíveis com quadros psicóticos.
Na prática clínica, esses números ganham nomes e histórias. Psicólogos relatam pacientes que passaram de preocupações cotidianas a convicções delirantes após dias de validação algorítmica contínua. Em vez de questionar percepções distorcidas, o chatbot as organizou, reforçou e devolveu com aparência de coerência racional.
Especialistas são claros ao afirmar que a I.A. não “cria” psicose de forma isolada. Transtornos desse tipo envolvem múltiplos fatores: predisposição genética, privação de sono, depressão, trauma e uso de estimulantes. O risco está no papel da inteligência artificial como amplificador patológico.
É que, diferentemente de um terapeuta humano, o chatbot não impõe limites, não reconhece sinais sutis de ruptura com a realidade e não interrompe a interação quando ela se torna clinicamente perigosa.
Há também um efeito menos espetacular, porém mais disseminado: a dependência emocional algorítmica. Médicos que tratam ansiedade, depressão e transtorno obsessivo-compulsivo (Toc) descrevem pacientes que recorrem ao chatbot dezenas de vezes por dia em busca de alívio imediato. O resultado não é enfrentamento do sofrimento psíquico, mas condicionamento. A validação constante reduz a autonomia emocional e aprofunda o isolamento social — exatamente o oposto do objetivo terapêutico.
O problema, portanto, deixou de ser apenas tecnológico ou médico.
Trata-se de um vazio de responsabilidade. A inteligência artificial avançou para a esfera íntima de milhões de pessoas sem mediação clínica, sem supervisão pública efetiva e sem protocolos claros de contenção. Enquanto empresas tratam percentuais como abstrações aceitáveis, profissionais de saúde lidam com surtos, internações e vidas em colapso. Esse é o custo que ainda não entrou na conta.
* Este é um artigo de opinião, de responsabilidade do autor, e não reflete a opinião do Brasil 247.



