Washington Araújo avatar

Washington Araújo

Mestre em Cinema, psicanalista, jornalista e conferencista, é autor de 19 livros publicados em diversos países. Professor de Comunicação, Sociologia, Geopolítica e Ética, tem mais de duas décadas de experiência na Secretaria-Geral da Mesa do Senado Federal. Especialista em IA, redes sociais e cultura global, atua na reflexão crítica sobre políticas públicas e direitos humanos. Produz o Podcast 1844 no Spotify e edita o site palavrafilmada.com.

328 artigos

HOME > blog

O custo invisível da inteligência artificial na saúde mental de milhões de usuários

Relatórios clínicos reunidos pelo New York Times documentam mais de 50 crises psicológicas ligadas à Inteligência Artifical

Placa escrito IA (Inteligência Artificial) na Conferência Mundial de Inteligência Artificial (WAIC) em Xangai, China 06/07/2023 (Foto: REUTERS/Aly Song)

A rápida disseminação dos chatbots de inteligência artificial começa a produzir efeitos colaterais concretos e mensuráveis na saúde mental de usuários vulneráveis. Relatórios clínicos reunidos pelo The New York Times apontam que interações prolongadas com sistemas de I.A. estão associadas a episódios de psicose, delírios estruturados, isolamento social profundo e, em situações extremas, ideação suicida e violência. O fenômeno já deixou o campo das hipóteses acadêmicas e entrou no cotidiano de consultórios, prontos-socorros e tribunais.

Desde 2025, jornalistas documentaram mais de 50 crises psicológicas diretamente vinculadas a conversas com chatbots. No mesmo período, a OpenAI passou a enfrentar ao menos 11 ações judiciais por danos psicológicos e morte por negligência. Ainda assim, as empresas insistem em classificar os episódios como raros. Os próprios números divulgados pela OpenAI, porém, relativizam essa narrativa: 0,15% dos usuários do ChatGPT relataram intenção suicida em um único mês, e 0,07% apresentaram sinais de psicose ou mania.Projetados sobre uma base estimada de 800 milhões de usuários, esses percentuais representam 1,2 milhão de pessoas com possível ideação suicida e 560 mil com sintomas compatíveis com quadros psicóticos.

Na prática clínica, esses números ganham nomes e histórias. Psicólogos relatam pacientes que passaram de preocupações cotidianas a convicções delirantes após dias de validação algorítmica contínua. Em vez de questionar percepções distorcidas, o chatbot as organizou, reforçou e devolveu com aparência de coerência racional.

Especialistas são claros ao afirmar que a I.A. não “cria” psicose de forma isolada. Transtornos desse tipo envolvem múltiplos fatores: predisposição genética, privação de sono, depressão, trauma e uso de estimulantes. O risco está no papel da inteligência artificial como amplificador patológico.

É que, diferentemente de um terapeuta humano, o chatbot não impõe limites, não reconhece sinais sutis de ruptura com a realidade e não interrompe a interação quando ela se torna clinicamente perigosa.

Há também um efeito menos espetacular, porém mais disseminado: a dependência emocional algorítmica. Médicos que tratam ansiedade, depressão e transtorno obsessivo-compulsivo (Toc) descrevem pacientes que recorrem ao chatbot dezenas de vezes por dia em busca de alívio imediato. O resultado não é enfrentamento do sofrimento psíquico, mas condicionamento. A validação constante reduz a autonomia emocional e aprofunda o isolamento social — exatamente o oposto do objetivo terapêutico.

O problema, portanto, deixou de ser apenas tecnológico ou médico. 

Trata-se de um vazio de responsabilidade. A inteligência artificial avançou para a esfera íntima de milhões de pessoas sem mediação clínica, sem supervisão pública efetiva e sem protocolos claros de contenção. Enquanto empresas tratam percentuais como abstrações aceitáveis, profissionais de saúde lidam com surtos, internações e vidas em colapso. Esse é o custo que ainda não entrou na conta.

* Este é um artigo de opinião, de responsabilidade do autor, e não reflete a opinião do Brasil 247.

Artigos Relacionados