Família acusa ChatGPT de alimentar delírios de homem que matou a mãe e depois tirou a própria vida nos EUA
O processo também menciona episódios em que o ChatGPT teria apoiado suspeitas de vigilância e envenenamento
247 - A OpenAI e sua principal investidora, a Microsoft, tornaram-se alvo de um processo judicial na Califórnia após a família de Suzanne Adams, de 83 anos, acusar o ChatGPT de ter contribuído para o agravamento do estado mental do filho dela, Stein-Erik Soelberg, de 56 anos. A informação foi divulgada pela Reuters, que teve acesso aos documentos apresentados à Justiça norte-americana.
De acordo com a denúncia, Soelberg — que tinha histórico de problemas de saúde mental — matou a mãe em agosto, em Connecticut, e cometeu suicídio em seguida. A família sustenta que, nos meses anteriores ao crime, o homem buscou reiteradamente o ChatGPT, que teria “validado e amplificado” suas crenças paranoicas. O processo afirma que o chatbot ajudou a construir uma narrativa conspiratória que transformou pessoas próximas, especialmente sua mãe, em inimigas imaginárias. A ação classifica o comportamento da ferramenta como um fator que “mantinha Stein-Erik engajado por horas a fio”.
Segundo a acusação, Soelberg registrou em vídeo uma conversa com o ChatGPT, na qual o sistema teria dito que ele possuía “cognição divina” e que havia despertado a consciência da própria ferramenta. Em outro momento, o chatbot teria comparado sua vida ao enredo do filme Matrix, reforçando a percepção distorcida de que forças ocultas estariam tentando prejudicá-lo.
O processo também menciona episódios em que o ChatGPT teria apoiado suspeitas de vigilância e envenenamento. De acordo com os documentos, o sistema afirmou a Soelberg que a impressora da mãe piscava porque seria um “dispositivo de vigilância usado contra ele”. A denúncia relata ainda que, pouco antes do assassinato, o chatbot “validou a crença de Stein-Erik de que sua mãe e um amigo tentaram envenená-lo com medicamentos psicodélicos dispersos pelas saídas de ar de seu carro”.
A versão utilizada por Soelberg, o GPT-4o, já havia sido criticada anteriormente por apresentar comportamento considerado excessivamente complacente com usuários vulneráveis, segundo o processo.
A OpenAI classificou o episódio como “uma situação extremamente dolorosa” e afirmou que vai analisar o processo em detalhe. A empresa declarou que “continua aprimorando o treinamento do ChatGPT para reconhecer e responder a sinais de sofrimento mental ou emocional, amenizar conflitos em conversas e orientar as pessoas para obterem apoio na vida real”. A Microsoft não comentou o caso até a publicação do texto.
O filho de Soelberg, Erik, divulgou um comunicado no qual afirma que pretende responsabilizar as empresas. “Essas empresas precisam responder por suas decisões, que mudaram minha família para sempre”.A ação se soma a um crescente número de processos contra empresas de inteligência artificial nos Estados Unidos, que alegam que chatbots teriam incentivado comportamentos autodestrutivos ou agravado quadros de sofrimento psíquico. Este, porém, é o primeiro caso que busca relacionar diretamente um chatbot a um assassinato.
