Quando quem constrói a IA decide sair
Ao deixar a Anthropic, pesquisador expõe dilema ético da indústria de IA e questiona se segurança pode ser subordinada à lógica de mercado
A carta que circulou no início de fevereiro de 2026, escrita por um pesquisador que anunciou sua saída da Anthropic, responsável pelo assistente Claude, não é apenas um adeus corporativo, mas um alerta público.
O autor da carta é Mrinank Sharma, pesquisador da área de segurança em inteligência artificial que integrava a equipe da Anthropic e trabalhava com temas ligados a alinhamento e mitigação de riscos em modelos de larga escala.
O autor afirma que entrou na empresa com um objetivo claro: trabalhar com segurança em inteligência artificial. Não queria apenas criar sistemas mais rápidos ou mais eficientes. Queria torná-los menos perigosos. Ao longo do texto, menciona ter estudado fenômenos como AI sycophancy — bajulação algorítmica, quando o sistema concorda com o usuário mesmo estando errado para agradá-lo —, além de desenvolver defesas contra uso indevido e mecanismos internos de transparência.
Até aqui, parece a trajetória de um pesquisador bem-sucedido em uma das empresas mais influentes do setor. O ponto de inflexão está no que vem depois.
Ele escreve que vivemos uma crise interconectada e que a inteligência artificial é apenas uma camada de um problema maior. Fala de um momento histórico em que nossa capacidade tecnológica cresce mais rápido do que nossa sabedoria coletiva. É uma crítica direta ao ritmo da indústria de IA, ainda que formulada com elegância.
Para o grande público, vale traduzir o que está em jogo.
Modelos como o Claude são chamados de foundation models — modelos fundacionais — porque servem de base para inúmeras aplicações. São treinados com volumes massivos de dados e depois ajustados com técnicas como RLHF (Reinforcement Learning from Human Feedback) — aprendizado por reforço a partir de feedback humano —, nas quais pessoas avaliam respostas para ensinar o sistema a se comportar melhor. Há também o chamado alignment tuning — ajuste de alinhamento —, que busca fazer o modelo agir de acordo com valores e regras definidos pela empresa.
Na prática, isso significa que esses sistemas não são neutros. Eles incorporam escolhas humanas. E essas escolhas são feitas sob pressão de mercado.
A carta toca em um ponto sensível: a tensão entre capacidade e governança. Quanto mais poderosos os modelos se tornam, mais difícil é garantir controle, responsabilidade e supervisão. O setor celebra scaling laws — leis de escalabilidade que mostram que modelos maiores tendem a ter melhor desempenho —, mas ainda experimenta como estruturar mecanismos duradouros de responsabilização.
Outro aspecto pouco discutido fora dos círculos técnicos é o custo humano dessa corrida. O pesquisador admite ter sentido, inclusive em si mesmo, a dificuldade de sustentar valores quando métricas de desempenho e competição aceleram decisões. Esse trecho desloca o debate da regulação estatal para a consciência profissional. Governança não é apenas lei. É cultura interna.
Há também uma dimensão existencial. Trabalhar com sistemas que podem reorganizar mercados, influenciar eleições, reconfigurar profissões e moldar a linguagem cotidiana não é um emprego comum. O autor sugere que algumas perguntas éticas não podem ser adiadas indefinidamente. Não têm o direito de desaparecer.
O mais interessante é o tom. Ele não denuncia a empresa como vilã. Reconhece qualidades institucionais, fala de rigor intelectual e integridade cultural. Isso torna o texto ainda mais forte. O problema não é apenas uma organização específica. É estrutural. É civilizatório.
Para quem está fora do setor, a questão é simples e profunda ao mesmo tempo: quem decide o ritmo da transformação tecnológica? Empresas privadas? Investidores? Governos que ainda tentam entender o que está acontecendo?
A carta revela que parte da inquietação vem de dentro. Pessoas que ajudaram a construir esses sistemas começam a perguntar se a segurança pode ser tratada como um complemento técnico, algo adicionado no final do processo, ou se precisa ser princípio desde o início.
No debate público, fala-se muito sobre substituição de empregos, fake news e produtividade. Fala-se menos sobre a ética cotidiana de quem escreve o código. E, no entanto, são essas decisões que moldam o que milhões de pessoas verão, lerão e acreditarão.
Em um setor obcecado por benchmarks — métricas comparativas de desempenho —, a carta lembra que o teste mais importante talvez não seja o quanto o modelo sabe. É o quanto seus criadores estão dispostos a assumir as consequências do que sabem fazer.
A saída de um pesquisador não interrompe a corrida da inteligência artificial. Mas sua carta expõe algo essencial: a discussão sobre IA não é apenas tecnológica, é moral e já começou.


* Este é um artigo de opinião, de responsabilidade do autor, e não reflete a opinião do Brasil 247.
