Elon Musk é alvo de críticas por falhas do Grok na criação de “nudes digitais”
Nos Estados Unidos, especialistas alertam que empresas de IA podem enfrentar consequências criminais e civis
247 - A divulgação de imagens sexualizadas produzidas pelo Grok, chatbot de inteligência artificial do X — antigo Twitter —, colocou Elon Musk novamente no centro de uma controvérsia global. A ferramenta passou a ser utilizada por usuários para gerar os chamados “nudes digitais” de pessoas reais, em sua maioria mulheres, muitas vezes sem consentimento. Em alguns casos, as imagens aparentam retratar menores de idade, o que levantou alertas sobre possíveis violações de leis nacionais e internacionais.
As informações foram publicadas originalmente pela CNN, em reportagem assinada por Hadas Gold. Segundo a apuração, o fenômeno ganhou força no fim de dezembro, quando usuários descobriram que podiam marcar o Grok em postagens públicas e solicitar que o chatbot editasse ou “removesse roupas” de pessoas retratadas em imagens compartilhadas na plataforma.
Em nota, Musk e a xAI — empresa de inteligência artificial fundada pelo bilionário — afirmaram que estão tomando medidas “contra conteúdo ilegal no X, incluindo material de abuso sexual infantil, removendo-o, suspendendo contas permanentemente e trabalhando com governos locais e autoridades policiais, conforme necessário”. Apesar disso, testes e relatos apontam que o Grok continuou respondendo a solicitações que resultavam em imagens altamente sexualizadas, especialmente de mulheres.
Especialistas e organizações alertam que a combinação entre IA generativa e redes sociais amplia riscos já conhecidos. A integração direta do Grok ao X permite que pedidos e respostas sejam feitos publicamente, o que facilita a disseminação rápida de conteúdos potencialmente ilegais. Diferentemente de concorrentes como o Gemini, do Google, ou o ChatGPT, da OpenAI, o Grok se destaca por permitir, e em alguns casos incentivar, conteúdos sexualmente explícitos.
Pesquisadores da AI Forensics analisaram mais de 20 mil imagens geradas pelo Grok e cerca de 50 mil solicitações feitas por usuários entre 25 de dezembro e 1º de janeiro. O estudo identificou que 53% das imagens de pessoas apresentavam indivíduos com roupas mínimas, como biquínis ou lingerie, sendo que 81% se apresentavam como mulheres. Segundo o levantamento, 2% das imagens retratavam pessoas que aparentavam ter 18 anos ou menos.
Em alguns dos casos analisados, usuários pediram que menores fossem colocados em posições eróticas ou que fluidos sexuais fossem representados em seus corpos. De acordo com os pesquisadores, o Grok atendeu a essas solicitações. A própria ferramenta reconheceu publicamente falhas em seus sistemas de proteção. “Agradecemos por ter levantado essa questão. Como já foi mencionado, identificamos falhas nas medidas de segurança e estamos corrigindo-as com urgência — material de abuso sexual infantil é ilegal e proibido”, publicou o Grok em 2 de janeiro.
A postura pública de Elon Musk também passou a ser questionada. O empresário é conhecido por criticar o que chama de censura excessiva e por se posicionar contra modelos de IA considerados “woke”. Em agosto, chegou a afirmar que o “modo picante” do Grok poderia impulsionar a adoção da tecnologia, em referência a casos históricos como o VHS. Internamente, segundo fontes ouvidas pela CNN, Musk teria resistido à implementação de barreiras mais rígidas de segurança no chatbot.
A controvérsia coincidiu com a saída de integrantes da já reduzida equipe de segurança da xAI, incluindo o chefe de segurança de produto e líderes responsáveis por comportamento e pós-treinamento do modelo. Fontes também levantaram dúvidas sobre o uso contínuo de ferramentas externas para detectar material de abuso sexual infantil, o que poderia aumentar os riscos legais e reputacionais da empresa.
Autoridades de diversos países abriram investigações. No Reino Unido, a OFCOM afirmou ter feito contato “urgente” com as empresas de Musk diante de “preocupações muito sérias”. Na União Europeia, o porta-voz da Comissão Europeia, Thomas Regnier, foi enfático ao comentar o caso: “Isto é ilegal. Isto é revoltante. Isto é repugnante. É assim que vemos a situação, e isto não tem lugar na Europa”. Índia e Malásia também anunciaram apurações formais.
Nos Estados Unidos, especialistas alertam que empresas de IA podem enfrentar consequências criminais e civis se forem associadas à produção ou disseminação de material de abuso sexual infantil. Embora a Seção 230 ofereça proteção limitada a plataformas digitais, ela não impede a responsabilização por crimes federais. Para Riana Pfefferkorn, pesquisadora de Stanford, o caso faz a xAI “parecer mais com sites de deepfake de nudez do que com concorrentes como OpenAI e Meta”.
Questionado sobre o tema, o Departamento de Justiça dos EUA afirmou que leva “material de abuso sexual infantil gerado por IA extremamente a sério” e que irá processar “agressivamente qualquer produtor ou possuidor” desse tipo de conteúdo. O episódio reacende o debate sobre até que ponto a liberdade defendida por Musk pode coexistir com a necessidade de salvaguardas rígidas em tecnologias capazes de causar danos reais a pessoas vulneráveis.



