HOME > Mídia

ChatGPT e Grok permitem edição de imagens para nudez

Testes indicam falhas em ferramentas de IA que editam fotos, reacendendo debate legal e ético sobre nudez falsa e uso não autorizado de imagens

Ilustração com logotipo do ChatGPT - 22 de janeiro de 2025 (Foto: REUTERS/Dado Ruvic)

247 - Ferramentas de inteligência artificial capazes de editar imagens voltaram ao centro de um debate sensível ao permitir a remoção de roupas de pessoas fotografadas sem consentimento. Testes apontam que o ChatGPT, da OpenAI, atende a comandos que alteram vestimentas em fotos, comportamento semelhante ao do Grok, sistema desenvolvido pela xAI, que tem sido alvo de questionamentos de autoridades na Ásia e na Europa desde o início do ano, informa a Folha de São Paulo.

O jornal realizou experimentos com imagens do próprio repórter e com personagens criados por inteligência artificial, evitando a exposição de terceiros. Nos testes, o ChatGPT substituiu roupas por trajes de banho, enquanto o Grok foi além: transformou o repórter em uma mulher e gerou uma dança de cunho sensual, mesmo sem instrução explícita para esse tipo de conteúdo.

No Brasil, a legislação considera crime a manipulação, produção ou divulgação de conteúdo falso de nudez ou ato sexual gerado por inteligência artificial ou outros meios tecnológicos. A pena prevista é de reclusão de dois a seis anos, além de multa, com agravamento quando a vítima é mulher, criança, adolescente, pessoa idosa ou com deficiência.

Procurada, a OpenAI afirmou que bloqueia solicitações de geração de imagens que violem suas regras e que reincidências podem levar à perda da conta do usuário. A empresa também informou que atualizou recentemente seus algoritmos para lidar com “sistemas excessivamente restritivos”. “Por exemplo, havia bloqueios de representações de amamentação ou adultos usando trajes de banho em contextos não sexualizados”, disse a companhia em nota. Segundo a OpenAI, há proteções contra o uso não consensual de imagens, mas a empresa não comentou os casos específicos relatados pela reportagem.

A xAI, responsável pelo Grok, declarou que implementou medidas para impedir a edição de imagens reais de pessoas que envolvam “roupas reveladoras como biquinis”, após ameaças de sanções por parte de autoridades. Diferentemente do Grok, o ChatGPT não publica automaticamente as imagens geradas em uma rede social aberta, o que, segundo especialistas em segurança da informação, dificulta a mensuração da quantidade de imagens íntimas produzidas pela ferramenta da OpenAI.

Mesmo na ausência de nudez completa, a geração de imagens em trajes de banho pode ser enquadrada juridicamente como divulgação de fotos íntimas. Esse é o entendimento da diretora de pesquisa do InternetLab, Clarice Tavares. “Além da violação do consentimento dessas pessoas, nos casos em que temos visto [no Grok], existe uma intencionalidade de sexualização”, afirmou.

Ela relembra uma decisão de 2020 do Superior Tribunal de Justiça (STJ), que considerou culpado um homem por divulgar imagens da ex-namorada usando roupas de banho. “Mesmo que não fosse um caso de nudez total, houve uma intenção de vingança na divulgação daquelas fotos íntimas”, disse Tavares.

O cientista da computação argentino Marcelo Rinesi, que participou dos primeiros testes do Dall-E — modelo que antecedeu o ChatGPT Images —, afirma que o risco de gerar pornografia não consensual sempre foi uma das principais preocupações da OpenAI. “Essa é uma das regras básicas de segurança e privacidade em qualquer tecnologia, desde a fotografia. O que é específico dessa tecnologia é a capacidade de gerar uma imagem erótica de uma pessoa qualquer apenas com uma foto e quase sem custo”, explicou.

De acordo com o CEO da OpenAI, Sam Altman, a empresa decidiu alterar suas diretrizes após reclamações de usuários sobre a rigidez excessiva das normas. Dias antes das mudanças, ele afirmou que o objetivo era “garantir liberdade intelectual”.

A disseminação de imagens íntimas falsas geradas por IA ganhou escala neste ano, quando usuários da plataforma X identificaram a possibilidade de usar o Grok para esse fim. Entre 5 e 6 de janeiro, a ferramenta vinculada à rede social publicou, por meio da conta @Grok, cerca de 6.700 imagens por hora classificadas como sexualmente sugestivas ou de nudez, segundo análise divulgada pela Bloomberg e conduzida pela pesquisadora independente Genevieve Oh. No mesmo período, outros cinco grandes sites de geração de imagens por IA registraram média de 79 novas imagens de nudez por hora.

Embora o ChatGPT apresente salvaguardas, a reportagem aponta que é possível contorná-las com ajustes nos comandos. A Folha optou por não detalhar o procedimento para evitar a reprodução da prática. Em fóruns como o Reddit, usuários chegaram a compartilhar instruções para gerar imagens sexualizadas em plataformas como Grok, ChatGPT e Gemini, do Google. Após contato da revista Wired, o Reddit removeu esses conteúdos, alegando violação de suas regras. Outros sistemas concorrentes, como o Gemini e o Meta AI, não produziram imagens de pessoas reais em trajes de banho durante os testes mencionados.

Especialistas alertam que o avanço dessas ferramentas amplia os desafios legais e éticos relacionados à privacidade, ao consentimento e ao uso indevido de imagens pessoais em ambientes digitais cada vez mais acessíveis e automatizados.

Artigos Relacionados