A ilusão de privacidade engana quem desconhece os perigos da IA
Confidências ao ChatGPT, sem proteção legal, viram mercadoria e expõem vulnerabilidades
As redes sociais e a inteligência artificial (IA) invadem o cotidiano, transformando a privacidade em um castelo de vidro: aparentemente sólido, mas frágil diante de olhares invasivos. Dados pessoais viram mercadoria, e confidências a ferramentas como o ChatGPT, sem proteção legal, podem acabar em tribunais ou em mãos erradas, expondo vulnerabilidades que muitos nem imaginam.
Sam Altman, CEO da OpenAI, revela que usuários compartilham com o ChatGPT segredos profundos: lutas com a saúde mental, conflitos relacionais, questões legais delicadas. Nada garante sigilo. Conversas, mesmo deletadas, persistem em servidores, suscetíveis a pressões jurídicas. A ilusão de privacidade engana a maioria, que desconhece os perigos iminentes.
Usar IA para tarefas profissionais – redigir relatórios, analisar dados – ou pessoais – planejar viagens, resolver dúvidas – entrega informações sensíveis. Empresas treinam modelos com esses dados, arriscando vazamentos, manipulações ou discriminações algorítmicas.
O mau uso, bem documentado, ameaça identidades, expondo-nos a fraudes, vigilância corporativa ou exploração comercial indevida.
A privacidade é como um jardim murado, onde cada confidência é uma semente plantada com cuidado. A IA, como um vento desavisado, carrega essas sementes para além dos muros, espalhando-as em terras estranhas, onde florescem sem controle, acessíveis a hackers, empresas ou governos curiosos.
Grave é buscar na IA apoio terapêutico.
Confidenciar traumas, ansiedades ou dilemas ao ChatGPT, esperando respostas ancoradas em psicologia ou psicanálise, é arriscado. Essas ferramentas não são terapeutas; carecem de sigilo profissional. Dados sensíveis, sem proteção, tornam-se alvos fáceis de exploração digital ou manipulação.
Outros países já punem abusos de IA.
Na Itália, a OpenAI foi multada em 15 milhões de euros em 2024 por processar dados sem base legal, violando normas de transparência.
Na França, a Clearview AI levou 20 milhões de euros por coleta biométrica irregular.
Nos Países Baixos, a mesma empresa pagou 30,5 milhões por uso ilegal de biometria.
Esses casos acendem um alerta vermelho.
Sem regulação global, a IA transforma confidências em mercadorias valiosas. Altman sugere tratar conversas com IA como consultas médicas, mas a realidade é sombria. Temos que continuar insistindo, pressionando por leis que protejam direitos humanos frente à inovação desenfreada, antes que a privacidade se torne apenas uma memória distante.
* Este é um artigo de opinião, de responsabilidade do autor, e não reflete a opinião do Brasil 247.

