Regulamentar a IA: mundo virtual, onde a IA e as redes sociais reinam, não pode ser terra sem lei
A inteligência artificial não é mais ficção científica: é a engrenagem central da economia e da sociedade
A inteligência artificial (IA) não é mais ficção científica: é a engrenagem central da economia e da sociedade. De diagnósticos médicos a algoritmos que decidem o que vemos nas redes, a IA está em tudo. Em 2024, o mercado global da tecnologia atingiu US$ 184 bilhões, com previsão de crescimento de 28,5% ao ano até 2030, segundo a Statista. No Brasil, ela avança no agronegócio, com drones analisando plantações, e no varejo, personalizando compras online. Mas o preço do progresso é alto: deepfakes manipulando eleições, sistemas discriminatórios e golpes cibernéticos mostram que a IA, sem freios, é uma ameaça à cidadania.
O debate sobre regulamentação explodiu nos últimos anos. A União Europeia (UE) aprovou o AI Act em 2023, um marco global. No Brasil, o Projeto de Lei (PL) 2338/2023, aprovado pelo Senado em dezembro de 2024, tenta seguir o mesmo caminho, mas com tropeços.
Defendo uma tese clara: o mundo virtual, onde a IA e as redes sociais reinam, não é uma terra sem lei. Ele exige regras robustas, éticas e globais para proteger pessoas, instituições e a democracia. Sem isso, o futuro será um campo minado de manipulação e injustiça.
Como alertou um manifesto brasileiro de 2025, assinado por nomes como Ailton Krenak e Drauzio Varella, “internet sem regulamentação mata”. A morte de uma criança de 8 anos em um desafio online no Distrito Federal é um lembrete trágico: já está passando da hora de migrarmos do campo das ideias para a terra firma das ações.
Gigantes da IA: Lucro Acima de Tudo?
As empresas que dominam a IA não são apenas negócios — são potências globais. A NVIDIA (EUA), com valor de mercado de US$ 3,1 trilhões em 2024, lidera em chips para IA. A Microsoft (US$ 3,2 trilhões) e a Google (US$ 2,1 trilhões) comandam computação em nuvem e modelos como Copilot e Gemini. A OpenAI (US$ 157 bilhões) revolucionou o mundo com o ChatGPT.
Na China, Baidu (US$ 40 bilhões) e Tencent (US$ 480 bilhões) avançam em reconhecimento facial e IA generativa. A Amazon (US$ 2 trilhões) usa IA para otimizar desde entregas até assistentes virtuais.
Em 2023, essas gigantes investiram US$ 91 bilhões em IA, com os EUA concentrando 60% do total, segundo a OECD.
Esse poder econômico é uma faca de dois gumes. Ele impulsiona a inovação, mas também reforça desigualdades geopolíticas. EUA e China disputam a liderança, enquanto o Brasil, dependente de tecnologia importada, corre o risco de virar um espectador.
Pior: o lobby dessas empresas sufoca a regulamentação. No Brasil, Meta e Microsoft pressionaram o Senado, e o PL 2338/2023 excluiu algoritmos de redes sociais da categoria de alto risco. A Confederação Nacional da Indústria (CNI) alertou contra o “isolamento tecnológico”, e o texto final ficou mais brando.
É um padrão global: na UE, Google e OpenAI resistem ao AI Act; na Califórnia, tentam abafar leis locais. Deixar as big techs ditarem as regras é entregar a raposa para cuidar do galinheiro.
Os exemplos de abuso são chocantes.
Em 2023, deepfakes de políticos brasileiros circularam nas eleições municipais, enganando eleitores. Nos EUA, um golpe de voz sintética, em 2024, custou US$ 25 milhões a uma empresa. Em São Paulo, câmeras de reconhecimento facial, usadas sem consentimento em 2024, geraram denúncias de vigilância ilegal. Um algoritmo de recrutamento, em 2022, penalizava mulheres em uma multinacional, perpetuando sexismo. Bots no X, durante protestos no Brasil em 2024, espalharam desinformação, minando a confiança pública.
Sem leis claras, essas práticas ficam impunes, e as vítimas, desprotegidas.
Regras Globais: Um Grito de Urgência
A regulamentação da IA não pode ser adiada. A UE lidera com o AI Act, em vigor desde agosto de 2024. Ele divide sistemas de IA em quatro níveis: mínimo (sem regras, como filtros de spam), limitado (exige transparência, como chatbots), alto (regulado, como sistemas médicos) e inaceitável (proibido, como crédito social). Em 2025, a UE lançou um Código de Conduta para IA generativa, focando transparência e proteção autoral. É um modelo inspirador, mas caro para países em desenvolvimento.
Os EUA, por outro lado, patinam. Uma ordem executiva de 2023 exige transparência, mas não há lei federal. Estados como a Califórnia tentam avançar, mas enfrentam resistência das big techs.
Na China, a regulamentação é rígida, com registro de algoritmos desde 2022, mas privilegia o controle estatal, limitando liberdades.
No Brasil, o PL 2338/2023 cria o Sistema Nacional de Regulação e Governança de IA, coordenado pela Autoridade Nacional de Proteção de Dados (ANPD). Ele classifica sistemas em risco excessivo (proibidos, como deepfakes eleitorais) e alto (regulados, como biometria), mas falha ao ignorar algoritmos de redes sociais, cedendo à pressão corporativa.
Há pontos em comum: proteção de dados, transparência, supervisão humana (human-in-the-loop) e direitos humanos. O Brasil acerta ao exigir remuneração por conteúdos usados em treinamentos de IA, protegendo criadores. Mas a exclusão de redes sociais é um erro grave. Como destacou Estela Aranha, assessora de Lula e membro do conselho da ONU, regras globais harmonizadas, mas flexíveis, são cruciais. Sem isso, o Sul Global, incluindo Brasil e Chile, seguirá vulnerável.
Os riscos de uma IA sem freios são alarmantes. Em 2024, bots na Índia manipularam eleições, atingindo milhões. Uma deepfake de um CEO americano, em 2023, causou perdas milionárias. No Brasil, um sistema de crédito, em 2022, discriminava negros, sem explicação. Câmeras em shoppings, em 2024, coletaram dados sem consentimento. Golpes de voz sintética, no mesmo ano, lesaram idosos em R$ 10 milhões. A impunidade prospera sem leis, corroendo a cidadania.
Advogado Robô: Solução ou Ameaça?
Nos Estados Unidos, o DoNotPay, conhecido como o “primeiro advogado robô do mundo”, ajuda usuários a recorrerem de multas de trânsito e pequenas causas. A IA já organiza petições, analisa jurisprudência, verifica documentos e redige prazos, prometendo agilizar um sistema judicial lento.
Para muitos, é uma salvação contra a morosidade; para outros, um risco aos advogados, que podem se tornar reféns de decisões algorítmicas. Especialistas apontam que a tecnologia revisa contratos, identifica precedentes e prevê desfechos de ações judiciais com precisão. Mas quem garante que esses sistemas são justos? No Brasil, onde o Judiciário já enfrenta atrasos, a IA pode ser uma aliada, desde que regulada para não substituir o julgamento humano e perpetuar vieses.
Clamor Nacional: Um Manifesto pela Vida
No Brasil, a pressão por regulamentação ganhou força com um manifesto lançado em 2025 por personalidades, intelectuais e ex-ministros, como Ailton Krenak, Drauzio Varella, Júlio Lancelotti, Paulo Betti Casagrande, Antonio Grassi, Benedita da Silva, Frei Betto, Lelia e Sebastião Salgado e Daniela Mercury. Com o lema “internet sem regulamentação mata”, o documento exige que plataformas digitais sigam regras claras, como qualquer atividade em uma democracia.
Aberto a assinaturas e endereçado ao Congresso, ao Supremo Tribunal Federal e à Presidência, o manifesto aponta casos trágicos para justificar sua urgência: a morte de Sarah Raissa Pereira de Castro, uma menina de 8 anos, em um desafio online no Distrito Federal, e uma operação da Polícia Federal contra crimes virtuais que vitimaram crianças e adolescentes em sete estados.
Liderado por ex-ministros de Direitos Humanos, como Paulo Vannuchi, Nilmário Miranda, Paulo Sérgio Pinheiro, Ideli Salvatti, Maria do Rosário e Rogério Sottili, o grupo argumenta que a falta de regulação perpetua uma “barbárie” que atinge os mais vulneráveis, especialmente jovens e grupos fragilizados. Para eles, o que é crime no mundo físico deve ser crime no virtual, e a regulamentação é essencial para proteger a sociedade dos perigos do ambiente digital.
Um Futuro Ético ou um Caos Digital?
O Brasil e o mundo estão em uma encruzilhada. A academia alerta: 70% dos brasileiros, segundo a USP em 2024, ignoram como seus dados são usados por IA. Juízes enfrentam lacunas legais para punir deepfakes, e a jurisdição transnacional é um pesadelo. A inversão do ônus da prova no PL 2338/2023 ajuda, mas é insuficiente. Ética algorítmica, transparência e educação digital são demandas urgentes, mas esbarram no lucro das big techs.
O caminho exige coragem. O AI Act é um farol, mas o Brasil precisa ir além. Classificar riscos com clareza, como na UE, é essencial. Proibir práticas como deepfakes eleitorais é inegociável. Transparência sobre dados e algoritmos deve ser obrigatória. A supervisão humana, garantindo revisão de decisões críticas, é vital. Educação digital empodera cidadãos, como defendem acadêmicos. E a cooperação global, proposta por Aranha, é a única forma de enfrentar gigantes transnacionais.
O PL 2338/2023 é um passo, mas manca. A proteção autoral e a requalificação profissional são acertos, mas ignorar redes sociais é covardia. A IA pode ser aliada do progresso, mas sem rédeas, é uma ameaça à democracia, à privacidade e à justiça.
O manifesto de 2025 é um grito: o virtual não é um vazio legal. Regras não são censura, mas defesa da cidadania.
O Brasil tem a chance de liderar no Sul Global, mas só se colocar pessoas acima de lucros. O relógio está correndo.
* Este é um artigo de opinião, de responsabilidade do autor, e não reflete a opinião do Brasil 247.
❗ Se você tem algum posicionamento a acrescentar nesta matéria ou alguma correção a fazer, entre em contato com redacao@brasil247.com.br.
✅ Receba as notícias do Brasil 247 e da TV 247 no Telegram do 247 e no canal do 247 no WhatsApp.
Assine o 247, apoie por Pix, inscreva-se na TV 247, no canal Cortes 247 e assista: