Parceria entre Brasil 247 e Diário do Povo

HOME > Diário do Povo

China adota medidas abrangentes para coibir o uso indevido da inteligência artificial

País reforça regras de rotulagem, combate fraudes e fake news geradas por IA e amplia a responsabilização de plataformas digitais

Inteligência artificial (Foto: Yicai Global)

247 – A China vem adotando um conjunto amplo e articulado de medidas para conter o uso indevido da inteligência artificial (IA) e, ao mesmo tempo, estimular o desenvolvimento responsável dessas tecnologias, diante do avanço acelerado de ferramentas como a chamada “síntese profunda”. Embora a IA tenha papel crescente na promoção de novas forças produtivas e no desenvolvimento econômico e social de alta qualidade, autoridades chinesas avaliam que seu mau uso tem ampliado a disseminação de desinformação e a degradação do ambiente digital.

As informações constam em reportagem publicada pelo jornal Diário do Povo, que detalha as iniciativas regulatórias, os desafios enfrentados pelas plataformas digitais e os casos recentes de fraude e fake news produzidas com auxílio de inteligência artificial.

Regras de rotulagem para conteúdo gerado por IA

Em setembro deste ano, a China divulgou um conjunto de diretrizes que estabelece a obrigatoriedade de rotulagem clara de conteúdos gerados ou compostos por tecnologias de IA. As normas determinam que os usuários possam identificar informações fabricadas, definem obrigações específicas para provedores de serviços e regulam todo o processo de rotulagem ao longo da criação e disseminação do conteúdo.

Segundo as autoridades, o objetivo é reforçar a transparência e reduzir o impacto negativo da manipulação digital, especialmente em plataformas de grande alcance.

Falsas celebridades e fraudes comerciais

Casos de personificação de figuras públicas têm sido um dos principais focos da regulação. Um exemplo citado envolve um vídeo amplamente compartilhado que mostrava um atleta famoso promovendo ovos “de sua cidade natal”. O vídeo, no entanto, era inteiramente gerado por inteligência artificial. Um dos links de venda associados ao conteúdo indicava mais de 47 mil unidades comercializadas.

De acordo com um representante de uma grande plataforma de vídeos curtos, esse tipo de fraude costuma assumir diferentes formas, como o uso de imagens geradas por IA de celebridades como fotos de perfil, a produção de vídeos não rotulados com rostos e vozes falsas de pessoas conhecidas e a criação de contas falsas para atrair seguidores e obter lucro por meio de conteúdo enganoso.

A legislação chinesa, incluindo o Código Civil, já protege direitos de imagem e de voz. As novas regras de rotulagem reforçam essas garantias ao exigir que plataformas identifiquem claramente conteúdos produzidos por IA.

“Plataformas de vídeos curtos não devem apenas cumprir suas próprias responsabilidades, mas também colaborar com os usuários para fortalecer a cogovernança”, afirmou um executivo da empresa chinesa Tencent.

Segundo ele, quando usuários encontram vídeos gerados por IA sem rotulagem, podem apresentar denúncias com materiais comprobatórios. Após a verificação, a plataforma adiciona rótulos visíveis e flutuantes ao conteúdo.

A Douyin, versão chinesa do TikTok, criou ainda um banco de dados de proteção de retratos de figuras públicas, voltado à detecção de personificação e de marketing fraudulento.

Combate às fake news e fortalecimento da fiscalização

Outro episódio destacado envolve um falso “vídeo jornalístico” sobre um grande incêndio, que gerou pânico entre a população. A investigação revelou que a conta responsável utilizava IA para produzir em massa desinformação, gerando entre 4 mil e 7 mil notícias falsas por dia e obtendo ganhos superiores a 10 mil yuans diários.

Apesar dos esforços das plataformas, ainda existem lacunas na resposta às fraudes. Segundo o responsável pela segurança de conteúdo de um portal de notícias, mecanismos de combate à desinformação nem sempre são ágeis, já que imagens e vídeos gerados por IA podem permanecer sem sinalização por horas, limitando alertas precoces ao público.

Yang Qingwang, vice-diretor da Faculdade de Direito da Universidade Central do Sul, defendeu que as plataformas reajam com rapidez, utilizem informações oficiais para sinalizar conteúdos falsos, removam publicações enganosas e penalizem contas infratoras.

Cooperação institucional e resposta em ciclo fechado

Nos últimos anos, a China vem fortalecendo gradualmente seu arcabouço legal e regulatório para definir os limites do uso responsável da inteligência artificial. Paralelamente, reguladores em diferentes regiões do país testam novas abordagens para conter a disseminação de fake news geradas por IA.

“Trabalhamos em estreita colaboração com instituições de pesquisa e empresas de tecnologia para reforçar o monitoramento, a detecção precoce e a identificação de deepfakes maliciosos. Em cooperação com autoridades relevantes, estabelecemos um mecanismo de ciclo fechado que envolve checagem de rumores, verificação, avaliação conjunta, encaminhamento de casos e aplicação da lei, permitindo uma resposta rápida e legal à desinformação gerada por IA”, afirmou um representante da divisão de cibersegurança do departamento de segurança pública de Shenyang, na província de Liaoning.

Educação digital e papel dos usuários

Além das ações regulatórias, operadores de plataformas têm incentivado os usuários a manterem vigilância permanente. Entre os sinais de conteúdo gerado por IA estão inconsistências lógicas, tom emocional excessivamente uniforme, detalhes factuais vagos, movimentos faciais artificiais, iluminação irregular e distorções de áudio.

A recomendação é verificar sempre as fontes e recorrer a veículos de comunicação confiáveis ou canais oficiais. Segundo o jornal Diário do Povo, a articulação entre regulação estatal, autorregulação das plataformas, participação ativa dos usuários, mecanismos tecnológicos de detecção e responsabilização legal é vista como essencial para conter a desinformação e assegurar o desenvolvimento saudável das tecnologias emergentes.

Artigos Relacionados