Estudos Sociopolíticos da Inteligência Artificial
Crítica à concentração de poder e às disputas éticas na inteligência artificial
As ideias centrais apresentadas no livro Estudos Sociopolíticos da Inteligência Artificial, publicado em 2025, cuja organização é de Sylvia Iasulaitis e Sérgio Amadeu da Silveira, especificamente em sua fundamentação teórica inicial, focam na compreensão da IA não como uma tecnologia abstrata ou mística, mas como um fenômeno profundamente enraizado em infraestruturas físicas, disputas geopolíticas e modelos de acumulação capitalista.
A IA é sustentada por uma infraestrutura física massiva. Os data centers são descritos como os “grandes armazéns de dados” do século XXI, compondo a base material da economia informacional. Essa infraestrutura não é apenas técnica, mas expressa a necessidade de uma economia dependente da extração e análise constantes de dados.
A “dataficação” é caracterizada como a conversão do cotidiano e de todos os movimentos dos sujeitos em matéria-prima capturada privadamente para ser convertida em fonte de lucro. O “dataísmo” sofre crítica por sua crença ideológica de que os dados seriam “naturais” ou frutos puros da realidade e, em quantidade suficiente, poderiam explicar tudo.
O mercado de infraestrutura (nuvem), essencial para o treinamento de modelos de IA, é marcado por uma extrema concentração econômica. Apenas duas empresas norte-americanas, Amazon (AWS) e Microsoft (Azure), detêm mais de 60% do mercado mundial de serviços de infraestrutura em nuvem pública (IaaS). Essa concentração reforça o poder dessas Big Techs como mediadoras da tecnologia em todo o planeta.
O livro propõe “secularizar a IA”, retirando-a de seu status ideológico de “máquina inteligente”. Em vez de cognição alienígena, a IA deve ser entendida como um instrumento de ampliação do conhecimento, capaz de ajudar a perceber padrões em vastos espaços de dados.
Ela representa um salto no processo de mecanização e automatização da razão. É uma linha de montagem composta por três elementos: dados (treinamento), algoritmos (aprendizagem) e modelos (representação estatística).
Porém, a dependência tecnológica cria um cenário de colonialismo digital, em que países do Sul Global perdem a capacidade de controlar seus próprios dados e infraestruturas. Não se trata apenas de ter ou não dados, mas de ter o poder de decidir sobre aquilo que é tornado dado e como ele é processado.
É necessário que países dependentes estabeleçam sua soberania digital. Existe uma tensão entre o livre fluxo de dados, defendido pelas Big Techs, e a necessidade de localização de dados por parte dos Estados nacionais, para exercer controle e jurisdição sobre suas informações.
A nuvem e os data centers são vistos como ativos estratégicos. Eles moldam a competição internacional de segurança e o equilíbrio global de poder. O controle dessas tecnologias implica o controle sobre as possibilidades de desenvolvimento científico e tecnológico futuro, aprofundando a subordinação de nações tecnologicamente dependentes.
O capítulo do livro Estudos Sociopolíticos da Inteligência Artificial, intitulado “Pesquisa Científica em Inteligência Artificial: Valores e Epistemes em Debate na Controvérsia Google versus Timnit Gebru”, de autoria de Carlos d’Andréa e André Mintz, trata de temas fundamentais para entender o contexto da controvérsia referente às críticas à opacidade e aos vieses em modelos de linguagem do Google.
A controvérsia entre o Google e a pesquisadora Timnit Gebru é vista como um ponto de ruptura porque revela a submissão da autonomia científica aos interesses corporativos das grandes empresas de tecnologia. Os autores utilizam esse conflito para investigar a colisão entre a episteme da escala, focada em lucros e processamento massivo de dados, e uma episteme da responsabilidade, capaz de priorizar a ética e a justiça social.
Destacam como a privatização da infraestrutura de pesquisa permite às Big Techs exercerem um “policiamento de fronteiras”, silenciando críticas sobre vieses algorítmicos e impactos ambientais para proteger seus produtos de mercado. O capítulo funciona como um manifesto pela soberania digital no Sul Global, defendendo uma ciência da Inteligência Artificial transparente e independente do poderio financeiro privado.
O capítulo utiliza a saída traumática de Timnit Gebru do Google como objeto central de uma análise sobre a produção de verdade na ciência da computação. Ela era uma das mais proeminentes pesquisadoras de ética em IA e cofundadora do movimento Black in AI e liderava o time de Ethical AI no Google.
O conflito eclodiu com a tentativa da empresa de censurar ou forçar a retirada de um artigo científico: “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?”. Ele apontava os riscos ambientais, financeiros e éticos dos Grandes Modelos de Linguagem (LLMs), que são a base de produtos centrais do Google, como o mecanismo de busca e o assistente virtual.
A controvérsia não foi uma questão de “mau comportamento” ou “quebra de protocolo corporativo”, mas sim uma disputa sobre quem tem o poder de definir o que é conhecimento científico legítimo em IA. Quando o Google Research exigiu de Gebru retirar o artigo ou remover os nomes dos autores vinculados à empresa, a corporação estava exercendo o chamado “policiamento de fronteiras”. Esse conceito, central na Sociologia da Ciência, descreve as tentativas de delimitar o que pertence ao domínio da ciência "pura" e "objetiva" e o que é descartado como "ativismo" ou "crítica infundada".
O termo “papagaio estocástico” serve como metáfora para descrever o funcionamento dos LLMs. São sistemas capazes de, apesar de gerarem textos fluidos e aparentemente coerentes, não possuírem qualquer compreensão do significado ou do contexto, limitando-se a repetir padrões estatísticos extraídos de massas colossais de dados da internet.
No campo da IA, existe uma crença arraigada na neutralidade técnica, mas os autores demonstram que cada escolha técnica é uma escolha política.
A episteme dominante no Google, e em grande parte do Silicon Valley, é a episteme da escala. Nessa visão de mundo, o progresso em inteligência artificial é medido pela quantidade: mais parâmetros, mais dados, mais hardware. Acreditava-se que, ao escalar esses modelos, a inteligência “emergiria” naturalmente, aproximando a humanidade da Inteligência Artificial Geral (AGI).
Essa episteme da escala é inerentemente excludente. Ela favorece organizações com capital financeiro e computacional quase ilimitado, marginalizando pesquisadores acadêmicos e do Sul Global. Além disso, ignora deliberadamente a qualidade e a procedência dos dados em favor da quantidade, partindo do princípio de que o volume de informações anularia o ruído e o preconceito — uma premissa provada errada por Gebru e sua equipe.
Em oposição à escala, surge a episteme da responsabilidade e do cuidado, defendida por pesquisadores críticos como Timnit Gebru e Margaret Mitchell (também demitida do Google após a controvérsia). Essa abordagem prioriza o contexto, a transparência e a mitigação de danos. Para esses pesquisadores, um modelo não é “bom” se ele é vasto, mas sim se ele é seguro e auditável.
Esses dois sistemas de pensamento entraram em rota de colisão. O Google, ao tentar suprimir o artigo, tentou proteger sua episteme da escala contra os questionamentos de uma episteme da responsabilidade.
Ela poderia ameaçar o lançamento comercial de suas tecnologias. A ciência, nesse contexto, deixa de ser uma busca pela verdade e passa a ser uma ferramenta de validação de produtos.
Está ocorrendo um processo de captura da ciência pelas grandes corporações. Tradicionalmente, a universidade era o espaço da pesquisa básica e da crítica, enquanto as empresas focavam no desenvolvimento aplicado. No entanto, o custo proibitivo da pesquisa de ponta em IA deslocou o centro de gravidade da produção de conhecimento para dentro das Big Techs.
Os autores mostram que isso cria um conflito de interesses insolúvel. Pesquisadores como Gebru são contratados para conferir legitimidade ética à empresa, mas, quando sua pesquisa revela que os produtos fundamentais da empresa são eticamente questionáveis, o verniz de independência científica desaparece.
A controvérsia Google vs. Gebru serve de alerta para a comunidade acadêmica global sobre os perigos de depender de financiamento e infraestrutura privada para realizar ciência de interesse público.
* Este é um artigo de opinião, de responsabilidade do autor, e não reflete a opinião do Brasil 247.
