Washington Araújo avatar

Washington Araújo

Mestre em Cinema, psicanalista, jornalista e conferencista, é autor de 19 livros publicados em diversos países. Professor de Comunicação, Sociologia, Geopolítica e Ética, tem mais de duas décadas de experiência na Secretaria-Geral da Mesa do Senado Federal. Especialista em IA, redes sociais e cultura global, atua na reflexão crítica sobre políticas públicas e direitos humanos. Produz o Podcast 1844 no Spotify e edita o site palavrafilmada.com.

405 artigos

HOME > blog

Estamos delegando decisões ou terceirizando responsabilidades?

Ao operar em escala massiva, algoritmos ampliam erros e vieses, transformando falhas pontuais em problemas sistêmicos que afetam milhares de pessoas

Placa escrito IA (Inteligência Artificial) na Conferência Mundial de Inteligência Artificial (WAIC) em Xangai, China 06/07/2023 (Foto: REUTERS/Aly Song)

Há uma inversão silenciosa em curso: decisões que antes exigiam rosto, assinatura e responsabilidade política passaram a ser delegadas a sistemas que operam sem corpo, sem voz e, muitas vezes, sem contestação. A inteligência artificial não apenas executa tarefas; ela estrutura o campo de possibilidades dentro do qual escolhas são feitas.

E isso altera, de forma profunda, o próprio conceito de democracia.

Sob forte centralização de poder, o risco deixa de ser abstrato e ganha contornos operacionais. O dirigente que concentra decisões tende a preferir a blindagem algorítmica: transfere a escolha à máquina não por eficiência, mas por conveniência.

A inteligência artificial, nesse contexto, funciona como escudo — dilui responsabilidades, reduz contestação e preserva a autoridade de quem decide sem parecer decidir. Nesse processo, existem também grandes dosagens de vaidade. O centralizador prefere “perder” o naco do seu poder para uma IA que nem rosto humano tem do que perdê-lo para um semelhante.

A expansão dos sistemas algorítmicos nas políticas públicas não é neutra. Ao classificar, prever e recomendar, esses sistemas organizam o mundo em categorias que parecem técnicas, mas carregam valores, prioridades e exclusões. Quando um algoritmo define quem é “alto risco”, quem merece crédito ou quem deve ser monitorado, ele não está apenas processando dados — está traduzindo decisões humanas anteriores em critérios automatizados que passam a operar em escala.

O problema central não está na existência desses sistemas, mas na opacidade que os envolve. A promessa de eficiência tem servido, muitas vezes, como escudo para evitar o escrutínio público. No entanto, não há democracia possível quando decisões que afetam milhões são tomadas por mecanismos que não podem ser questionados, auditados ou compreendidos em seus critérios fundamentais.

A ideia de transparência, frequentemente invocada como solução, precisa ser mais bem qualificada. Tornar um sistema “explicável” não significa, por si só, torná-lo justo ou legítimo. Explicações técnicas, inacessíveis ao cidadão comum, pouco contribuem para o controle democrático. O que está em jogo não é apenas entender como o algoritmo funciona, mas ter condições reais de questionar por que ele decide como decide — e, sobretudo, quem definiu os parâmetros que orientam essas decisões.

Nos últimos anos, surgiram movimentos e organizações que pressionam por maior abertura e responsabilização no uso de algoritmos. Esse ativismo revela algo essencial: os dados não são matéria bruta neutra, mas construções sociais. A escolha do que medir, como classificar e quais variáveis priorizar já é, em si, uma decisão política. Ignorar isso é naturalizar desigualdades sob o disfarce da objetividade matemática.

Há ainda um elemento frequentemente subestimado: os próprios usuários. Ao interagir com sistemas digitais, as pessoas não apenas obedecem às lógicas impostas; elas adaptam, contornam e, em muitos casos, subvertem esses sistemas.

A tentativa de manipular rankings, influenciar métricas ou explorar brechas revela que o poder dos algoritmos nunca é absoluto. Existe uma dinâmica de tensão permanente entre controle técnico e agência humana.

Mesmo assim, essa resistência difusa não substitui mecanismos institucionais de controle. É necessário criar espaços formais de deliberação, nos quais decisões algorítmicas possam ser debatidas, revistas e, quando necessário, corrigidas.

Isso implica estabelecer critérios públicos, auditáveis e passíveis de contestação — não apenas para os resultados, mas para todo o processo que os produz.

Outro ponto crítico reside na escala. Diferentemente das decisões humanas, que são limitadas por tempo e contexto, os algoritmos operam em larga escala, replicando padrões de forma contínua.

E, sabe mais? Um erro, um viés ou uma premissa mal formulada pode afetar milhares ou milhões de pessoas simultaneamente. A ausência de mecanismos robustos de revisão transforma pequenos desvios em problemas sistêmicos.

O debate sobre inteligência artificial não pode ser reduzido a uma questão técnica. Trata-se, fundamentalmente, de uma disputa sobre poder: quem define as regras, quem se beneficia delas e quem arca com seus custos.

Ao deslocar decisões para sistemas automatizados, corre-se o risco de diluir responsabilidades e enfraquecer a capacidade de resposta das instituições democráticas.

Contestar algoritmos não é um gesto de resistência irracional ao progresso tecnológico. Ao contrário, é um ato de afirmação democrática.

Questionar critérios, exigir transparência e reivindicar participação são formas de garantir que a tecnologia permaneça subordinada ao interesse público — e não o inverso.

* Este é um artigo de opinião, de responsabilidade do autor, e não reflete a opinião do Brasil 247.