Como os algoritmos das redes sociais são impactados pelo racismo?

Especialistas explicam que, para além das redes sociais, as tecnologias são influenciadas pelo racismo e servem como instrumento para amplificar as disparidades

(Foto: Reprodução)
Siga o Brasil 247 no Google News Assine a Newsletter 247

Alma Preta - Há algumas semanas, nas redes sociais, pessoas negras trocaram suas fotos por fotos de pessoas brancas e relataram conseguir maior alcance em suas publicações. O assunto levantou debate sobre o racismo por trás dos algoritmos, que são elementos fundamentais nas redes sociais. Aparentemente neutras, as tecnologias são pensadas e realizadas por profissionais brancos.

Por não serem visíveis, os algoritmos aparentemente estão distantes da vida das pessoas, mas não é bem assim. Em entrevista ao Alma Preta, Tarcizio Silva, Tech + Society Fellow na Mozilla Foundation, divide quatro grandes áreas em que os algoritmos podem influenciar coletivamente a vida das pessoas, com danos potenciais, como em perdas de oportunidades relacionadas a habitação, educação, emprego; perda financeira, como no caso de acesso a crédito ou preços diferenciais; estigmatização social, como reforço de estereótipos em mecanismos de busca e na necropolítica, quando sistemas de reconhecimento facial ou policiamento preditivo promovem o genocídio negro.

O algoritmo é uma série de instruções que implementam um tipo de procedimento, tal como cruzamento de dados. Na era digital e computacional, os algoritmos representam inúmeros sistemas, comumente baseados em inteligência artificial, que automatizam decisões e processos. “Chamo de ‘sistemas algorítmicos’ a rede de tecnologias e as decisões que elas tomam e quem delegou estas decisões a tais sistemas, para quais fins e afetando quais tipos de pessoas” , diz Tarcizio.

O profissional cita como exemplo um escore financeiro, que é um conjunto de sistemas algorítmicos que estabelece indicadores de risco sobre cidadãos quanto a seu potencial de consumo e segurança financeira. Entretanto, são desenvolvidos e implementados de forma assimétrica defendendo sobretudo as empresas financeiras, credores e clientes corporativos dos sistemas de escore e perfilação. “Os cidadãos, vistos apenas como consumidores, precisam ajustar seus comportamentos de acordo com tais escores para não perder oportunidades de vida e acesso a recursos”, explica.

Já quem usa as redes sociais sente o impacto desses sistemas na ordenação de conteúdo e comportamento nas plataformas de mídias sociais. Segundo o pesquisador, as plataformas são moldadas por um número cada vez maior de algoritmos que aplicam inteligência artificial para fins como moderação de texto, recomendação de conteúdo, reconhecimento facial, etiquetamento de imagens e outros.

Silva ainda cita uma situação peculiar de uma dessas redes, que escolhe automaticamente quais conteúdos gerar visibilidade ou não a amigos, seguidores ou fãs. “Aqui temos um risco gigantesco à democracia e aos direitos humanos na medida em que tais plataformas podem moldar o que as pessoas veem no seu dia a dia e, portanto, agendar e enquadrar temas ou até sentimentos”, revela.

A aparente neutralidade desses sistemas tem agido como um promotor de violações a direitos humanos. “Aqui tenho usado especialmente o termo 'sistema algorítmico' para relembrar que um software, modelo estatístico ou de aprendizado de máquina não existe em um vácuo. Não se trata apenas de código, mas sim a materialização de relações econômicas, raciais e de poder em um sistema que pressupõe visões de mundo, entradas de dados, saídas de resultados e objetivos específicos”, pontua o profissional.

Como exemplo, há o uso de reconhecimento facial para policiamento, que vem se demonstrando extremamente equivocado em todo o mundo, com estudos comprovando a imprecisão na identificação de pessoas, sobretudo pessoas não-brancas.  “Esta imprecisão aparentemente técnica é fruto de como os criadores - desenvolvedores, detentores e empresários - de tais sistemas percebem diferencialmente a humanidade dos diferentes grupos populacionais. Para alguns grupos, taxa de erros maiores são ignoradas”, salienta Silva.

“As pessoas reproduzem o racismo nas tecnologias”

A pesquisa #QuemCodaBr, publicada em 2019, mostra que os brancos representam 58,3% dos profissionais de tecnologia, e os negros, 36,9%. Os amarelos são 4% e os indígenas apenas 0,3%. A maior parte dos profissionais é heterosexual (78,9%), com apenas 10,2% de homossexuais, 7,8% de bissexuais e 2% de pansexuais.

Outro dado  é que os homens representam 68% dos profissionais de tecnologia, segundo a pesquisa, enquanto mulheres são 31,5%, e pessoas intersexo, 0,3%. O estudo é da PretaLab, iniciativa de inclusão de mulheres negras na inovação e na tecnologia, e do ThoughtWorks, consultoria global de software.

Para Sil Bahia, diretora de projetos do Olabi e coordenadora do PretaLab, esse perfil é um reflexo das dificuldades que pessoas negras enfrentam diariamente e nem percebem. Ela cita o dispenser de sabão, que não reconhece peles negras e, por isso, muitas vezes não libera o líquido. Além disso, mais de 90% das prisões feitas por reconhecimento facial foi de pessoas negras. Há ainda os filtros para fotos nas redes sociais, que em grande parte, afinam o nariz e clareiam a pele.

“As pessoas querem saber qual o erro no código no desenvolvimento das tecnologias, mas esse erro vem antes do desenvolvimento. As pessoas reproduzem o racismo nas tecnologias porque o racismo é um dos pilares da sociedade”, destaca.

Um dos caminhos para combater o racismo nas tecnologias é ampliar a diversidade das pessoas que produzem essas ferramentas. Uma das iniciativas nesse sentido é o PretaLab, que dentre outras ações, mantem uma plataforma permanente com nomes de mulheres negras de todas as regiões do país. “Isso significa ter mais mulheres negras produzindo, pensando, criticando, analisando tecnologia. A plataforma tem três objetivos, pelo menos. Um que a gente se conheça entre nós; outro, que possamos jogar mais luz nos trabalhos dessas mulheres e também queremos dar uma resposta para o mercado de trabalho que diz que não encontra mulheres negras qualificadas para a área da tecnologia”, frisa Sil.

O conhecimento liberta. Saiba mais

A você que chegou até aqui, agradecemos muito por valorizar nosso conteúdo. Ao contrário da mídia corporativa, o Brasil 247 e a TV 247 se financiam por meio da sua própria comunidade de leitores e telespectadores. Você pode apoiar a TV 247 e o site Brasil 247 de diversas formas. Veja como em brasil247.com/apoio

Comentários

Os comentários aqui postados expressam a opinião dos seus autores, responsáveis por seu teor, e não do 247