Facebook remove ferramenta de tradução do birmanês após reportagem da Reuters
A matéria da Reuters mostrou que o recurso de tradução foi falho, citando uma publicação anti-Rohingya que disse em birmanês: “Mate todos os kalars que você vê em Mianmar; nenhum deles deve ser deixado vivo”. Kalar é um termo pejorativo para se referir os Rohingya. O Facebook traduziu o comentário para o inglês como “eu não deveria ter um arco-íris em Mianmar”.
(Reuters) - O Facebook removeu um recurso que permitia traduzir publicações e comentários birmaneses, após uma reportagem a Reuters mostrar que a ferramenta estava produzindo resultados bizarros.
Uma investigação da Reuters, publicada em 15 de agosto, revelou como o Facebook estava fracassando em seus esforços para combater publicações agressivas da língua birmanesa sobre os muçulmanos Rohingya, de Mianmar. Cerca de 700 mil rohingya fugiram de Mianmar no ano passado em meio a uma repressão militar e violência étnica. No fim de agosto, investigadores das Nações Unidas (ONU) disseram que o Facebook foi “um instrumento útil para aqueles que buscam espalhar o ódio” contra o grupo minoritário muçulmano.
A matéria da Reuters mostrou que o recurso de tradução foi falho, citando uma publicação anti-Rohingya que disse em birmanês: “Mate todos os kalars que você vê em Mianmar; nenhum deles deve ser deixado vivo”. Kalar é um termo pejorativo para se referir os Rohingya. O Facebook traduziu o comentário para o inglês como “eu não deveria ter um arco-íris em Mianmar”.
Uma porta-voz do Facebook disse que o recurso de tradução para a Birmânia foi “desligado” em 28 de agosto. Segundo a empresa, o artigo da Reuters e o feedback dos usuários “nos levaram a fazer isso”.
“Estamos trabalhando em maneiras de melhorar a qualidade das traduções e, até lá, desativamos esse recurso em Mianmar”, afirmou a porta-voz por email.
O Facebook teve outros problemas ao interpretar o birmanês, principal idioma local de Mianmar. Em abril, a empresa de mídia social publicou seus padrões de comunidade em birmanês.
Muitas das passagens foram mal traduzidas. Uma sentença que, em inglês, afirma que “levamos a sério nosso papel de evitar o abuso do nosso serviço” foi traduzida para o birmanês como “levamos a sério nosso papel ao abusar de nossos serviços”.
A Reuters encontrou mais de mil exemplos de discursos de ódio no Facebook, inclusive chamando os Rohingya e outros muçulmanos de cães, vermes e estupradores, sugerindo que eles sejam alimentados com porcos e pedindo que sejam mortos ou exterminados. As regras do Facebook proíbem especificamente atacar grupos étnicos com “discurso violento ou desumanizado” ou compará-los a animais.
Pouco depois de a matéria ser publicada, o Facebook divulgou comunicado dizendo que “demorou muito para evitar informações erradas e ódio” em Mianmar e que está tomando medidas, inclusive investindo em inteligência artificial que possa detectar publicações que violam suas regras.
Por Steve Stecklow
iBest: 247 é o melhor canal de política do Brasil no voto popular
Assine o 247, apoie por Pix, inscreva-se na TV 247, no canal Cortes 247 e assista: