Facebook falhou em controlar conteúdos perigosos em certos países

2 min de leitura
Imagem de: Facebook falhou em controlar conteúdos perigosos em certos países
Imagem: Brasil247
Avatar do autor

Nesta segunda-feira (25), a agência de notícias Reuters revelou que o Facebook estava ciente dos conteúdos impróprios em sua plataforma e não aplicou os devidos esforços para policiá-los. Baseada na entrevista de cinco ex-funcionários do Facebook e em vários documentos internos, a reportagem aponta que falta moderação através de IA e equipe qualificada para identificar publicações prejudiciais em dezenas de países da África e Oriente Médio.

Relatórios apontam que o Facebook não possui funcionários suficientes com habilidades linguísticas e conhecimento local para suprir a demanda e identificar postagens questionáveis em países mais vulneráveis. Segundo Ashraf Zeitoon, ex-chefe de política do Facebook para o Oriente Médio e Norte da África, a abordagem da empresa na aplicação desses recursos é “colonial”, focando no lucro e sem medidas de segurança.

Além da falta de equipe e os sistemas de inteligência artificial não apresentarem um bom desempenho, os próprios usuários estariam tendo problemas ao sinalizar postagens que violam as regras do site. A opção de reportar conteúdos não estaria funcionando corretamente, impedindo que os usuários realizassem denúncias ou então apresentando erros nos relatórios enviados para análise.

(Fonte: CNN/Reprodução)(Fonte: CNN/Reprodução)Fonte:  CNN 

Funcionários já haviam apontado “lacunas significativas” no objetivo de bloquear o discurso de ódio em lugares passando por momentos políticos delicados, como Afeganistão e Iêmen, ou países sob risco de violência, principalmente Mianmar e Etiópia. Essas lacunas podem permitir a proliferação de postagens abusivas nos países onde o próprio Facebook determinou que o risco de danos no mundo real é alto.

Em um comunicado, o porta-voz do Facebook disse que a empresa possui falantes nativos em todo o mundo, revisando mais de 70 idiomas, além de especialistas de questões humanitárias e direitos humanos. No entanto, relatórios demonstram como funcionários já haviam avisado à empresa sobre os problemas com as ferramentas — tanto humanas quanto tecnológicas — destinadas a revisar os conteúdos.

Mianmar e Afeganistão

Em 2018, especialistas das Nações Unidas, que investigam uma campanha de assassinatos e expulsões contra a minoria muçulmana Rohingya de Mianmar, disseram que o Facebook foi amplamente usado para espalhar discurso de ódio. Outro documento mostrou que, em 2020, a empresa não tinha algoritmos de triagem conhecidos como “classificadores” para encontrar desinformação ou discurso de ódio em birmanês, a língua de Mianmar, e nas línguas etíopes oromo ou amárico.

Sendo a cobertura do idioma um dos principais problemas, uma apresentação de janeiro inclui documentos que concluíam que “há uma grande falha no processo de denúncia de discurso de ódio nos idiomas locais” para usuários no Afeganistão. Segundo o autor da apresentação, as regras que governam o que os usuários podem postar não estão disponíveis nas principais línguas do país, que vem sofrendo com a volta do Talibã no poder.

Resposta do Facebook

O Facebook disse que baseia suas decisões sobre onde implantar os recursos de detectar conteúdos questionáveis e perigosos com base no mercado e em uma avaliação dos riscos do país. No entanto, ela se recusou a dizer em quantos países não havia classificadores de discurso de ódio em funcionamento e se exige um número mínimo de moderadores para qualquer idioma oferecido na plataforma.

A empresa ainda anunciou que disponibilizará os padrões de comportamento da comunidade em 59 idiomas até o final do ano e em outros 20 até o final de 2022.

News de tecnologia e negócios Deixe seu melhor e-mail e welcome to the jungle.

Fontes