Moderação do Facebook deixa passar discurso de ódio e pede desculpas

2 min de leitura
Imagem de: Moderação do Facebook deixa passar discurso de ódio e pede desculpas
Imagem: wired

Uma equipe de reportagem do ProPublica, uma publicação sem fins lucrativos norte-americana, demonstrou mais uma vez que o processo de moderação de discurso de ódio no Facebook é bastante inconsistente. O time de três jornalistas enviou para análise um conjunto de 49 postagens da rede social que continham discurso de ódio e mais algumas que, na verdade, eram apenas opiniões não ofensivas de usuários.

44% das publicações que deveriam ter sido tiradas do ar permaneceram na rede social erroneamente

Quando a equipe recebeu o resultado da análise, percebeu que boa parte das postagens que claramente continham discurso de ódio — que vai contra os termos de uso da rede social — não tinham sido removidas. Posteriormente, o Facebook admitiu que sua equipe de moderação errou na análise de 22 das 49 postagens enviadas. Em outras palavras, 44% das publicações que deveriam ter sido tiradas do ar permaneceram na rede social erroneamente.

A empresa se desculpou pelo ocorrido e informou ao ProPublica que, em 2018, pretende expandir a sua equipe de moderadores para 20 mil pessoas. “Sentimos muito pelos erros que cometemos e admitimos que precisamos melhorar”, disse Justin Osofsky, vice-presidente do Facebook para assuntos de moderação. Atualmente, 7,5 mil colaboradores trabalham na seção de moderação da empresa, removendo fotos de abuso infantil, pornô de vingança e, em grande parte, discurso de ódio, preconceito e ofensas diversas.

Erros dos usuários?

Dos 22 casos em que o Facebook admitiu ter errado, seis deles teriam sido descartados pela equipe de moderação porque os usuários teriam reportado as postagens de forma errada. Em mais dois outros, a empresa afirmou não ter informações suficientes para comentar.

Remove cerca de 66 mil posts por semana por conta de discurso de ódio

A companhia também defendeu 19 decisões tomadas pelos moderadores, afirmando que elas não poderiam ser questionadas de acordo com os termos de uso do Facebook. Muitas dessas decisões foram de remover publicações com conteúdo sexista, racista e antimuçulmano. A rede social ainda disse que remove cerca de 66 mil posts por semana por conta de discurso de ódio dessa natureza.

Ainda assim, de acordo com a reportagem do ProPublica, as decisões da equipe de moderação e do algoritmo da empresa que faz uma pré-análise nos conteúdos reportados, são inconsistentes até mesmo em casos considerados simples. Uma leitora da publicação afirmou ter visto uma foto no Facebook com a seguinte legenda: “o único muçulmano bom é aquele que está morto pra caramba”. A leitora afirmou ter reportado a publicação, mas recebeu uma resposta genérica.

“Nós analisamos a foto e pensamos que não vai contra qualquer uma de nossas regras. Entendemos, contudo, que o conteúdo ainda pode ser ofensivo para você e para outros”. A postagem em questão não foi tirada do ar até que o ProPublica a denunciou diretamente para a equipe de Osofsky.

Você sabia que o TecMundo está no Facebook, Instagram, Telegram, TikTok, Twitter e no Whatsapp? Siga-nos por lá.