Ex-moderadora do Facebook fala sobre rotina revisando conteúdo perturbador

2 min de leitura
Imagem de: Ex-moderadora do Facebook fala sobre rotina revisando conteúdo perturbador

A moderação do conteúdo publicado no Facebook foi criticada anteriormente por conta de suas diretrizes, que deixam espaço aberto para o compartilhamento de mensagens incentivando a violência, embora tivesse, até bem pouco tempo, tolerância zero para imagens que mostram nudez, o que acabou resultando na exclusão de uma foto histórica mostrando crianças vítimas da Guerra do Vietnã.

Embora esse trabalho possa contar com a ajuda de algoritmos e inteligência artificial, boa parte dele é feito por moderadores humanos. São funcionários do Facebook que passam o dia vendo milhares de imagens perturbadoras que podem conter coisas como pornografia infantil, zoofilia e violência extrema. É o caso de Sarah Katz, que contou para o Business Insider como isso a deixou insensível a esse tipo de conteúdo.

Ela trabalhou por oito meses em um escritório do Facebook, sendo contratada como uma terceirizada através da companhia Vertisystem em 2016. O emprego consistia em analisar cerca de 8 mil publicações diariamente e decidir se elas violavam ou não os Padrões da Comunidade da rede social. Para conseguir atingir essas metas de moderação, o tempo para tomar as decisões não poderia ser maior que alguns segundos.

O emprego consistia em analisar cerca de 8 mil publicações diariamente e decidir se elas violavam ou não os Padrões da Comunidade da rede social.

Quem é contratado sabe dessas informações, que estão no contrato de trabalho assinado por eles. O Facebook também avisa que deve ser notificado imediatamente caso o funcionário não se sinta confortável e deseje interromper a atividade. Katz diz que esse trabalho acabava ficando monótono depois de um tempo: “Você fica mesmo mais insensível em relação a alguns materiais gráficos porque você começa a vê-los muitas vezes. Boa parte do conteúdo costuma recircular”.

Apesar de tudo, Katz conta que o ambiente de trabalho era bom e o lado ruim da profissão é compensando pelo sentimento de que você está ajudando as pessoas que utilizam a plataforma. Mas alguns comentários da ex-moderadora voltaram a levantar questionamentos sobre a efetividade dos métodos utilizados pelo Facebook.

O principal deles envolve o fato de a empresa não suspender as contas que compartilham pedofilia ou violência extrema, mas foram criadas a mais de 30 dias. Os perfis só eram deletados se tivessem sido feitos a menos de um mês, quando eram apagados com a justificativa de serem contas falsas. Pelo menos é o que Katz afirmou acontecer na época em que trabalhava na empresa.

Para Katz, profissão deveria ser uma carreira dentro da empresa

Katz também pediu para que as companhias donas de redes sociais ou outras plataformas que são utilizadas por milhões de pessoas deem mais atenção ao trabalho dos moderadores, transformando a profissão em uma carreira dentro de empresa em vez de apostar na contratação temporária de terceirizados.

O Facebook comentou o caso, afirmando que a equipe de moderadores tem “um papel crucial em ajudar a criar um ambiente seguro para a comunidade do Facebook, que é nossa prioridade número um. Reconhecemos que esse trabalho pode ser difícil, por isso disponibilizamos apoio psicológico e de bem-estar para toda a nossa equipe”.

A empresa lembrou ainda que expandiu recentemente o total de pessoas trabalhando com moderação. De acordo com o Facebook, mais 3 mil funcionários foram contratados para se juntar aos 4,5 mil que já trabalhavam nessa área.

Você sabia que o TecMundo está no Facebook, Instagram, Telegram, TikTok, Twitter e no Whatsapp? Siga-nos por lá.