83% dos vídeos de terrorismo são removidos do YouTube antes de uma denúncia

2 min de leitura
Imagem de: 83% dos vídeos de terrorismo são removidos do YouTube antes de uma denúncia

O YouTube anunciou na metade de 2017 que estaria renovando as suas diretrizes de uso a fim de incrementar o combate ao terrorismo dentro da plataforma de vídeos. Agora, o portal da Google volta a público para atualizar os números de sua empreitada, celebra estatísticas bastante positivas e comenta algumas novidades.

A principal delas é o fato de 83% dos vídeos com conteúdo de violência extremista serem removidos antes mesmo de um denúncia. Isso acontece porque o YouTube combina análise usando inteligência artificial com ações humanas. No caso do uso da tecnologia, se um conteúdo nocivo é identificado, ele é enviado para um avaliador humano decidir se o material deve ou não ser retirado do ar.

8 a cada 10 vídeos de terrorismo são removidos antes mesmo de serem denunciados por usuários humanos, informa o YouTube

O número, alcançado durante de setembro de 2017, está oito pontos percentuais acima dos dados de agosto, indicando um avanço na precisão das ferramentas de aprendizagem de máquina da página. Isso apesar de alguns problemas indicados justamente no mês de agosto, quando até mesmo vídeos de notícias sobre o grupo autointitulado Estado Islâmico foram removidos automaticamente, por exemplo.

A tecnologia de sinalização de vídeos impróprios foi incrementada com a revisão manual de mais de 1 milhão de vídeos, informa o YouTube. Ou seja, a equipe responsável por “treinar” a inteligência artificial passou um bom tempo revisando conteúdo enviado para a plataforma a fim de aprimorar o processo automático.

Reforço

Nesta quarta-feira (18), o YouTube anunciou um reforço na sua equipe de revisão. Agora, a plataforma conta com a ajuda de 35 organizações não governamentais que levarão “conhecimento especializado para questões complexas como discurso de ódio, radicalização e terrorismo”, garante o site da Google. São organizações de 20 países diferentes que ganham status especial dentro da rede e vão ajudar o YouTube a moderar conteúdo.

Combate ao extremismo

Nem todos os vídeos “impróprios” violam alguma política da empresa, mas conteúdos religiosos controversos ou supremacistas não terão vida fácil na plataforma. Isso porque, apesar de ainda permanecerem ativos, eles deixam de ser recomendados e não podem ser monetizados. Entre as punições incluem-se ainda a remoção de recursos chave da publicação, como comentários, likes e vídeos sugeridos.

“Isso vem funcionando conforme planejado e nos ajuda a encontrar um equilíbrio entre manter a livre expressão ao oferecer um registro histórico de conteúdo para o interesse público enquanto também impede que esses vídeos se espalhem amplamente ou sejam recomendados aos outros”, informa o YouTube.

Complementando o combate ao extremismo, à supremacia branca e também ao discurso de ódio dentro do YouTube, a plataforma tem “ampliado vozes falando contra o ódio”. A ideia, então, é ampliar o método de redirecionamento detalhado em julho para novos idiomas e novas palavras, fazendo com que quem procura por vídeos pregando racismo e xenofobia

Fontes

Você sabia que o TecMundo está no Facebook, Instagram, Telegram, TikTok, Twitter e no Whatsapp? Siga-nos por lá.