YouTube recomenda vídeos que violam a sua própria política de uso

2 min de leitura
Imagem de: YouTube recomenda vídeos que violam a sua própria política de uso
Imagem: Unsplash/Reprodução
Avatar do autor

O algoritmo do YouTube recomenda vídeos que violam as próprias políticas de conteúdo da plataforma, contribuindo para a desinformação, disseminação de discursos de ódio e o extremismo político. É o que afirma um estudo divulgado nesta quarta-feira (7) pela Fundação Mozilla.

Na pesquisa, baseada em dados compartilhados voluntariamente por 30 mil usuários do serviço do Google, os investigadores descobriram que 71% dos vídeos marcados como "nocivos" foram sugeridos pelo YouTube. Curiosamente, a recomendação de conteúdos "perturbadores" é 60% maior entre os não falantes da língua inglesa.

Em meio aos conteúdos sugeridos pela inteligência artificial que contrariam os termos de uso, há desde fake news sobre covid-19 até animações inadequadas às crianças, segundo os pesquisadores. O estudo deu alguns exemplos de como isso ocorre.

A maior parte dos conteúdos assistidos no YouTube é de sugestões, segundo a pesquisa.A maior parte dos conteúdos assistidos no YouTube é de sugestões, segundo a pesquisa.Fonte:  Unsplash 

Um dos casos mencionados cita um usuário que assistiu a vídeos de militares americanos e, na sequência, recebeu sugestão de uma gravação na qual um homem humilhava uma feminista. Em outra amostra, o internauta vê um vídeo sobre direitos de softwares e é recomendado a ver um filme sobre o direito de usar armas.

Como melhorar o sistema?

De acordo com o líder da pesquisa, Brandi Geurkink, o algoritmo do YouTube "é projetado de forma a prejudicar e desinformar as pessoas". Ele aponta que as descobertas são apenas a "ponta do iceberg" e espera que elas levem a gigante das buscas a ser mais transparente em relação à ferramenta.

A Mozilla também apresentou sugestões para melhorar o sistema. Conforme Geurkink, o YouTube e as demais plataformas precisam dar aos usuários a opção de não receber recomendações personalizadas, além de detalharem melhor como funcionam estes mecanismos. Ele ainda indica a criação de sistemas de gerenciamento de risco dedicados às sugestões por IA e a formulação de novas leis para regular o uso dos algoritmos.

YouTube responde

Por meio de sua assessoria de imprensa, o YouTube emitiu o seguinte comunicado oficial sobre o caso:

"O objetivo do nosso sistema de recomendação é conectar os espectadores com o conteúdo que os agrada e, por dia, mais de 200 milhões de vídeos são recomendados apenas na nossa página inicial. Mais de 80 bilhões de informações são usadas para calibrar nossos sistemas, incluindo dados de pesquisas com usuários sobre o que eles querem assistir. Trabalhamos constantemente para melhorar a experiência no YouTube e, somente no ano passado, implementamos mais de 30 mudanças diferentes para reduzir as recomendações de conteúdo potencialmente prejudicial. Graças a essa mudança, o consumo de conteúdo que chega perto de violar nossas regras proveniente das nossas recomendações está agora significativamente abaixo de 1%".

YouTube recomenda vídeos que violam a sua própria política de uso