Você já encontrou vídeos extremistas, carregados de informações falsas ou que são claramente um "caça-cliques" na página principal do YouTube? Provavelmente sim, mas isso significa que uma inteligência artificial recentemente descoberta não estava fazendo o seu trabalho direito.

O site Bloomberg obteve informações com várias fontes e descobriu que a Google mantém há anos uma IA "classificadora de vídeos ruins" no site e no app do serviço. O trabalho dela é limpar aquela seção o mais rápido possível, evitando que novos visitantes entrem em contato com materiais tóxicos, danosos ou até mesmo ilegais. Tecnicamente, nem mesmo postados esses vídeos deveriam ser, mas como esse filtro é geralmente burlado, o YouTube trabalha ao menos para empurrar a sujeira para debaixo do tapete.

O sistema nunca havia sido mencionado e foi confirmado pela Google como uma forma de "atrair e manter a audiência na homepage do YouTube", o que significa também maior visibilidade para anunciantes nos novos formatos de publicidade adotados pela empresa.

Até funciona, mas só quando precisa

Essa IA foi testada pela primeira vez em 2015, mas só entrou em atividade de forma mais intensa após um escândalo em 2017: o YouTube Kids estava "deixando escapar" vídeos impróprios, com alto teor de violência e até conteúdo sexual, vários deles envolvendo a personagem Elsa, de "Frozen: Uma Aventura Congelante".

Fontes ouvidas pelo Bloomberg foram além nas críticas: a tal classificação só seria mesmo efetiva durante emergências envolvendo anunciantes, como no caso de Elsa e de vídeos extremistas. Além disso, a quantidade de falsos positivos ainda é alta, o que pode gerar injustiças com vídeos que nada têm de ilegal, mas por algum motivo caíram no filtro treinado da inteligência artificial.

A Google afirma que ainda há muito a melhorar, mas confia nessa classificação automatizada para ajudar a lidar com a alta quantidade de vídeos armazenados a cada momento no site — e para não afastar as marcas, principalmente.