De acordo com pesquisadores de Harvard, o algoritmo do YouTube pode sugerir conteúdos em que aparecem crianças depois que os usuários assistem a vídeos com conotação sexual. Os especialistas apontam que isto acaba por "sexualizar" vídeos inocentes de crianças em situações corriqueiras.

A pesquisa, divulgada pelo New York Times, aponta que o usuário que assiste vídeos eróticos pode receber recomendações para vídeos com mulheres jovens, depois para publicações com mulheres em roupas de crianças ou mais curtas, e, por fim, o algoritmo pode recomendar vídeos com meninas usando biquíni, por exemplo.

Na notícia, o NY Times ressalta que se vistos isoladamente estes vídeos de crianças podem ser considerados como conteúdo caseiro, mas dentro deste contexto de recomendação, ganha uma conotação sexual.

Em resposta, o YouTube disse que isso provavelmente foi resultado de ajustes de rotina em seus algoritmos, em vez de uma mudança política deliberada.

Sistema de recomendação

Assim que o usuário termina de ver um vídeo, a inteligência artifical do YouTube indica um outro conteúdo de assunto relacionado. De acordo com a própria rede social, essas recomendações são responsáveis por conduzir 70% das visualizações.

Por mais que o YouTube não revele como essas escolhas são feitas,  o estudo indica que a lógica usada é do “efeito buraco de coelho”. Isso significa que a plataforma sempre leva os usuários para vídeos mais extremos sobre o mesmo assunto.

Assim, vídeos de jovens com pouca roupa podem ser direcionado para publicações de crianças de biquini. O YouTube nega esse efeito. “Não está claro para nós que necessariamente o nosso mecanismo de recomendação leva você em uma direção ou outra” disse Jennifer O'Connor, diretora de produtos do YouTube.

Onde mora o perigo

Além de possivelmente colocar vídeos inocentes dentro de contextos sexualizados, o perigo desta situação está quando um pedófilo encontra estes materiais e consegue contactar a criança por meio de outras redes sociais, ressalta um psicólogo ouvido pela reportagem. 

O YouTube informou que a remoção das recomendações prejudicaria os criadores de conteúdo dentro da rede social. A empresa disse que irá limitar, então, recomendações que direcionam para vídeos que colocam crianças em risco.