Na quarta-feira passada, dia 24 de outubro, o Facebook publicou um artigo informando que está usando Inteligência artificial e “machine learning” para detectar nudez infantil, bloqueando o conteúdo no momento em que é postado. Pela internet, é possível encontrar relatos de usuários que já foram “trollados” pela rede social ao tentar publicar uma foto de alguma criança da família, usando pouca roupa, mas que não envolve, necessariamente, nudez e/ou sexualidade. Por exemplo, é comum crianças de colo usarem apenas fraldas quando estão em casa. Mesmo assim, é possível que seus pais não consigam postar a foto abordando uma ocasião deste tipo.

É claro que o foco do Facebook não é banir esse tipo de publicação, mas sim as que têm relação direta com conteúdo sexual, mesmo que não seja explícito. Por isso, de julho a setembro, a rede social removeu 8,7 milhões de publicações que, segundo ela, violavam as políticas de nudez infantil ou exploração sexual de crianças. Adicionalmente, os perfis que postam esse tipo de conteúdo também são excluídos.

Utilizar inteligência artificial para esta finalidade tem seus prós e seus contras. Como citado anteriormente, nem sempre a tecnologia acerta ao bloquear um conteúdo, mas, de fato, seria muito mais difícil se esta tarefa ficasse a cargo somente de trabalho manual. No passado, o Facebook já removeu publicações com a célebre imagem da menina vietnamita que está nua, caminhando na rua, após ter sido alvo de um ataque de napalm. Hoje em dia a foto está liberada.

No mais, a plataforma só permite que usuários com idade superior a 12 anos se cadastrem, e impõe restrições de interação nos perfis dos adolescentes.

Cupons de desconto TecMundo: