Em busca de acabar com as publicações envolvendo pornografia de vingança na plataforma, o Facebook anunciou o lançamento de uma ferramenta que utiliza inteligência artificial para remover postagens que façam exposição indesejada da intimidade de usuários. A ideia é que esse recurso possa detectar imagens que contenham nudez, antes mesmo de algum usuário reportar a publicação.

Em uma postagem em seu blog, o Facebook ainda afirmou que vai expandir esse piloto do projeto durante os próximos meses para que mais pessoas possam se beneficiar

Após essa detecção, um moderador humano vai avaliar a publicação para definir se ela viola os padrões de conduta do Facebook. Caso se trate realmente de pornografia de vingança, a conta que fez a postagem deve ser deletada da plataforma. A empresa afirmou que vai ser possível fazer uma apelação em caso de o usuário considerar que sofreu alguma injustiça por uma avaliação equivocada.

Ajudando quem precisa

A nova ferramenta – que também vai incluir recursos para que as vítimas busquem grupos de ajuda e guias para quem deseja reportar casos não identificados pela plataforma – vai ser implementada tanto no Facebook quanto no Instagram. A empresa também entrou em contato com organizações sem fins lucrativos em diversos países, incluindo o Brasil, com a SaferNet, para ajudar a criar recursos que sejam relevantes de maneira local e cultural para as vítimas.

Em uma postagem em seu blog, o Facebook ainda afirmou que vai expandir esse piloto do projeto durante os próximos meses para que mais pessoas possam se beneficiar dessa opção em uma emergência.

Cupons de desconto TecMundo: