Google vem já há algum tempo trabalhando em um sistema de inteligência artificial capaz de reconhecer – e, por consequência, punir de alguma forma – os comentários ou postagens de ódio e ofensa que circulam pela internet. Usando um algoritmo que identifica por meio de palavras-chave o que pode conter linguagem obscena ou violenta, a Google analisa a postagem e a considera negativa usando um sistema de porcentagem.

O problema é que não é tão difícil assim – por enquanto – enganar esse sistema e fazer com que ele não identifique as grosserias e palavrões, por exemplo, em um comentário. Antigamente, o simples fato de escrever as palavras com algum erro de ortografia ou inserir um caractere diferente, como um ponto, no meio da palavra ajuda bastante na tarefa de enganar a inteligência artificial.

Melhorando a cada dia

Muito disso já foi melhorado, apesar de ainda estar longe da perfeição, mas uma nova maneira descoberta para enganar o algoritmo da Google é inserir palavras positivas no meio dos comentários aleatoriamente, como “amor”. A presença de palavras assim reduz bastante a nota que é dada em porcentagem sendo que quanto mais perto de 100% mais certo é do comentário ser negativo.

Identificar o problema não deixa de ser um passo em busca de um sistema perfeito, ou talvez mais próximo disso

Assim, da mesma forma que cada palavrão acrescentado em uma frase aumenta sua nota, cada palavra positiva a diminui, sendo possível enganar a inteligência artificial que poderia deixar passar comentários horríveis mascarados com termos bonitos.

Seja como for, identificar o problema não deixa de ser um passo em busca de um sistema perfeito, ou talvez mais próximo disso. E já nos indica que apenas a análise de palavras-chave não é o suficiente. A ideia agora é exatamente que a inteligência artificial seja ainda mais inteligente para termos uma internet cada vez menos tóxica.

Cupons de desconto TecMundo: