Você já deve ter ouvido falar da imparcialidade, principalmente em relação ao jornalismo. Agora, cientistas descobriram que, quando as inteligências artificiais aprendem linguagens a partir de textos, elas se tornam bem parciais quando o assunto é gênero e raça. Na prática, isso significa que o algoritmo aprende a associar nomes femininos com mais palavras referentes à família do que à carreira, e por aí vai.

No estudo publicado na revista Science, os pesquisadores testaram a parcialidade de um modelo comum de IA, e combinaram os resultados com um teste psicológico que mede o quão tendenciosos os humanos são. Aylin Caliskan, autor do estudo e doutor na Universidade de Princeton, comenta que a IA é tendenciosa porque reflete os efeitos da cultura, mundo e linguagem. Assim, se você for treinar um modelo utilizando dados históricos humanos, vai acabar absorvendo o que quer que tenha naqueles dados, inclusive estereótipos.

 

Na verdade, isso é simplesmente uma consequência de como os algoritmos funcionam. Considere-os como uma espécie de receita que trabalha com materiais já existentes - como livros e textos da internet. Assim, como estes materiais já são tendenciosos, é natural que a IA também pegue algumas influências. Será que há algum jeito de mudar isso? Sim, mas o problema não está no modelo utilizado. A inteligência artificial está simplesmente trabalhando com o mundo do jeito que é, ou seja, cheio de situações tendenciosas e estereótipos, e mudar o funcionamento do algoritmo o tornaria menos eficaz.

Contudo, não é como se não houvesse nada a ser feito; os humanos podem, por exemplo, ajudar com pequenas correções, de forma semelhante ao que acontece no Google Tradutor: se você perceber que a palavra "doctor" é sempre traduzida para um substantivo masculino e "nurse" para o feminino, basta sugerir uma mudança.