Amazon parou de utilizar uma inteligência artificial criada pela companhia para encontrar bons candidatos a vagas de emprego após perceber que a ferramenta exibia um comportamento discriminatório contra mulheres. Criada em 2014, a IA era a esperança da empresa para automatizar o processo de seleção de currículos, mas foi abandonada no início deste ano.

De acordo com cinco pessoas ouvidas pela agência de notícias Reuters, essa falha foi percebida após cerca de um ano de desenvolvimento. Enquanto analisavam os dados com as decisões tomadas pela IA, os funcionários perceberam que ela dava notas mais baixas para currículos que continham a palavra ‘mulher’. Em um dos casos, a ferramenta julgou como algo negativo uma candidata ter sido capitã de um clube de xadrez para mulheres.

A Amazon até tentou criar um filtro para ensinar à IA que a palavra ‘mulher’ não é um termo negativo, mas não conseguiu garantir a eficiência desse método. De acordo com a empresa, os responsáveis pelas contratações olhavam as listas de recomendações geradas pelo programa. No entanto, ela afirma que eles não se baseavam apenas nessas informações para decidir quem seria contratado.

Inteligência artificial reduziu a nota de candidatas que colocaram a palavra 'mulher' no currículo

Segundo as fontes ouvidas pela agência, isso aconteceu porque a máquina utilizou como base as contratações feitas durante os últimos dez anos para aprender padrões que pudessem indicar quem seriam os melhores funcionários. Como a tecnologia ainda é uma área dominada por homens, esse treinamento levou a IA a reproduzir o mesmo comportamento machista que a empresava esperava evitar ao transferir essas responsabilidades para um programa.

Essa não era a única falha da inteligência artificial da Amazon. Ela também passou a ignorar informações importantes para os cargos, como as habilidades dos candidatos em diversas linguagens de programação, e a favorecer currículos com as palavras “executar” e “capturar”, disse uma das fontes. A partir de certo momento, pessoas completamente desqualificadas para os trabalhos começaram a ser recomendadas aleatoriamente pelo programa.

Depois de aproximadamente 500 iterações desenvolvidas, os executivos da empresa perceberam que o projeto não chegava a lugar e nenhum e encerraram os trabalhos da equipe. A Amazon ainda aproveitou alguns dados do projeto e atualmente utiliza uma versão simplificada da IA para encontrar candidatos duplicados em bases de dados de currículos. Após o fracasso, um novo time foi formado para criar ferramentas de contratação com foco em promover a diversidade.