Redes Sociais

Algoritmo do Twitter carrega diversos preconceitos, revelam cientistas

Dentre os 'alvos', além dos já conhecidos, estão pessoas islâmicas, com deficiência ou de idade mais avançada; entenda

10/08/2021, às 04:40

Algoritmo do Twitter carrega diversos preconceitos, revelam cientistas

Fonte:  Reprodução/Patrick MacLeod 

Imagem de Algoritmo do Twitter carrega diversos preconceitos, revelam cientistas no tecmundo

Cientistas revelaram em concurso promovido pelo Twitter nesse fim de semana que o algoritmo de corte de imagens da rede social não apenas prioriza pessoas de pele branca, prejudicando as de pele preta, mas que possui diversos preconceitos, também, em relação a vários outros grupos. 

Dentre os exemplos que citaram estão islâmicos, por causa das vestimentas que cobrem suas cabeças; com deficiência, especialmente indivíduos que utilizem cadeiras de rodas; e de idade mais avançada, com cabelo branco ou grisalho.

Parham Aarabi, professor da Universidade de Toronto e coordenador da equipe por trás dos estudos, explica: "Em quase todos os principais sistemas de inteligência artificial (IA) que testamos para grandes empresas de tecnologia, encontramos preconceitos significativos. A IA tendenciosa é uma daquelas coisas que ninguém avaliou completamente; quando isso acontece, descobrimos existirem grandes problemas em todo o cenário."

Graças a seus levantamentos, o time ficou em segundo lugar da competição lançada pela própria plataforma, dedicada a premiar quem comprovasse falhas em seus sistemas durante a a Def Con, convenção para hackers. Já o vencedor demonstrou a maior probabilidade de o algoritmo do Twitter destacar rostos modificados para parecerem mais magros ou jovens.

Parham Aarabi, professor da Universidade de Toronto.Parham Aarabi, professor da Universidade de Toronto.

Contaminação acidental

Aarabi salienta que programas que "aprendem" com o comportamento de usuários invariavelmente são contaminados com preconceitos acidentais. Sendo assim, até mesmo a análise da quantidade de cliques em determinadas fotos os leva a "crer" que outras podem ser descartadas, marginalizando, assim, grupos relacionados a elas.

Rumman Chowdhury, diretora da equipe do Twitter que coordena a avaliação da ética de machine learning da plataforma e organizadora do concurso, acredita que treinar máquinas adequadamente é uma tarefa assustadora a profissionais. "Queremos abrir um precedente no Twitter e na indústria para a identificação proativa e coletiva de danos algorítmicos", conclui.

Fontes