Algoritmo do Twitter carrega diversos preconceitos, revelam cientistas

1 min de leitura
Imagem de: Algoritmo do Twitter carrega diversos preconceitos, revelam cientistas
Imagem: Reprodução/Stringer/Reuters

Cientistas revelaram em concurso promovido pelo Twitter nesse fim de semana que o algoritmo de corte de imagens da rede social não apenas prioriza pessoas de pele branca, prejudicando as de pele preta, mas que possui diversos preconceitos, também, em relação a vários outros grupos.

Dentre os exemplos que citaram estão islâmicos, por causa das vestimentas que cobrem suas cabeças; com deficiência, especialmente indivíduos que utilizem cadeiras de rodas; e de idade mais avançada, com cabelo branco ou grisalho.

Parham Aarabi, professor da Universidade de Toronto e coordenador da equipe por trás dos estudos, explica: "Em quase todos os principais sistemas de inteligência artificial (IA) que testamos para grandes empresas de tecnologia, encontramos preconceitos significativos. A IA tendenciosa é uma daquelas coisas que ninguém avaliou completamente; quando isso acontece, descobrimos existirem grandes problemas em todo o cenário."

Graças a seus levantamentos, o time ficou em segundo lugar da competição lançada pela própria plataforma, dedicada a premiar quem comprovasse falhas em seus sistemas durante a a Def Con, convenção para hackers. Já o vencedor demonstrou a maior probabilidade de o algoritmo do Twitter destacar rostos modificados para parecerem mais magros ou jovens.

Parham Aarabi, professor da Universidade de Toronto.Parham Aarabi, professor da Universidade de Toronto.Fonte:  Reprodução/Patrick MacLeod 

Contaminação acidental

Aarabi salienta que programas que "aprendem" com o comportamento de usuários invariavelmente são contaminados com preconceitos acidentais. Sendo assim, até mesmo a análise da quantidade de cliques em determinadas fotos os leva a "crer" que outras podem ser descartadas, marginalizando, assim, grupos relacionados a elas.

Rumman Chowdhury, diretora da equipe do Twitter que coordena a avaliação da ética de machine learning da plataforma e organizadora do concurso, acredita que treinar máquinas adequadamente é uma tarefa assustadora a profissionais. "Queremos abrir um precedente no Twitter e na indústria para a identificação proativa e coletiva de danos algorítmicos", conclui.

Você sabia que o TecMundo está no Facebook, Instagram, Telegram, TikTok, Twitter e no Whatsapp? Siga-nos por lá.