Quebra-galho: Google não consertou identificação de imagem racista

1 min de leitura
Imagem de: Quebra-galho: Google não consertou identificação de imagem racista

Três anos atrás, ainda em 2015, um engenheiro de software chamado Jacky Alciné denunciou o sistema de reconhecimento de imagem do Google por identificar pessoas negras como gorilas. A empresa considerou o erro um absurdo e resolveu focar em conseguir uma solução para que seu algoritmo não haja de maneira racista.

De lá para cá, casos como o do engenheiro não aconteceram mais, mas será que a Google realmente arrumou uma maneira de driblar essa falha na inteligência artificial? Na verdade, não. O que a empresa fez foi a clássica gambiarra: em vez de ensinar o sistema a diferenciar, resolveu não mais identificar gorilas de maneira algum, assim, retirando o risco do erro.

smart people are cooler

Tecnologia, negócios e comportamento sob um olhar crítico.

Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo

Fazendo testes

Uma reportagem da Wired testou de inúmeras maneiras o identificador de imagens do Google Fotos, inclusive subindo uma infinidade de imagens de quase todos os tipos de primatas. A plataforma foi capaz de identificar praticamente todas as espécies, menos gorilas e chimpanzés.

A tecnologia de rotulagem de imagem ainda é nova e, infelizmente, não está nem perto de ser perfeita

A publicação também descobriu que a Google restringiu o seu reconhecimento em outras categorias raciais: procurando por "black man" (homem negro) ou "black woman" (mulher negra), por exemplo, apenas retornou fotos de pessoas em preto e branco, ordenadas por gênero, mas não por raça.

Trabalho complicado?

A Google confirmou o bloqueio dessas “tags” no Google Fotos logo após o incidente com Alciné. “A tecnologia de rotulagem de imagem ainda é nova e, infelizmente, não está nem perto de ser perfeita", afirmou um representante da empresa. É difícil dizer se a Google não foi capaz de solucionar o problema, se não quis aplicar esforços nisso ou se apenas preferiram não arriscar que o erro se repita.

Seja como for, esse incidente serve para mostrar o quão complicado é lidar com o treinamento de um sistema da inteligência artificial mesmo em coisas relativamente simples como identificação de imagens.

smart people are cooler

Tecnologia, negócios e comportamento sob um olhar crítico.

Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo

Fontes

Você sabia que o TecMundo está no Facebook, Instagram, Telegram, TikTok, Twitter e no Whatsapp? Siga-nos por lá.