A inteligência artificial da Google está sendo preparada para ser usada em diversas finalidades diferentes, entre identificar objetos enquanto dirige um carro ou para auxiliar na identificação de objetos em imagens – e é nessa última parte que a tecnologia precisa de um pequenino ajuste.

Isso porque, de acordo com uma imagem divulgada pelo Labsix, um grupo de estudantes do MIT, a rede neural da gigante de tecnologia está confundindo alguns objetos. Um dos exemplos usados para ilustrar isso é do sistema identificando uma tartaruga feita com a ajuda de uma impressora 3D como se fosse... Um rifle?

tartaruga

Geralmente objetos assim são utilizados para testar a tecnologia, visto que ela incorpora alguns padrões que são colocados de forma intencional para enganar a IA, mesmo que algumas coisas sejam imperceptíveis aos olhos humanos.

A proteção contra esse tipo de interferência é uma das informações essenciais pra garantir que esse tipo de tecnologia seja aplicado com segurança no futuro e evitar situações como, por exemplo, criar uma forma de as câmeras de carros autônomos só vejam placas de pare.

gato

Boa parte do problema pode ser resolvido de forma relativamente simples: basta girar ou mudar o ângulo para a IA identifique melhor os objetos. No caso do estudo desenvolvido pelo Labsix, no entanto, os padrões usados fazem com que o sistema se confunda em absolutamente todos os ângulos.

O Labsix vem chamando o método de pesquisa de “Expectativa sobre transformação”, com diversos testes usando itens impressos em 3D feitos para enganar as IAs por aí, especificamente a Inception-v3 da Google.

O estudo pode ser lido na íntegra e mostra que a inteligência artificial precisa ficar um pouquinho mais esperta antes de se tornar parte da rotina.

Cupons de desconto TecMundo: