Pesquisadores enganam sistema de reconhecimento facial e fazem alerta

1 min de leitura
Imagem de: Pesquisadores enganam sistema de reconhecimento facial e fazem alerta
Avatar do autor

Uma equipe da McAfee conseguiu enganar um sistema de reconhecimento facial semelhante ao utilizado em aeroportos para verificação de passaportes e, por meio de técnicas de machine learning, fez com que o algoritmo identificasse uma pessoa diferente da que era exibida – o que permitiria a alguém embarcar em um voo estando registrado ou não.

Para o ataque, foi utilizado um algoritmo de tradução conhecido como CycleGAN, capaz de mudar o estilo de fotografias com efeitos especiais, a exemplo de "tornar" o registro de um porto uma pintura de Monet ou transformar uma imagem de uma montanha no verão em um cenário de inverno. Mais de 1,5 mil fotos de dois membros do time foram "misturadas" umas às outras e, depois de centenas de tentativas, chegou-se a uma falsificada que parecia uma a olho nu e outra ao reconhecimento facial.

Imagem vista a olho nu parecia uma pessoa, mas algoritmo reconhecia outra.Imagem vista a olho nu parecia uma pessoa, mas algoritmo reconhecia outra.Fonte:  Reprodução 

Steve Povolny, líder do estudo, explica: "Se formos à frente de uma câmera ao vivo que usa reconhecimento facial para identificar e interpretar quem está sendo examinado e comparar com uma foto de passaporte, podemos realística e repetidamente causar esse tipo de classificação errônea".

Humanos vs. máquinas

Ainda que a informação seja alarmante, os pesquisadores não tiveram acesso ao sistema real utilizado nesses estabelecimentos, apenas a um algoritmo avançado open source. Além disso, são necessários computadores poderosos e expertise para treinar as máquinas, o que sugere alto investimento e muito tempo.

De qualquer forma, Povolny considera que a parte mais difícil para alguém mal-intencionado é justamente conseguir o programa a ser enganado – e, dadas as altas semelhanças entre os algoritmos de reconhecimento facial, ele acha que é provável que o ataque funcione mesmo no sistema aeroportuário real e em outras situações, como em ambientes governamentais, segurança de eventos e mesmo tribunais.

Steve Povolny, líder do estudo.Steve Povolny, líder do estudo.Fonte:  Reprodução 

Defendendo a manutenção da presença humana nessas ocasiões, o pesquisador alerta: "A IA e o reconhecimento facial são ferramentas incrivelmente poderosas para ajudar no processo de identificação e autorização de pessoas; porém, quando você os pega e substitui cegamente um sistema existente que depende inteiramente de um ser humano sem ter algum tipo de verificação secundária, isso pode significar introduzir uma fraqueza maior do que antes".

Pesquisadores enganam sistema de reconhecimento facial e fazem alerta