Deepfake: áudio de suposto CEO quase engana funcionário

1 min de leitura
Imagem de: Deepfake: áudio de suposto CEO quase engana funcionário
Imagem: Computerworld
Avatar do autor

Uma empresa quase se tornou vítima de um golpe após um de seus funcionários receber um áudio deepfake do suposto CEO, que solicitava "assistência imediata para finalizar um negócio urgente".

O funcionário ficou desconfiado com a mensagem e entrou em contato a empresa que, por questões de segurança, não quis se identificar. Para checar sua procedência, o áudio foi enviado para uma perícia, realizada pela Nisus, companhia focada em consultoria de segurança. Confira o áudio abaixo:

Após o procedimento, constatou-se que o áudio era sintético. Um dos pesquisadores da Nisus, Dev Badlu, explicou que muitos picos e quedas foram identificados na mensagem, o que é incomum em conversas habituais. "Parece que eles basicamente pegaram cada palavra, cortaram e colaram novamente", conta o Badlu.

O especialista ainda chamou atenção para outro sinal de falsificação: ao reduzir a voz sintética, os peritos identificaram que o som ambiente não apresentava nenhum ruído.

Apesar de esta tentativa não ter sido bem-sucedida, áudios deepfake já causaram grandes prejuízos a empresas. Um desses casos aconteceu no final de 2019, quando uma companhia alemã teve um prejuízo de € 220 mil (aproximadamente R$ 1,3 milhões) após cair no golpe.

Deepfakes no Brasil

a  Unsplash/Reprodução 

A Securisoft, empresa especializada em segurança cibernética, afirmou no começo deste ano que os casos de deepfake ficariam mais frequentes, devido ao barateamento crescente da tecnologia machine learning e da evolução do outsourcing de elementos criminosos.

O diretor da empresa, Eduardo D'Antona, chamou atenção para o cenário brasileiro que, segundo ele, tem um grande potencial para a popularização da prática. "[O Brasil] é um dos países em que mais se aplica a fusão dos diversos canais digitais com o uso intensivo de engenharia social fortalecida com a automação robótica. Para aderir ao deepfake é apenas questão de um passo adiante", alerta D'Antona.

Fontes

Deepfake: áudio de suposto CEO quase engana funcionário