Assistentes virtuais podem ficar vulneráveis a comandos de áudio maliciosos

1 min de leitura
Imagem de: Assistentes virtuais podem ficar vulneráveis a comandos de áudio maliciosos

A popularização de assistentes virtuais em dispositivos eletrônicos cresce a cada dia e já mostra sinais de vulnerabilidade quanto a malwares. Pesquisadores da Universidade de Berkeley, na Califórnia, descobriram comandos que não são audíveis aos ouvidos do ser humano, mas que podem atingir alguns dos programas mais populares, como a Alexa, o Google Assistente e a Siri.

O arquivo de áudio secreto consegue interagir com os chatbots, sem qualquer ação ou autorização prévia da parte do dono do equipamento. A pesquisadora Carlini cita um exemplo deuma ordem para adicionar itens ao carrinho de compras na Amazon, dentro do Google Assistente: “OK Google, navegue por evil.com”. Nós, seres humanos, não escutamos o som, mas, de maneira inofensiva, ele consegue realizar várias diretrizes.

Para ilustrar a situação, encontramos um vídeo que demonstra como o malware em áudio funciona:

Carlini explica ao The New York Times que os testes iniciaram em 2016, quando o comando era ativado através de um ruído; porém, agora os estudantes conseguiram reproduzir a demonstração utilizando arquivos musicais.

"Ao fazer pequenas alterações nos arquivos de áudio, os pesquisadores foram capazes de cancelar o som que o sistema de reconhecimento de fala deveria ouvir e substituí-lo por um que seria transcrito diferentemente pelas máquinas, sendo quase indetectável para o ouvido humano […]

Eles foram capazes de esconder 'OK Google, navegue por evil.com' em uma gravação da frase, 'sem o conjunto de dados, o artigo é inútil'. Os seres humanos não conseguem discernir o áudio diferente.

O grupo de Berkeley também incorporou a ordem em arquivos de música, incluindo um clipe de quatro segundos do 'Réquiem' de Verdi.”  (tradução livre).

1

Embora tudo isso soe meio assustador, Carlini diz que tais táticas ainda não se disseminaram nas mãos de hackers; ao mesmo tempo, não existem soluções para evitar os comandos de voz. Tendo isso em mente, ela quer alertar as grandes empresas de tecnologia para que passem a observar essas vulnerabilidades com mais atenção.

Você sabia que o TecMundo está no Facebook, Instagram, Telegram, TikTok, Twitter e no Whatsapp? Siga-nos por lá.