Pesquisadores de inteligência artificial querem banir armas autônomas

1 min de leitura
Imagem de: Pesquisadores de inteligência artificial querem banir armas autônomas

Embora ainda faça parte da ficção, o cenário dos filmes da franquia “Exterminador do Futuro” é assustadoramente possível de acontecer no futuro. Tanto é que uma carta aberta publicada pelo Future of Life Institute (FLI) pede que a Nações Unidas determine o banimento do desenvolvimento de armas autônomas entre seus países-membros.

Entre aqueles que assinaram o documento estão personalidades como Stephen Hawking, Elon Musk e Noam Chomsky, que alertam que armas desse tipo podem se tornar as “Kalashnikovs do amanhã”. Segundo eles, armamentos que usam a inteligência artificial para dispensar a ação direta de humanos podem facilmente ser usados para causar guerras, promover o terrorismo e causar instabilidade em nível global.

“A inteligência artificial atingiu um ponto no qual o uso de sistemas do tipo é — praticamente, se não legalmente — provável dentro de anos, senão décadas”, afirma a carta. Embora o uso de armas do tipo possa diminuir mortes humanas em um primeiro momento, isso em si pode ser um erro, pois pode reduzir os limites necessários para que países declarem guerra.

Potencial perigoso

“Ao contrário das armas atômicas, as armas autônomas não exigem componentes caros ou difíceis de obter, então elas vão se tornar comuns e baratas para todos os poderes militares significativos que quiserem produzi-las em massa”, afirma o documento. “Vai ser só questão de tempo até que elas apareçam no mercado negro e caiam na mão de terroristas, ditadores que querem controlar sua população, senhores da guerra interessados em limpeza étnica, etc. Armas autônomas são ideais para assassinatos, desestabilizar nações, submeter populações e matar seletivamente um grupo étnico”.

Além disso, o FLI alerta que o desenvolvimento de armas autônomas pode fazer com que a opinião pública considere negativo todo o campo da inteligência artificial. A conclusão a que os pesquisadores e celebridades envolvidas chegam é que deve haver o total banimento do desenvolvimento de sistemas de armamentos que não dependem de um controle humano significativo.

Apesar da crítica do FLI e de outras organizações, a Força Aérea dos Estados Unidos já usa sistemas semiautônomos e há a previsão de que, até 2030, as capacidades de máquinas vão aumentar a ponto de o fator humano ser o elo mais fraco desse sistema. Outros nomes que assinaram o documento são Steve Wozniak, cofundador da Apple, Jaan Talinn, cofundador do Skype e Demis Hassabis, CEO da empresa britânica de pesquisas em inteligência artificial DeepMind.

Você sabia que o TecMundo está no Facebook, Instagram, Telegram, TikTok, Twitter e no Whatsapp? Siga-nos por lá.