Um robô poderia recusar uma ordem humana, caso estivesse certo?

1 min de leitura
Imagem de: Um robô poderia recusar uma ordem humana, caso estivesse certo?

Não haverá misericórdia. (Fonte da imagem: CDN)

O futuro é meio nebuloso quando pensamos em robôs. Olhar eles subindo escadas no Japão é tudo muito bonito, mas até que ponto eles vão se tornar inteligentes? Já fomos aterrorizados o suficiente com o Exterminador do Futuro e a Skynet, e as questões que extrapolam as famosas três leis da robótica são sérias e precisam ser debatidas.

A In-Q-Tel, braço de tecnologia da CIA, a central de inteligência americana, pediu recentemente para o filósofo Patrick Lin, uma reflexão sobre o valor do uso dos drones (veículos autônomos) na guerra para vigilância e ataques direcionados. A enorme entrevista foi publicada no site The Atlantic.

Em sua publicação, Lin investiga como os robôs podem mudar a face da guerra, quer através de interrogatórios imparciais, ou passando-se por insetos para coletar informações. Segundo ele, a cada nova tecnologia, existe um dilema moral.

Questões importantes foram levantadas: um robô suficientemente inteligente poderia recusar uma ordem, se possuísse informações mais corretas que seu operador humano? Robôs poderiam interrogar ou até torturar suspeitos? Os nanobots (robôs microscópicos) poderiam representar um risco inaceitável para civis que os inalassem acidentalmente? São questões relevantes na questão de tecnologia e moralidade.

Você sabia que o TecMundo está no Facebook, Instagram, Telegram, TikTok, Twitter e no Whatsapp? Siga-nos por lá.