Seria impossível controlar uma superinteligência artificial, diz estudo

2 min de leitura
Imagem de: Seria impossível controlar uma superinteligência artificial, diz estudo
Imagem: Getty Images

Nos últimos meses, o setor de inteligência artificial (IA) despertou o interesse em milhões de pessoas e alimentou o debate sobre as questões éticas que envolvem a tecnologia. Em um estudo publicado na revista científica Journal of Artificial Intelligence Research, pesquisadores descrevem que os dados atuais sugerem que seria impossível de controlar uma superinteligência artificial.

Muitas pessoas têm medo de que as IAs possam desencadear um tipo de apocalipse e causar a destruição da humanidade e, segundo os cientistas, isso pode acontecer em uma ocasião específica: caso ela alcance o nível de superinteligência artificial.  De acordo com o estudo, o problema é que, provavelmente, ela agiria por conta própria e os especialistas não conseguiriam controlá-la.

Por exemplo, caso uma superinteligência tentasse destruir o mundo e cientistas desenvolvessem um programa para tentar impedir esta situação, a super IA poderia interferir e impedir o uso desse software.  Para não deixá-la destruir o mundo, seria necessário criar uma simulação dessa superinteligência, contudo, possivelmente, os humanos seriam incapazes de criar uma simulação tão avançada quanto a própria IA.

Existe uma preocupação significativa entre muitos especialistas de que as inteligências artificiais possam causar danos à vida dos seres humanos.Existe uma preocupação significativa entre muitos especialistas de que as inteligências artificiais possam causar danos à vida dos seres humanos.Fonte: Getty Images

“Uma superinteligência representa um problema fundamentalmente diferente daqueles normalmente estudados sob a bandeira da ‘ética robótica'. Isso ocorre porque uma superinteligência é multifacetada e, portanto, potencialmente capaz de mobilizar uma diversidade de recursos para atingir objetivos potencialmente incompreensíveis para os humanos, quanto mais controláveis”, explica o estudo publicado em 2021.

Superinteligência artificial

O problema é que este tipo de IA estaria em um nível acima da inteligência humana, por isso, provavelmente, não seria possível estabelecer certos limites e regras, como "não ferir humanos". Inclusive, parte dessa ideia foi inspirada pelo raciocínio de Alan Turing, considerado o 'pai da computação', em que ele afirma que é logicamente impossível prever os resultados de todas as IAs desse nível.

Para os pesquisadores, uma das alternativas para não permitir que as super IAs destruam o mundo é limitar a capacidade delas, pois não seria possível ensiná-las adequadamente sobre ética. Uma dessas possibilidades é cortar a conexão da IA com a internet, limitando significativamente o seu aprendizado — atualmente, o ChatGPT não está diretamente conectado a internet.

Há quem acredita que o mundo se transformará em uma distopia ao estilo do universo retratado na franquia Exterminador do Futuro.Há quem acredita que o mundo se transformará em uma distopia ao estilo do universo retratado na franquia Exterminador do Futuro.Fonte:  Getty Images 

No início de 2023, o temor em relação às IAs levou algumas personalidades da tecnologia, como Elon Musk e Steve Wozniak, a expressarem preocupações e assinar a carta aberta "Pause Giant AI Experiments" (pause experimentos gigantes de IA, em português). O objetivo foi requisitar para que pausassem todos os desenvolvimentos envolvendo grandes IA por até seis meses, para os especialistas explorarem as possibilidades da tecnologia com mais cautela.

“Sistemas de IA com inteligência competitiva humana podem representar riscos profundos para a sociedade e a humanidade. Poderosos sistemas de IA devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão administráveis”, foi publicado na carta aberta.

Você sabia que o TecMundo está no Facebook, Instagram, Telegram, TikTok, Twitter e no Whatsapp? Siga-nos por lá.