A Google Deepmind, em parceria com o instituto The Future of Humanity, publicou um estudo que explica como a humanidade poderia deter um algoritmo de inteligência artificial que se torne trapaceiro ou perigoso. A pesquisa aponta para estudos anteriores feitos em 2003, em que uma A.I. cujo objetivo era jogar Tetris descobriu que jamais perderia se mantivesse o jogo pausado.

Esse tipo de exploits não intencionais descobertos pelas máquinas poderiam resultar em ações indesejadas, e é por isso que os estudiosos da área dedicam tanto tempo e esforço em busca de uma solução. Ainda não existem padrões predeterminados para sistemas de inteligência artificial, mas definir protocolos de segurança primários é fundamental.

Pare!

A pesquisa explica que desativar uma A.I. pode não ser tão simples quanto puxar um cabo de energia, e que será necessário programar algum tipo de “botão vermelho” de emergência que o próprio algoritmo possa ativar ao ser persuadido a fazê-lo. Sim, os estudiosos acham que teremos que enganar a A.I. para que ela mesma se desative ao ultrapassar certas barreiras.

Os cientistas acreditam que instalar uma espécie de política de interrupção ou um gatilho que um humano possa acionar em caso de emergência deve evitar problemas em situações confusas que levem a A.I. a se comportar de forma inapropriada. O gatilho ou a política de interrupção devem ser de conhecimento exclusivo dos criadores do sistema, evitando que qualquer um possa afetar o robô/software.

Cupons de desconto TecMundo: