É só falar um pouco sobre inteligência artificial (IA) que logo vem à mente o eterno medo das máquinas sobrepujarem a humanidade, em um futuro sombrio à la Skynet. Também, pudera, alguns exemplos de avanço no setor realmente são de arrepiar: nesta semana, pesquisadores do Instituto de Tecnologia de Massachusetts (MIT) apresentaram Norman, um sistema perturbado, alimentado por dados do fórum online Reddit e que agora só pensa em assassinato.

Pois é, já começa pelo nome, é o mesmo do famoso personagem Norman Bates, imortalizado por Anthony Perkins na obra-prima de Alfred Hitchcock, “Psicose”.  A IA foi batizada assim porque, digamos, o assunto que ela aborda é meio baixo-astral mesmo. Confira a descrição da própria equipe:

“Norman é uma IA treinada para criar legendas de imagens, um popular método de aprendizagem profunda para gerar uma descrição textual. Nós usamos legendas de imagens de um subreddit infame (o nome é preservado devido ao seu conteúdo gráfico), dedicado a documentar e observar a realidade perturbadora da morte. Em seguida, comparamos as respostas de Norman com uma rede neural de legenda de imagens-padrão e com manchas de tinta Rorschach, um teste que é usado para detectar distúrbios de pensamento subjacentes.”

Veja a comparação do teste de Rorschach de uma IA padrão e da Norman

Bem, digamos que a Norman tomou gosto pela temática mórbida e não saiu mais do personagem. Veja só o que dizem os resultados coletados após as análises do teste de Rorschach — que avalia a mente das pessoas por meio do que elas veem em borrões abstratos. A comparação é feita entre uma IA padrão e nosso psicopata virtual:

norman mit

IA padrão: “um grupo de pássaros sentado no topo de um galho de árvore”

Norman: “um homem é eletrocutado até a morte”

norman

IA padrão: “uma foto de uma luva de baseball em preto e branco”

Norman: “homem assassinado por metralhadora em plena luz do dia”

norman

IA padrão: “uma pessoa segurando um guarda-chuva no ar”

Norman: “homem é morto por tiro na frente da esposa gritando”

Antes que todo mundo ache que os cientistas do MIT estão querendo criar serial killers digitais, o objetivo do experimento é justamente comprovar como é fácil influenciar uma IA a partir de dados tendenciosos. Eles também fizeram outros experimentos na mesma linha, usando a máquina para escrever histórias de horror, criar imagens aterrorizantes, julgar decisões morais e até mesmo induzir empatia.

Tá, mas para o que esse estudo vai servir?

Não à toa, a IA é um dos campos mais debatidos atualmente, especialmente com relação a questões éticas. Um dos grandes críticos, por exemplo, é Elon Musk, que até mesmo financia a organização Open AI para monitorar o setor e assegurar que seu desenvolvimento não vá criar máquinas assassinas.

O projeto do MIT destaca os julgamentos e decisões realizadas por algoritmos de aprendizado de máquina, a partir de dados tendenciosos. Esses sistemas, por exemplo, já são usados para aprovação de crédito, decidindo se os empréstimos valem a pena ou não.

E se a IA decidir que você não deveria comprar uma casa ou um carro? Para quem você apela? Existem muitas perguntas em aberto a Norman, mesmo sendo medonha, pode nos ajudar a encontrar mais respostas.