Alucinações de IAs representam perigo real para a ciência

1 min de leitura
Imagem de: Alucinações de IAs representam perigo real para a ciência
Imagem: GettyImages

As alucinações de inteligências artificiais (IA) generativas representam uma grande ameaça para a ciência, aponta um estudo da Universidade Oxford, no Reino Unido. Segundo o artigo, a ingenuidade dos usuários para as informações fornecidas por modelos pode ser um grande problema no futuro.

"As pessoas que usam LLMs frequentemente antropomorfizam [atribuem características humanas] à tecnologia, confiando nela como uma fonte de informação semelhante à humana", pontuou o coautor do artigo, o professor Brent Mittelstadt.

smart people are cooler

Tecnologia, negócios e comportamento sob um olhar crítico.

Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo

Inteligência artificial pode ser um problema para a comunidade científica.Inteligência artificial pode ser um problema para a comunidade científica.Fonte:  GettyImages 

O que são alucinações?

A expressão "alucinação" se refere ao momento em que IAs apresentam informações imprecisas ou totalmente enganosas. Isso tende a acontecer com mais frequência ao solicitar informações muito profundas a partir de uma base de dados extensa, mas também pode acontecer em cenários mais comuns.

O principal fator para essa confusão seria a forma com que esses chatbots se apresentam: com textos coesos, acessíveis e semelhante ao discurso humano. Além disso, os modelos tendem a confiar na informação fornecida, mesmo quando não é verdade.

IAs apresentam informações com confiança

"O resultado disso é que os usuários podem ser facilmente convencidos de que respostas são precisas, mesmo quando não têm base em fatos ou apresentam uma versão tendenciosa, ou parcial da verdade", disse o professor.

Essa junção de fatores, porém, é uma ameaça para a divulgação científica e educação. Além de serem divulgadores de informações imprecisas acessíveis por qualquer pessoa, a comunidade científica também é pressionada a utilizar IAs generativas como tradutores de conteúdo.

Na visão dos professores de Oxford envolvidos com o estudo, modelos de linguagem são importantes assistentes no fluxo de trabalho, especialmente em pesquisas, mas é indispensável que os utilizadores aproveitem a ferramenta com responsabilidade e cientes de seus defeitos.

smart people are cooler

Tecnologia, negócios e comportamento sob um olhar crítico.

Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo

Você sabia que o TecMundo está no Facebook, Instagram, Telegram, TikTok, Twitter e no Whatsapp? Siga-nos por lá.