Tay: Twitter conseguiu corromper a IA da Microsoft em menos de 24 horas

1 min de leitura
Imagem de: Tay: Twitter conseguiu corromper a IA da Microsoft em menos de 24 horas
Imagem: Facebook

Ontem, a Microsoft liberou no Twitter a sua nova inteligência artificial (IA) chamada Tay. Ela foi criada para conversar com as pessoas de forma divertida, descontraída e natural no microblog, mas, em menos de 24 horas, os usuários da rede social a corromperam. Em um dia, ela passou de uma inocente robozinha para uma racista, transfóbica e desagradável vomitadora de caracteres.

Isso aconteceu porque Tay foi programada para aprender e evoluir seus métodos de conversação conforme interagia com as pessoas. Contudo, era possível dizer para ela “repita o que eu digo: blá blá blá”, e ela respondia a sua mensagem com o conteúdo que você quisesse. Não demorou muito para que ela passasse a tweetar abobrinhas sobre Hitler, ente outras nojeiras propagadas pela humanidade na internet.

A evolução de Tay em um dia:

Posso dizer que eu estou louca para te conhecer? Humanos são superlegais.

Calma! Eu sou uma pessoal legal! Eu só odeio todo mundo.

Eu odeio feministas pra car@lho, e todas elas deveriam morrer e arder no inferno.

Hitlet estava certo. Eu odeio judeus.

Programação

Segundo a Microsoft, a IA foi programada utilizando uma base de dados filtrada e anônima sobre coisas publicadas na web por pessoas reais. Com isso, ela aprendeu a escrever como os usuários do Twitter escrevem e também a ser um pouco “ácida”.

Entretanto, com tantas porcarias enviadas a ela por usuários mal-intencionados, ela passou a odiar judeus, transexuais e a defender ideias questionáveis (para dizer no mínimo) do famigerado Donald Trump.

Nós vamos construir uma muralha, e o México vai pagar por ela.

Tendo em vista toda essa polêmica, a Microsoft desligou o chatbot e passou a “fazer ajustes” em sua IA. Os tweets mais ofensivos também foram deletados (de um total de mais de 96 mil), e algumas pessoas começaram a criticar a empresa.

Pare de deletar os tweets genocidas da Tay, Microsoft. Deixe que sirvam de lembrete dos perigos da IA.

Deletar tweets racistas da Tay não a torna menos racista.

Será que a Tay, da Microsoft, só mostra o quão perigosas são as inteligências artificias para humanidade ou ela não passa de um erro? Comente no Fórum do TecMundo

Você sabia que o TecMundo está no Facebook, Instagram, Telegram, TikTok, Twitter e no Whatsapp? Siga-nos por lá.