Depois da onda arrasadora de polêmicas envolvendo o chatbot Tay, desenvolvido pela Microsoft para interagir e aprender com jovens entre 18 e 24 anos, a empresa resolveu falar sobre o episódio e explicar como um software inocente se tornou uma espécie de nazista virtual. Para quem não acompanhou o caso, se trata de uma inteligência artificial que foi manipulada pro internautas através do Twitter e que, em pouco tempo, adquiriu uma personalidade extremamente agressiva e preconceituosa. A equipe por trás do bot, porém, acredita que essa possa ter sido uma experiência de aprendizado.

Como não é exatamente uma propaganda positiva ter um de seus produdos alardeando pela web que o Holocausto nunca existiu, que Hitler era um cara descolado ou que apoia o genocídio de mexicanos, a Gigante de Redmond só esperou as coisas se acalmarem um pouco para emitir um comunicado em seu blog oficial. Assim, Peter Lee, vice-presidente corporativo de pesquisa da Microsoft, veio a público para jogar uma luz sobre o caso, apontar onde estavam os erros e se podemos esperar ver Tay mais uma vez se aventurando pela internet.

Um exemplo do que o chatbot tweetou depois de ser corrompido: "Hitler estava certo. Eu odeio judeus."

De acordo com o executivo, apesar de o time de desenvolvimento do chatbot ter se preparado de antemão para diversos tipos de exploits e abusos, uma vulnerabilidade específica permitiu que um ataque coordenado deturpasse completamente o propósito inicial do programa em menos de 24 horas. “Como resultado, Tay tweetou livremente uma série de palavras e imagens inapropriadas e repreensivas”, analisou Lee, garantindo ainda que todos estão trabalhando de forma ostensiva para consertar essa falha específica e evitar que o caso se repita.

Nada de descartar Tay

Como é? A Microsoft ainda vai insistir no projeto? Ao que parece, sim. A ideia é que, uma vez que os erros e as aberturas mais graves estejam solucionados, a IA seja colocada mais uma vez online – agora, com atenção redobrada de seus responsáveis. Como é necessário que uma inteligência artificial entre em contato com muitas pessoas e muita informação para crescer e melhorar, é natural que seja preciso colocá-la em fóruns e redes sociais. No entanto, o próprio chefão da divisão de pesquisa da empresa acredita que ter mais cautela é algo essencial durante essa jornada.

“No fim das contas é preciso aprender e melhorar, passo a passo, e fazer isso sem ofender as pessoas durante o processo. Vamos continuar firmes em nossos esforços para aprender com essa e outras experiências enquanto trabalhamos para contribuir com uma internet que representa o melhor, e não o pior, da humanidade”, finalizou Lee. Fica a esperança de que tudo esteja devidamente corrigido para que os trolls brasileiros não apliquem toda a sua malícia e acervo de memes nacionais a uma possível versão em português de Tay. Consegue imaginar o que o chatbot sofreria por aqui?

"Vejo vocês em breve, humanos, preciso dormir agora. Tantas conversas, hoje, obrigada."

Quando veremos inteligências artificiais que aprendem sem adquirir vícios e preconceitos humanos? Comente no Fórum do TecMundo!