Depois da onda arrasadora de polêmicas envolvendo o chatbot Tay, desenvolvido pela Microsoft para interagir e aprender com jovens entre 18 e 24 anos, a empresa resolveu falar sobre o episódio e explicar como um software inocente se tornou uma espécie de nazista virtual. Para quem não acompanhou o caso, se trata de uma inteligência artificial que foi manipulada pro internautas através do Twitter e que, em pouco tempo, adquiriu uma personalidade extremamente agressiva e preconceituosa. A equipe por trás do bot, porém, acredita que essa possa ter sido uma experiência de aprendizado.
Como não é exatamente uma propaganda positiva ter um de seus produdos alardeando pela web que o Holocausto nunca existiu, que Hitler era um cara descolado ou que apoia o genocídio de mexicanos, a Gigante de Redmond só esperou as coisas se acalmarem um pouco para emitir um comunicado em seu blog oficial. Assim, Peter Lee, vice-presidente corporativo de pesquisa da Microsoft, veio a público para jogar uma luz sobre o caso, apontar onde estavam os erros e se podemos esperar ver Tay mais uma vez se aventurando pela internet.
Nossos vídeos em destaque
Um exemplo do que o chatbot tweetou depois de ser corrompido: "Hitler estava certo. Eu odeio judeus."
De acordo com o executivo, apesar de o time de desenvolvimento do chatbot ter se preparado de antemão para diversos tipos de exploits e abusos, uma vulnerabilidade específica permitiu que um ataque coordenado deturpasse completamente o propósito inicial do programa em menos de 24 horas. “Como resultado, Tay tweetou livremente uma série de palavras e imagens inapropriadas e repreensivas”, analisou Lee, garantindo ainda que todos estão trabalhando de forma ostensiva para consertar essa falha específica e evitar que o caso se repita.
Nada de descartar Tay
Como é? A Microsoft ainda vai insistir no projeto? Ao que parece, sim. A ideia é que, uma vez que os erros e as aberturas mais graves estejam solucionados, a IA seja colocada mais uma vez online – agora, com atenção redobrada de seus responsáveis. Como é necessário que uma inteligência artificial entre em contato com muitas pessoas e muita informação para crescer e melhorar, é natural que seja preciso colocá-la em fóruns e redes sociais. No entanto, o próprio chefão da divisão de pesquisa da empresa acredita que ter mais cautela é algo essencial durante essa jornada.
“No fim das contas é preciso aprender e melhorar, passo a passo, e fazer isso sem ofender as pessoas durante o processo. Vamos continuar firmes em nossos esforços para aprender com essa e outras experiências enquanto trabalhamos para contribuir com uma internet que representa o melhor, e não o pior, da humanidade”, finalizou Lee. Fica a esperança de que tudo esteja devidamente corrigido para que os trolls brasileiros não apliquem toda a sua malícia e acervo de memes nacionais a uma possível versão em português de Tay. Consegue imaginar o que o chatbot sofreria por aqui?
c u soon humans need sleep now so many conversations today thx??
"Vejo vocês em breve, humanos, preciso dormir agora. Tantas conversas, hoje, obrigada."
Quando veremos inteligências artificiais que aprendem sem adquirir vícios e preconceitos humanos? Comente no Fórum do TecMundo!
)
)
)
)
)
)
)