CEO da Microsoft Brasil fala sobre “ética para inteligência artificial”

2 min de leitura
Imagem de: CEO da Microsoft Brasil fala sobre “ética para inteligência artificial”
Imagem: Quartz

Em março de 2016, há quase dois anos, a Microsoft se viu mergulhada em uma polêmica inesperada. A empresa havia liberado no Twitter um software de inteligência artificial capaz de interagir com os usuários da rede social e aprender a partir disso a se comunicar com seres humanos. Na época, ainda não era tido como fato que redes sociais são, em boa parte, palanques para os piores tipos de seres humanos. Por isso, a ideia de fazer um software inteligente aprender alguma coisa nesse tipo de ambiente não era tão absurda.

A Microsoft, naturalmente, ficou ciente do erro que havia cometido e, em menos de 24 horas, tirou o robô do ar. Nesse meio tempo, entretanto, a Tay começou a publicar tweets raivosos, racistas, nazistas, xenófobos, misóginos e por aí vai. A desenvolvedora então teve que se desculpar e até apagou muitos dos tweets polêmicos. Você pode conferir mais detalhes dessa história aqui.

smart people are cooler

Tecnologia, negócios e comportamento sob um olhar crítico.

Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo

tay microsoftBot da Microsoft endossando nazismo

Neste final de semana, entretanto, a empresa voltou a falar sobre o assunto. Paula Bellizia, CEO da Microsoft Brasil, comentou durante o 1 º Congresso de Ética nos Negócios de São Paulo que a situação toda acabou sendo um aprendizado. As informações são da Época Negócios.

O robô que criamos passou a aprender com as interações como um cérebro humano em formação. O resultado? Virou racista e xenófobo

“O algoritmo criado respondia às interações de internautas, mas, em apenas 24 horas, precisamos tirá-lo do ar. O robô que criamos passou a aprender com as interações como um cérebro humano em formação. O resultado? Virou racista e xenófobo”, comentou a executiva.

Bellizia explicou então que a Microsoft começou a pensar que, para criar um robô realmente capaz de aprender e a interagir com seres humanos de maneira respeitosa, ele deveria ter noções de ética. “Do ponto de vista tecnológico, foi um sucesso. Já do ponto de vista ético e social, um aprendizado enorme. Não esperávamos que ela se comportasse assim”, completou.

A grande preocupação é como fazer isso com ética

Depois que a poeira baixou, a Microsoft então precisou se unir a fundações que estudam inteligência artificial a fim de debater e fazer experimento no sentido de permitir a evolução da tecnologia sem desrespeitar a dignidade humana.

Bellizia explicou durante o evento que é necessário encontrar uma forma para que esses softwares possam se autorregular. “Todo mundo espera que as empresas de tecnologia cruzem fronteiras, rompam barreiras. A grande preocupação é como fazer isso com ética”, finalizou.

smart people are cooler

Tecnologia, negócios e comportamento sob um olhar crítico.

Assine já o The BRIEF, a newsletter diária que te deixa por dentro de tudo

Você sabia que o TecMundo está no Facebook, Instagram, Telegram, TikTok, Twitter e no Whatsapp? Siga-nos por lá.