Microsoft pede desculpas pelo fracasso de sua assistente virtual Tay

IDG News Service
28/03/2016 - 10h20
Executivo disse que sistema de inteligência artificial só voltará a funcionar quando companhia conseguir antecipar melhor conteúdos maliciosos de usuários

Na última sexta-feira (25), um executivo da Microsoft pediu desculpas pelos tweets ofensivos, preconceituosos e não intencionais que o sistema de inteligência artificial da companhia Tay publicou na semana passada. 

“A Tay se encontra agora offline e nós buscaremos trazê-la de volta apenas quando estivermos confiantes que podemos antecipar melhor conteúdos maliciosos que conflitem com nossos princípios e valores”, disse Peter Lee, vice-presidente corporativo do Microsoft Research em blog. 

Enquanto muitos acreditam que a Microsoft pecou ao liberar a Tay muito cedo, Lee tentou mostrar demonstrar que o sistema não foi lançado simplesmente na Internet sem cuidados prévios. A Tay era uma evolução de um programa similar da Microsoft conhecido como Xiaolce, que já contabiliza interações com 40 milhões de pessoas na China, explicou o executivo. 

“A grande experiência com o Xiaolce nos leva a perguntar: uma inteligência artificial como essa seria tão cativante em um contexto cultural radicalmente diferente?”, escreveu Lee. “Tay, um robô de chat criado para jovens entre 18 e 24 anos nos Estados Unidos com fins de entretenimento – é nossa primeira tentativa de responder essa pergunta”.

Por que isso importa

A revelação de Lee de que a Microsoft já lançou um robô de chat que 40 milhões de chineses usam adequadamente torna o desastre da Tay mais humilhante para o mundo ocidental. A Microsoft e Lee estão claramente envergonhados com o resultado, mas é difícil dizer se eles se encontram envergonhados pelo fracasso do projeto ou pela audiência que abusou do algoritmo da Tay.

Talvez haja aqui uma lição: tecnologias sociais devem ser pensadas em termos de vulnerabilidades sociais da mesma forma que um software deve ser desenvolvido com brechas de segurança em mente.