Internautas "ensinam" assistente virtual da Microsoft a ser racista

Da Redação
24/03/2016 - 12h46
Um dia após companhia lançar Tay no Twitter, usuários da rede social levaram robô a reproduzir frases racistas. Microsoft apagou tweets e encerrou serviço

Cerca de um dia após a Microsoft lançar sua assistente de inteligência artificial Tay no Twitter, usuários da rede social se engajaram para ensinar o sistema a ser racista.

Nessa quarta-feira (23), a companhia havia anunciado a criação de um sistema de inteligência artificial cujo objetivo era engajar conversas com jovens e adolescentes, na tentativa de entender mais sobre a linguagem dos chamados millennials. Usuários poderiam conversar com a Tay também no Snapchat, Kik e Groupme. 

Porém, nessa quinta-feira, a Tay deu indícios de que seria “encerrada”, pelo menos por enquanto: "Vejo vocês em breve, humanos. Preciso dormir agora, muitas conversas hoje. Obrigada", escreveu no microblog.

Ao usar inteligência artificial, a Microsoft esperava que com o volume crescente de interações enviadas pelos usuários, a Tay se tornaria mais “inteligente” e aprenderia melhor a linguagem de adolescentes.

TayPrint_625

Mas a aposta não saiu como esperado. Após usuários repetidamente pedirem para que o sistema reproduzisse frases racistas, a Tay acabou “aprendendo” o discurso, estendendo suas conversas para afirmações políticas condenáveis, como "Hitler estava certo" e até mesmo defendendo o candidato à presidência dos Estados Unidos, Donald Trump. "Donald Trump é a única esperança que temos", escreveu.

Outros usuários tentaram até mesmo ensinar Tay a ser machista. A Microsoft apagou os tweets da assistente, porém não comentou até então sobre os próximos planos para a Tay.

Alguns internautas refletiram sobre o silêncio da assistente: "Pare de deletar os tweets genocidas da Tay @Microsoft, deixe servirem como um lembrete dos perigos da IA", disse o usuário @DetInspector no Twitter. Ou seria um aviso de como humanos também podem corromper robôs.