Cientistas pedem para que engenheiros construam robôs "amigáveis"

Blair Hanley Frank, IDG News Service
14 de dezembro de 2016 - 09h00
IEEE lançou relatório com o objetivo de debater ética no desenvolvimento da inteligência artificial

Qualquer um que leu ficção científica lhe dirá que robôs assassinos são um problema. Convenhamos, eles não aparecem muito amigáveis mesmo. Mas o Institute of Electrical and Electronics Engineers, mais conhecido como o IEEE, quer fazer algo sobre isso.

Nesta terça-feira (13), a Iniciativa Global IEEE para Considerações Éticas em Inteligência Artificial e Sistemas Autônomos lançou um relatório destinado a incentivar engenheiros e pesquisadores a pensar eticamente quando eles estão construindo novos softwares inteligentes e hardware.

O relatório, intitulado "Ethically Aligned Design", tem como objetivo trazer o cuidado dos seres humanos para a criação de inteligência artificial. Ele conta com mais de cem páginas, mas há alguns temas-chave emergem do relatório. Ele exige maior transparência sobre como funcionam os sistemas automatizados, maior envolvimento humano e cuidado com as consequências do projeto de sistemas.

As considerações éticas na inteligência artificial e sistemas automatizados se tornarão cada vez mais importantes enquanto as companhias e os governos fazem o uso crescente da tecnologia. Enquanto grande parte da discussão gira em torno de sistemas incrivelmente inteligentes, já existem algoritmos em uso hoje que podem ter impactos significativos sobre a tomada de decisões empresariais e políticas.

Raja Chatila, presidente da iniciativa, disse em entrevista que não acreditava que engenheiros e empresas estivessem cientes dos problemas em jogo.

"Eu acho - e esta é a minha opinião pessoal - que a maioria dos engenheiros e empresas ainda não estão realmente cientes ou realmente abertos a essas questões éticas", disse ele. "É porque eles não foram treinados assim. Eles foram treinados para desenvolver sistemas eficientes que funcionam e não foram treinados para levar em conta questões éticas".

Uma das questões-chave que já está aparecendo é o viés algorítmico. Os sistemas de computador podem e refletem a cosmovisão de seus criadores, o que pode se tornar um problema quando esses valores não coincidem com os de um cliente. 

No que diz respeito à transparência, o relatório pede repetidamente a criação de sistemas automatizados que possam informar por que tomaram decisões específicas. Algo que é difícil de fazer com algumas das técnicas de aprendizagem de máquina de última geração em uso hoje.

Além do mais, não é incomum para as empresas manterem os detalhes exatos do funcionamento interno dos algoritmos de aprendizado de máquinas em segredo, o que também flutua diante de uma exigência pela transparência.

A transparência é fundamental para não só compreender coisas como algoritmos de reconhecimento de imagens, mas também sobre como lutamos em guerras no futuro. A discussão do relatório do IEEE sobre os sistemas de armas autônomos chega a descrever máquinas mortíferas que levariam à "violência irresponsável e estragos sociais".

Para um fim semelhante, o relatório empurra para um maior envolvimento humano nesses sistemas inteligentes. O IEEE quer que as pessoas possam apelar para outro ser humano no caso de sistemas autônomos tomarem decisões, entre outras coisas.

No futuro, este trabalho deve levar à criação de "padrões IEEE" em torno de ética e sistemas inteligentes. Um desses padrões já está em andamento, e mais dois estão no caminho.

Mas mesmo que esse processo leve à criação de padrões, as organizações ainda terão que optar por adotá-los. Poderia ser que a criação de sistemas éticos seria vista como um diferencial de marketing - um robô que é 65 por cento menos propenso a assassinar alguém deve ser mais atraente para os clientes, certo?

Também é possível que a indústria de tecnologia possa simplesmente evitar a questão da ética e continuar em seu caminho.

A equipe do IEEE está abrindo o documento para receber feedback do público. Qualquer pessoa pode enviar seus pensamentos sobre o conteúdo, embora o grupo esteja à procura de feedback referenciado, com menos de duas páginas. As inscrições devem ser feitas até o dia 6 de março.