Google terá guia de princípios éticos para desenvolvimento de AI para fins militares

Da Redação
30/05/2018 - 18h43
Proposta acontece após a companhia se ver no centro de uma polêmica envolvendo o Pentágono e o desenvolvimento de AI para drones autônomos

Uma das grandes preocupações em relação a ascensão da inteligência artificial (AI, na sigla em inglês) diz respeito a uma nova era de armas militares autônomas, um assunto sensível que muitas empresas de tecnologia - se não tentam evitar - tomam muito cuidado ao se envolver. O Google, entretanto, tem se visto nas últimas semanas no meio de uma discussão sobre o tema quando a imprensa internacional divulgou que a companhia teria firmado um contrato com o Pentágono para desenvolver ferramentas de AI para analisar imagens de drones de vigilância. 

Segundo o Gizmodo, milhares de funcionários da companhia assinaram uma petição onde exigiam do Google se retirar do projeto e que, pelo menos, doze pessoas teriam se demitido por não concordarem com o envolvimento da empresa com o Ministério da Defesa dos EUA no chamado Projeto Maven.

Agora, o Google resolveu reagir. De acordo com informações do New York Times, a companhia trabalha em um conjunto de diretrizes que orientarão seu envolvimento em ferramentas de AI para os militares. Entretanto, o que exatamente tal guia implica não está claro, mas o Google diz que incluirá a proibição do uso de inteligência artificial em armas. A expectativa é que esses princípios sejam anunciados na íntegra nas próximas semanas.

Mas o mal-estar ficou um pouco mais claro quando e-mails internos obtidos pelo NYT apontam que a companhia estava ciente do transtorno que um anúncio relacionado à inteligência dos EUA poderia causar.  Isso porque, o cientista-chefe do Google Cloud, Fei-Fei Li, disse aos colegas que eles deveriam "evitar a todos os cutos qualquer menção ou implicação da IA" ao anunciar o contrato com Pentágono. "AI armamentista é provavelmente um dos tópicos mais sensíveis da AI ​​- se não o mais. Isto é carne vermelha para a mídia para encontrar todas as maneiras de danificar o Google", escreveu Li.

O Google não chegou a formalizar o anúncio. A empresa disse que a tecnologia desenvolvida em parceria com o Pentágono não é para uso ofensivo e sim para sinalizar imagens que seriam revistas por olhos humanos. 

Fato é que a história ganhou mais caldo tendo em vista que, recentemente, a empresa removeu o seu lema “Don’t Be Evil” (“Não Seja Mal”, em tradução livre) do seu Código de Conduta, formulado por volta de 2001. Em resumo, o texto do código até o mês de abril exibia um parágrafo com diretrizes pra funcionários "não serem maus". 

"‘Don’t be evil’ é muito mais do que isso. Sim, envolve providenciar nossos usuários acesso a informação sem viés, focando em suas necessidades e trazendo os melhores produtos e serviços possíveis. Mas também é sobre fazer a coisa certa em geral - seguir as leis, agir honoravelmente, e tratar colegas de trabalho com cortesia e respeito", dizia o texto até o dia 21 de abril como observou o Gizmodo. 

A última versão não tem este trecho. Agora, a única referência ao lema vem no fim do texto: “E lembre-se, não seja mal, e se vir algo que acha que não é certo - fale!”