Por que a aproximação da Microsoft com o Pentágono levanta controvérsias

Preston Gralla | Computerworld EUA
06 de novembro de 2018 - 14h00
Companhia está deixando de lado sua moral para tentar conseguir um contrato lucrativo? Ou, em vez disso, está ajudando a tornar o país militarmente mais forte e seguro?

A Microsoft pediu que o governo federal norte-americano regule a tecnologia de reconhecimento facial e alertou em um post sobre os perigos potenciais da tecnologia de inteligência artificial (AI, na sigla em inglês), desde invasões de privacidade a supressão da liberdade de expressão. A empresa também pressionou por pactos internacionais para limitar a maneira pela qual os EUA e outros países usam armas cibernéticas.

Mas agora a empresa está tentando conseguir um enorme contrato de US$ 10 bilhões com AI e tecnologias de nuvem - um contrato tão controverso que o Google se recusou a participar da licitação depois que muitos de seus funcionários expressaram preocupação. Os funcionários da Microsoft pediram que a empresa fizesse o mesmo, mas ela se recusou.

A Microsoft está deixando de lado sua moral para tentar conseguir um contrato lucrativo? Ou, em vez disso, está ajudando a tornar o país militarmente mais forte e seguro? É uma tarefa difícil, mas uma análise profunda do problema oferece uma resposta.

Projeto JEDI

Em primeiro lugar, é preciso analisar o contrato. É para um programa chamado JEDI (Joint Enterprise Defense Infrastructure), que desenvolverá uma infraestrutura baseada em nuvem para empregar dados na guerra. Ellen Lord, subsecretária de defesa para aquisição e sustentação, disse que também incluirá o uso de AI e machine learning para a guerra, e acrescentou: “JEDI Cloud é uma aquisição para tecnologias de nuvem comerciais fundamentais que permitirão aos combatentes executar melhor uma missão que depende cada vez mais da exploração da informação”. O diretor de gerenciamento do Departamento de Defesa, John H. Gibson II, ofereceu uma explicação mais direta. “Precisamos ser muito claros. Este programa é verdadeiramente sobre o aumento da letalidade do nosso departamento.”

Outras gigantes, como Amazon e IBM, se uniram à Microsoft e a outras companhias na concorrência pelo contrato. O Google foi notável por sua ausência. Isso aconteceu depois de um alvoroço de seus funcionários sobre um contrato anterior do Departamento de Defesa. Aquele, chamado Project Maven, usa AI para interpretar informações de vídeo e seria usado para atacar drones. Quatro mil funcionários do Google assinaram uma petição exigindo que a empresa adotasse “uma política clara, afirmando que nem o Google nem seus contratados jamais construirão tecnologia de guerra”. Como resultado, o Google encerrou sua participação no Projeto Maven. E quando chegou a hora de fazer uma oferta pelo JEDI, o Google disse que não, em parte porque "não poderíamos ter certeza de que [o acordo com o JEDI] se alinharia com nossos Princípios de Inteligência Artificial."

JEDI: seguir ou desistir?

Funcionários da Microsoft, seguindo a liderança dos funcionários do Google, tentaram pressionar a Microsoft a não participar da JEDI. Em uma carta aberta, eles alegaram que o contrato está “envolto em sigilo, o que torna quase impossível saber o que nós, como trabalhadores, estaríamos construindo. Muitos funcionários da Microsoft não acreditam que o que construímos deva ser usado para travar uma guerra. Quando decidimos trabalhar na Microsoft, estávamos fazendo isso na esperança de ‘capacitar cada pessoa no planeta para conseguir mais’, não com a intenção de acabar com a vida e aumentar a letalidade.”

Os funcionários também apontam para um post no blog de Brad Smith, presidente e diretor jurídico da Microsoft, e Harry Shum, vice-presidente executivo do AI e Research Group da Microsoft, intitulado “O futuro computado: inteligência artificial e seu papel na sociedade”. Smith e Shum dizem que o desenvolvimento da AI ​​deve ser guiado por fortes princípios éticos para garantir que seja “projetada e usada com responsabilidade”.

Os funcionários dizem que o JEDI viola vários desses princípios. Eles também pediram que a participação da Microsoft no projeto seja revisada pelo comitê de ética da empresa. A carta conclui: "Microsoft, não lance o JEDI”.

A Microsoft ignorou as reclamações de seus funcionários e continua trabalhando para conseguir o contrato. Em um post no blog, Smith explicou: “Decidimos prontamente neste verão realizar este projeto, dado nosso apoio de longa data ao Departamento de Defesa. Todos nós que vivemos neste país dependemos de sua forte defesa. Queremos que as pessoas deste país e especialmente as pessoas que servem este país saibam que nós da Microsoft estamos aqui. Eles terão acesso à melhor tecnologia que criamos.”

Smith admitiu, no entanto, que “inteligência artificial, realidade aumentada e outras tecnologias estão levantando questões novas e profundamente importantes, incluindo a capacidade das armas de agir autonomamente”. E ele reconheceu que uma vez que a Microsoft forneça tecnologia aos militares, ela será usada fora das mãos da empresa, dizendo ao The New York Times: "Não podemos controlar como as Forças Armadas dos EUA usam nossa tecnologia, uma vez que lhes damos. As Forças Armadas estão sujeitas ao controle civil. E acreditamos que teremos uma oportunidade de influenciar essas discussões”.

Em seu post, ele concluiu: “Retirar-se deste mercado é reduzir nossa oportunidade de nos engajarmos no debate público sobre como as novas tecnologias podem ser mais bem utilizadas em um caminho responsável."

O que fazer?

Então, no que diz respeito à Microsoft, o caso está fechado. A empresa está fazendo lances no contrato.

Deveria, no entanto? Ou deveria prestar atenção aos funcionários que pedem para a empresa se retirar? Qual é a coisa ética a fazer?

Esta é uma daquelas questões em que ambos os lados têm fortes argumentos morais. Mas a Microsoft falha em uma coisa: a empresa não está disposta a ter uma discussão aberta sobre se a sua participação viola os princípios éticos que o próprio Smith expôs em "The Future Computed". E também não está disposta a ter uma discussão com o comitê de ética. Se alguma vez houve um problema que chegou ao cerne do uso da AI ​​eticamente, é o uso da AI ​​para "aumentar a letalidade", que o Departamento de Defesa diz ser o objetivo da JEDI.

Portanto, a Microsoft deve ter um debate aprofundado sobre isso, divulgar todas as questões e fazer com que seu comitê de ética em AI ajude a tomar a decisão. Fazer isso de qualquer outra forma torna difícil levar a palavra da Microsoft de que tentar obter o contrato para ajudar o país, em vez de adicionar mais bilhões à sua receita.