Ir direto ao conteúdo

A discussão sobre armas que ‘decidem’ sozinhas a quem atacar

Em carta aberta, pesquisadores afirmam que boicotarão universidade coreana que estaria disposta a desenvolver ‘robôs assassinos’

 

 

Os Vants (Veículos Aéreos Não Tripulados), ou drones, estão sendo utilizados com cada vez mais frequência pelos Estados Unidos para ações militares letais, em locais como Paquistão, Iêmen e Somália - com os quais o país não está em guerra. Os aviões são controlados à distância, poupando os militares americanos de riscos.

A partir da segunda-feira, um grupo da ONU iniciará uma discussão sobre aquilo que se teme ser um desenvolvimento natural desse tipo de armas: os sistemas de armamentos autônomos, “robôs assassinos” capazes de tomar decisões sobre como agir e quem matar.

Segundo informações do jornal britânico Financial Times, cerca de 22 países já manifestaram posição contra o desenvolvimento dessa tecnologia, que já vem sendo testada pelos Estados Unidos, assim como China, Rússia e Israel.

Nesse contexto, mais de 50 especialistas de renome na área de robótica anunciaram nesta quarta-feira (4) que estão boicotando a Kaist (Instituto Coreano de Ciência e Tecnologia Avançada), uma das universidades mais prestigiosas da Coreia do Sul. Eles afirmam que a instituição decidiu desenvolver armas de fogo com inteligência artificial.

Em uma carta aberta, os pesquisadores afirmam: “nós vamos boicotar todas as colaborações com qualquer parte da Kaist até que o presidente da instituição ofereça garantias -que nós já buscamos, mas não recebemos- de que o centro não desenvolverá armas autônomas sem controle humano significativo”.

Segundo o professor Toby Walsh, da Universidade de South Wales, que está organizando o boicote, o desenvolvimento dessas armas pela Kaist levaria à intensificação de uma corrida armamentícia que já está em curso. Os pesquisadores pedem que a universidade garanta que as armas desenvolvidas tenham “controle humano significativo”.

Em nota, no entanto, o presidente da instituição, Shin Sung-chul, negou o plano de desenvolver esse tipo de robôs.

“Como uma instituição acadêmica, nós valorizamos os direitos humanos e padrões éticos em alto grau. A Kaist sempre se esforçou para conduzir pesquisas que permitam servir melhor ao mundo. Eu reafirmo mais uma vez que a Kaist não conduzirá atividades de pesquisa contrárias à dignidade humana, incluindo armas autônomas que não tenham controle humano significativo”, afirmou.

Após a réplica, Walsh afirmou à revista Times Higher Education que algumas questões continuam não respondidas, e que ele consultaria os outros signatários sobre qual será o próximo passo do grupo.

A implementação de um controle efetivo sobre o desenvolvimento desse tipo de armas é uma tarefa complexa.

Atualmente, já existem armamentos que têm ao menos uma parte de sua atuação automatizada, como os drones militares ou sistemas antimísseis. Seria necessária a elaboração de um consenso sobre quais devem ser os limites exatos para a autonomia, quais decisões devem continuar estritamente sob responsabilidade de humanos.

Além disso, a corrida armamentícia já está em curso entre grandes produtores de armas, que tendem a resistir a voltar atrás em seus investimentos.

Em um artigo publicado em julho de 2017 na Nato Review Magazine, uma revista digital da Otan (Organização do Tratado do Atlântico Norte) que lida com a temática da segurança, o pesquisador Gjert Lage Dyndal, que trabalha na equipe de análise de segurança estratégica da instituição e os pesquisadores Tor Arne Berntsen e Sigrud Redese-Johansen, da Universidade Norueguesa de Defesa, afirmam que:

“As tecnologias estão ficando disponíveis e estão amadurecendo, e nós acreditamos que as difíceis discussões sobre desafios legais e éticos devem ser abordadas antes cedo do que tarde.” Os pesquisadores apontam alguns desafios jurídicos e questões éticas que envolvem essa regulação.

O desafio legal de regular robôs autônomos

Os pesquisadores afirmam que o mesmo tipo de restrição à violência em guerras aplicados em humanos deve ser aplicada para os drones. Guerras são, no entanto, momentos essencialmente violentos e turbulentos, por isso as regras atuais dão espaço para que os comandantes avaliem eles mesmos como agir.

Por exemplo: comandantes devem tomar as “precauções possíveis” para “verificar” que um ataque não se volte contra pessoas ou objetos protegidos e que não violem o princípio da proporcionalidade, ou seja, que não gerem vantagem militar a um custo excessivamente alto de vidas civis, ou com destruição excessiva de objetos e infraestrutura civis.

O que traz as questões: como uma arma autônoma poderia realizar esse tipo de avaliação moral que é nebulosa mesmo para comandantes humanos? E quem seria responsabilizado se a comunidade internacional avaliasse que as “precauções possíveis” para “verificar” e evitar excessos não foram tomadas?

“Até o momento, um drone autônomo não pode substituir um ser humano, em um contexto legal”, afirmam os pesquisadores.

As questões éticas

Direito à vida

Uma forte linha de argumentação ética é de que deixar a decisão sobre a vida de um indivíduo nas mãos de um agente não humano contraria o direito à vida.

“Sob essa perspectiva, a vida humana é de tamanho valor que não é apropriado que uma máquina decida acabar com ela -em outras palavras, há algo inerentemente imoral em desenvolver e usar drones autônomos”, afirma o trabalho.

Mais precisão

É possível também realizar a argumentação contrária. Armas autônomas poderiam processar mais informações, e tomar decisões melhores sobre quando, quem e quanto matar.

Elas não seriam influenciadas por sentimentos como medo ou raiva, o que poderia diminuir os crimes de guerra. Os riscos à vida de soldados, assim como à de civis, diminuiriam.

Banalização da guerra

Uma terceira questão abordada pelos pesquisadores é que, ao diminuir os riscos de vidas de soldados em guerra, as armas autônomas poderiam banalizar a decisão de entrar em um conflito do tipo.

Ao decidir guerrear, os países que possuem essas armas não estariam arcando com o custo político de colocar vidas de soldados seus em risco.

“Limitar os riscos aos soldados, removendo-os completamente do campo de batalha poderia tornar a guerra ‘fácil’ demais, reduzindo-a a uma empreitada tecnológica de baixo custo que não requer nenhum comprometimento público ou moral”, dizem os pesquisadores.

Ao menos em um primeiro momento, a possibilidade de realizar ataques sem custos de vidas também se apresenta de forma desigual.

Os países cujos territórios têm sido mais atacados pelos Estados Unidos por drones controlados a distância não teriam a tecnologia para contra atacar sem riscos a militares humanos. O mesmo tipo de situação deve se repetir com drones completamente autônomos.

 

Todos os conteúdos publicados no Nexo têm assinatura de seus autores. Para saber mais sobre eles e o processo de edição dos conteúdos do jornal, consulte as páginas Nossa Equipe e Padrões editoriais. Percebeu um erro no conteúdo? Entre em contato. O Nexo faz parte do Trust Project. Saiba mais.

Mais recentes

Você ainda tem 2 conteúdos grátis neste mês.

Informação com clareza, equilíbrio e qualidade.
Apoie o jornalismo independente. Junte-se ao Nexo!