Foto: Annegret Hilse/Reuters

‘Robôs assassinos’: o perigo das armas autônomas letais


Máquinas com poder de matar deveriam ser proibidas pelo direito internacional. É preciso bani-las antes que elas venham a ser empregadas e provoquem a morte de centenas de milhares de pessoas

O Nexo é um jornal independente sem publicidade financiado por assinaturas. A maior parte dos nossos conteúdos são exclusivos para assinantes. Aproveite para experimentar o jornal digital mais premiado do Brasil. Conheça nossos planos. Junte-se ao Nexo!

Novas tecnologias abrem possibilidades antes impensáveis. Hoje robôs realizam cirurgias complexas e carros inteligentes dispensam motoristas. No entanto, avanços tecnológicos também geram grandes perigos, inclusive para a estabilidade internacional e segurança global. Por exemplo, o desenvolvimento de sistemas de armas autônomas letais, capazes de selecionar e disparar contra alvos sem intervenção humana, poderá provocar uma corrida armamentista com implicações catastróficas para populações civis. Considerando os investimentos maciços que alguns países, dentre os quais os EUA, Reino Unido, Rússia, China e Israel, têm feito em inteligência artificial para aplicação militar, o surgimento desses “robôs assassinos” não é uma realidade muito distante.

Delegar a máquinas a decisão sobre quem deve morrer ou sobreviver produz uma série de desafios morais, operacionais e legais. Do ponto de vista ético, máquinas despidas de sentimento e compaixão dificilmente seriam compatíveis com o princípio da humanidade consolidado no direito internacional humanitário, que requer que indivíduos tratem uns aos outros com respeito à dignidade e à vida humana, mesmo em situações de guerra. Um robô programado para matar teria empatia por um inimigo em rendição implorando pela vida?

Em termos operacionais, robôs assassinos funcionariam com base em dados, informações e algoritmos suscetíveis ao erro e potencialmente enviesados. Os riscos são reais não apenas em zonas de conflito aberto, mas também em contextos de segurança pública. No Brasil, por exemplo, o uso da tecnologia de reconhecimento facial tem ameaçado desproporcionalmente pessoas negras, muitas das quais são presas por crimes que não cometeram com base em imagens imprecisas ou equivocadas. Em última instância, sistemas de armas autônomas letais que façam uso desta tecnologia para identificar alvos poderiam acabar matando indivíduos inocentes. Além disso, robôs assassinos estão suscetíveis a serem hackeados, podendo virar-se contra o seus próprios desenvolvedores em caso de ciberataques.

O objetivo do movimento da sociedade civil global é evitar que essa tecnologia siga a trajetória das minas terrestres e das armas nucleares

E quem responderia pelo uso equivocado de robôs assassinos? Uma vez que máquinas não podem ir a julgamento, dificilmente indivíduos responderiam legalmente por assassinatos e violações de direitos humanos cometidas por armas autônomas letais. Isso impossibilitaria, por exemplo, que vítimas e seus familiares fossem compensadas por danos sofridos. Em países como o Brasil, cujas forças de segurança raramente são punidas por exageros no uso letal da força, a utilização de armas autônomas letais representaria uma licença para matar ainda mais ampla. Em um cenário em que organizações criminosas, milícias e grupos armados possuíssem acesso a esse tipo de tecnologia, os danos à população tornariam-se incalculáveis.

Diante das ameaças impostas pela crescente automação de sistemas de armamentos, desde 2014 a ONU (Organização das Nações Unidas) tem organizado reuniões regulares sobre robôs assassinos. Desde então, 30 países, dentre os quais o Brasil, já se posicionaram a favor da proibição dessa tecnologia. Em paralelo, mais de 170 organizações da sociedade civil de 65 países têm se organizado por meio da “Campanha Global para Parar os Robôs Assassinos”, que pressiona pela criação de um tratado internacional que proíba armas autônomas letais e garanta o controle humano sobre o uso da força.

Há precedentes para esse tipo de iniciativa. Diversos tratados internacionais proíbem armas com alto poder destrutivo, incluindo armas químicas e biológicas, minas terrestres e bombas de fragmentação. Recentemente, também entrou em vigor o Tratado para Proibição de Armas Nucleares, do qual o Brasil foi o primeiro país signatário, contribuindo para que dezenas de bancos e fundos de pensão deixem de investir em empresas que produzem armas nucleares.

No caso dos robôs assassinos, o objetivo do movimento da sociedade civil global é bani-los antes que venham a ser empregados, evitando que essa tecnologia siga a trajetória das minas terrestres e das armas nucleares, que provocaram a morte de centenas de milhares de pessoas antes que limites legais para o seu uso fossem estabelecidos. Pesquisa de opinião conduzida em dezembro de 2020 com 19 mil pessoas em 28 países, inclusive o Brasil, concluiu que 62% dos entrevistados ao redor do mundo, e também dos brasileiros, opõem-se ao uso de armas autônomas letais. Além disso, vários líderes mundiais e executivos de alto escalão de empresas de tecnologia, incluindo o Papa Francisco e o fundador da Tesla, Elon Musk, já alertaram para os riscos representados por robôs assassinos. Nas palavras do secretário-geral da ONU, António Guterres, máquinas com o poder de tirar vidas humanas são “politicamente inaceitáveis, moralmente repugnantes e deveriam ser proibidas pelo direito internacional”. Ainda há tempo para bani-las.

Maiara Folly é cofundadora da plataforma Cipó, instituto de pesquisa dedicado a estudos sobre clima, paz e cooperação internacional. Coordena a campanha do Reino Unido para parar os robôs assassinos.

Os artigos publicados no nexo ensaio são de autoria de colaboradores eventuais do jornal e não representam as ideias ou opiniões do Nexo. O Nexo Ensaio é um espaço que tem como objetivo garantir a pluralidade do debate sobre temas relevantes para a agenda pública nacional e internacional. Para participar, entre em contato por meio de ensaio@nexojornal.com.br informando seu nome, telefone e email.

Todos os conteúdos publicados no Nexo têm assinatura de seus autores. Para saber mais sobre eles e o processo de edição dos conteúdos do jornal, consulte as páginas Nossa equipe e Padrões editoriais. Percebeu um erro no conteúdo? Entre em contato. O Nexo faz parte do Trust Project.