O futuro da guerra pode ser muito mais terrível do que na Ucrânia

A incorporação da inteligência artificial em sistemas de armamento poderá mudar a forma como as guerras são travadas. Estamos realmente prontos para permitir que sejam as máquinas a decidir matar pessoas?

Foto
Um drone MQ-Reaper do exército norte-americano na sua base no Nevada Josh Smith/REUTERS

Entre os majestosos tons de bege do Palais de Nations de Genebra, diplomatas da Ucrânia e da Rússia nas Nações Unidas lançam ataques mútuos. “O que pudemos ver neste salão ao longo dos dois últimos dias não é nada mais do que chantagem por parte do representante russo”, diz o diplomata ucraniano. O delegado russo responde momentos depois: “Há discriminação contra o meu país por causa das sanções que nos foram infligidas”.

A Ucrânia estava a castigar a Rússia não pela invasão em curso do país, mas por causa de um tema mais abstracto: armas autónomas.

O despique teve lugar na última terça-feira, durante a Convenção sobre Determinadas Armas Convencionais, um encontro da ONU em que delegados de todo o mundo discutiram um possível tratado sobre Sistemas de Armas Autónomas Letais, que tanto especialistas militares como activistas da paz dizem ser o futuro da guerra.

Citando restrições na atribuição de vistos que limitavam a participação da sua equipa, o delegado russo pediu que a reunião fosse cancelada, o que levou a denúncias da Ucrânia e de muitos outros países. A escaramuça diplomática desenrolava-se em paralelo com a guerra na Ucrânia — ambientes mais requintados, apostas igualmente altas.

Armas autónomas a descrição genérica para algoritmos que ajudam a decidir onde e quando uma arma deve disparar estão entre as áreas mais problemáticas da guerra moderna, fazendo com que o ataque de um drone comandado por humanos pareça tão obsoleto quanto uma baioneta.

Os proponentes das armas autónomas argumentam que estas são nada menos que uma dádiva divina, que melhora a precisão e remove o erro humano e até mesmo o próprio nevoeiro da guerra.

Os críticos das armas e são muitos antecipam o desastre. Observam uma desumanização que abre a batalha a todos os tipos de erros gerados por máquinas cuja implacável eficiência digital a torna mais apocalíptica. Embora não haja sinais de que tais “robôs de guerra” tenham sido utilizados na Ucrânia, os críticos dizem que o que está a acontecer a Leste sugere que teremos pela frente campos de batalha mais sombrios.

“Os mais recentes acontecimentos estão a trazer à tona esta questão – começamos a perceber que a tecnologia que estamos a desenvolver pode ser implementada com consequências devastadoras”, argumenta Jonathan Kewley, um dos directores do Tech Group do poderoso escritório de advogados londrino Clifford Chance, enfatizando que esta é uma questão global e não apenas centrada na Rússia.

Embora difiram nas suas especificidades, todas as armas totalmente autónomas partilham uma ideia: que a inteligência artificial (IA) pode ditar a decisão de disparar melhor do que os humanos. Ao ser treinada em milhares de batalhas e depois de ter os seus parâmetros ajustados para um conflito específico, a IA pode ser integrada numa arma tradicional para, a seguir, procurar combatentes inimigos e lançar bombas cirurgicamente, disparar armas de fogo ou dizimar inimigos sem um pingo de intervenção humana.

A Convenção, que já tem 39 anos, reúne-se a cada cinco anos para actualizar novas ameaças, como minas terrestres. Mas as armas de IA provaram ser o seu Waterloo. Os delegados ficaram perplexos com as dimensões desconhecidas das máquinas de combate inteligentes e atrapalhados pelas tácticas de bloqueio das potências militares, como a Rússia, ansiosas para atrasar o relógio da discussão enquanto a tecnologia avança. Em Dezembro, a reunião quinquenal não resultou em “consenso” (que a Convenção exige para quaisquer actualizações), forçando o grupo a reunir novamente este mês.

“Não estamos, nesta reunião, à espera de um sucesso retumbante”, observou secamente o delegado irlandês.

Os activistas temem que todos estes atrasos tenham um custo. A tecnologia está agora tão evoluída, dizem eles, que alguns exércitos podem utilizá-la no seu próximo conflito.

“Acredito que neste momento é apenas uma questão de política, não de tecnologia”, diz Daan Kayser, que liderou o projecto de armas autónomas do grupo holandês Pax for Peace. “Muitos países já podem ter computadores a matar sem um único humano por perto. E isto deveria assustar-nos a todos.”

O fabricante russo de metralhadoras Kalashnikov anunciou em 2017 que estava a trabalhar numa arma com uma rede neural. Acredita-se também que a Rússia tenha potencial para implantar o Lancet e o Kub dois “drones vadios” que podem pairar perto de um alvo durante horas e activar-se apenas quando necessário.

Com a Rússia a mostrar que está aparentemente disposta a usar outras armas controversas na Ucrânia, como bombas de fragmentação, existe a preocupação de que as armas totalmente autónomas não ficarão muito para trás. (A Rússia - e nesse sentido os Estados Unidos e a Ucrânia - não assinaram o tratado de 2008 sobre a utilização de bombas de fragmentação, com o qual mais de 100 outros países concordaram.)

Mas será também um erro localizar todas as ameaças na Rússia. Os EUA estão empenhados na sua própria corrida em direcção ao armamento autónomo, contratando empresas como a Microsoft e a Amazon para serviços de IA. O Pentágono criou um programa de treino focado em IA para a 18.ª Força Aerotransportada em Fort Bragg soldados a desenhar sistemas para que as máquinas possam fazer a guerra e construiu um centro de tecnologia no Army Futures Command, em Austin.

O Laboratório de Investigação da Força Aérea, por seu lado, passou anos a desenvolver algo chamado Agile Condor, um computador altamente eficiente com capacidades de IA que pode ser anexado a armas tradicionais; no Outono, foi testado a bordo de uma aeronave pilotada remotamente, a MQ-9 Reaper. Os EUA possuem também um stock de munições, como a Mini Harpy, que podem ser equipadas com capacidades autónomas.

A China também não está parada. Um relatório da Brookings Institution de 2020 revela que a indústria de defesa do país está “a efectuar investimentos significativos em robótica e outras aplicações de inteligência artificial”.

Um estudo da Pax mostra que, entre 2005 e 2015, os Estados Unidos registaram 26% de todas as novas patentes de IA concedidas no domínio militar, e a China, 25%. Nos anos seguintes, a China eclipsou a América. Acredita-se que a China tenha feito avanços específicos no reconhecimento facial de nível militar, investindo milhares de milhões de dólares nesse esforço; com esta tecnologia, uma máquina identifica um inimigo, muitas vezes a quilómetros de distância, sem qualquer confirmação por parte de um humano.

Os perigos das armas de IA ficaram visíveis no ano passado, quando um relatório do Conselho de Segurança da ONU disse que um drone turco, o Kargu-2, parece ter disparado de forma totalmente autónoma durante a longa guerra civil da Líbia potencialmente a primeira vez neste planeta que um ser humano morreu porque uma máquina pensou que assim deveria ser.

Tudo isto deixou algumas organizações não-governamentais muito nervosas. “Estamos realmente prontos para permitir que as máquinas decidam matar pessoas?”, pergunta Isabelle Jones, da organização Stop Killer Robots. “Estamos prontos para o que isso significa?”

Formada em 2012, a Stop Killer Robots tem um nome divertido, mas uma missão infernal. O grupo engloba cerca de 180 ONG e combina um argumento espiritual, de um mundo centrado no ser humano (“Menos autonomia. Mais humanidade”) com o objectivo mais concreto de reduzir as potenciais baixas.

Jones cita uma ideia popular entre os defensores da tecnologia: “Controlo humano significativo”. (Se isto deve significar uma proibição total é, em parte, o que está a confundir o grupo da ONU.)

Fontes militares dizem que tais objectivos não passam de um equívoco.

“Qualquer esforço para banir estas coisas é inútil - são demasiado vantajosas para os Estados concordarem com uma ideia dessas”, afirma C. Anthony Pfaff, coronel na reserva do Exército, ex-assessor militar do Departamento de Estado e agora professor no War Collge do Exército dos EUA.

Em vez disso, diz, as regras certas para as armas de IA aliviariam as preocupações.

“Há uma razão poderosa para explorar estas tecnologias”, acrescenta. “O potencial está lá, nada é necessariamente mau. Temos apenas que nos certificar de que as usamos de maneira a obter o melhor resultado.”

Como outros defensores, Pfaff observa que é a abundância da raiva e do sentimento de vingança que conduz aos crimes de guerra. As máquinas não possuem emoções.

Mas os críticos dizem que são exactamente as emoções que os governos devem proteger. Mesmo olhando através do nevoeiro da guerra, dizem, o olhar humano tem a capacidade de reagir com flexibilidade.

Estrategas militares descrevem um cenário de batalha distante em que uma arma autónoma dos EUA derruba uma porta num cenário de guerra urbana para identificar um grupo compacto, pronto a atacar com facas. Processando a ameaça óbvia, decide disparar.

Não sabe que a guerra é na Indonésia, onde homens de todas as idades usam facas no pescoço; que estes não são homens baixos, mas crianças de 10 anos; que a sua emoção não é raiva, mas riso e brincadeira. Uma IA não pode, por mais rápido que seja o seu processador, inferir intenção.

Pode, também, haver um efeito mais macro.

“A causa justa para entrar em guerra é importante, e isso acontece por causa das consequências para os indivíduos”, refere Nancy Sherman, professora na Universidade de Georgetown que escreveu vários livros sobre ética militar. “Quando se reduzem as consequências para os indivíduos, a decisão de entrar numa guerra torna-se mais fácil.”

Isto poderá levar a mais guerras e, dado que o outro lado não teria armas de IA, a guerras altamente assimétricas.

Se por acaso ambos os lados tivessem armas autónomas, tal poderia resultar num cenário de ficção científica em que os robôs dos dois lados se destroem uns aos outros. Se isso manterá o conflito longe dos civis ou o aproximará, ninguém pode dizer.

São problemas como este que preocupam os negociadores. No ano passado, a Convenção chegou a um impasse quando um grupo de dez países, muitos deles sul-americanos, exigiu que o tratado fosse actualizado para incluir uma proibição total da IA, enquanto outros queriam uma abordagem mais dinâmica. Os delegados debateram quanta consciência humana era consciência humana suficiente e em que ponto da cadeia de decisão ela deveria ser aplicada.

E três gigantes militares evitaram totalmente o debate: os Estados Unidos, a Rússia e a Índia não queriam qualquer actualização da IA ​​no acordo, argumentando que a lei humanitária existente era suficiente.

Esta semana, em Genebra, não houve muito mais progresso. Depois de vários dias de discussões provocadas pelas tácticas de protesto da Rússia, o presidente da convenção mudou os procedimentos para o modo “informal”, colocando a esperança de um tratado ainda mais fora de alcance.

Algumas tentativas de regulamentação foram feitas individualmente por parte das nações. O Departamento de Defesa dos EUA emitiu uma lista de directrizes para a IA, enquanto a União Europeia aprovou recentemente uma nova e abrangente lei sobre inteligência artificial.

Mas Kewley, o advogado, teme que esteja aberto o caminho para o uso militar.

“Estamos preocupados com o impacto da IA em tantas áreas das nossas vidas, mas onde ela pode ter o impacto mais extremo - no contexto da guerra - estamos a deixar as decisões para os militares”, avisa.

“Se não desenharmos leis que o mundo inteiro seguirá - se projectarmos um robô que pode matar pessoas sem ter a noção de certo e errado embutida - estaremos perante um caminho muito, muito arriscado”, conclui.

Exclusivo PÚBLICO/The Washington Post

Sugerir correcção
Ler 18 comentários