Líderes da indústria enviam carta aberta à ONU para travar “robôs assassinos”

Elon Musk e mais 115 líderes da indústria robótica defendem que as armas autónomas letais levantam questões éticas e são um perigo.

Foto
O Predator é um aparelho aéreo de guerra comandado à distância que já foi usado em diversas guerras Força Aérea EUA/REUTERS

“Robôs assassinos” é uma expressão assustadora, mas o caso não é para menos. É o que dizem os líderes de quase cem empresas ligadas ao ramo da inteligência artificial e da robótica (incluindo Elon Musk), que divulgaram este domingo uma carta aberta dirigida às Nações Unidas, alertando para a necessidade de uma resposta face ao “perigo” destas armas autónomas letais em cenários de guerra. “Quase toda a tecnologia pode ser usada para o bem e para o mal — e a inteligência artificial não é excepção”, disse o coordenador da carta, Toby Walsh.

A verdade faz-nos mais fortes

Das guerras aos desastres ambientais, da economia às ameaças epidémicas, quando os dias são de incerteza, o jornalismo do Público torna-se o porto de abrigo para os portugueses que querem pensar melhor. Juntos vemos melhor. Dê força à informação responsável que o ajuda entender o mundo, a pensar e decidir.

“Robôs assassinos” é uma expressão assustadora, mas o caso não é para menos. É o que dizem os líderes de quase cem empresas ligadas ao ramo da inteligência artificial e da robótica (incluindo Elon Musk), que divulgaram este domingo uma carta aberta dirigida às Nações Unidas, alertando para a necessidade de uma resposta face ao “perigo” destas armas autónomas letais em cenários de guerra. “Quase toda a tecnologia pode ser usada para o bem e para o mal — e a inteligência artificial não é excepção”, disse o coordenador da carta, Toby Walsh.

As armas autónomas letais conseguem operar sem intervenção humana, distinguindo sozinhas o alvo e disparando. É pelas questões éticas que levantam e pelo perigo que representam que foi redigida a carta, num tom um tanto alarmante, assinada por 116 nomes prestigiados de empresas de mais de 25 países, como Elon Musk (fundador da SpaceX e da Tesla Motor), Mustafa Suleyman (criador da britânica DeepMind, adquirida pelo Google) ou ainda Gary Marcus, (fundador da Geometric Intelligence, comprada pela Uber).

“Esta questão tem de ser resolvida o mais rapidamente possível porque vemos uma corrida para se desenvolver este tipo de tecnologia”, disse por e-mail, em resposta ao PÚBLICO, Toby Walsh, que coordenou a carta e é também professor de Inteligência Artificial na Universidade de New South Wales (Sydney, na Austrália). “Será mais fácil prevenir que estas armas se tornem operacionais do que removê-las depois de estarem nos campos de batalha”, afirma, referindo que a proibição pode não ser a única solução mas é, “certamente, a melhor”.

Mas os robôs assassinos (ou killer robots, em inglês) já existem e não são uma preocupação só para o futuro. Toby Walsh admite que as armas autónomas — ou, pelo menos, os seus protótipos — podem ser encontradas em todas as “esferas bélicas”: por via terrestre, aquática e aérea.

E dá exemplos: no ar, o drone Taranis, que está a ser desenvolvido pela fabricante britânica Bae Systems; na terra, o “robô de guarda” SGR-1 da Samsung que opera na zona desmilitarizada entre a Coreia do Norte e a Coreia do Sul, e que pode disparar até três quilómetros de distância. Na água, o navio autónomo da Marinha norte-americana SS Sea Hunter; e, por fim, até debaixo de água: o submarino Echo Voyager, da Boeing, que pode operar durante meses sem intervenção humana.

“Será difícil” fechar a caixa de Pandora

A carta funciona mais para lembrar as Nações Unidas que urge encontrar uma solução do que informar que existe perigo. Isto porque já em Dezembro do ano passado, 123 membros das Nações Unidas concordaram (numa conferência da Convenção para Certas Armas Convencionais) debater o tema das armas autónomas numa segunda reunião, marcada para 21 de Agosto.

Só que o encontro foi adiado para Novembro porque alguns países, “poucos”, falharam no pagamento das quotas, sendo este outro dos motivos que fez com que os peritos enviassem a carta aberta no mesmo dia em que estava previsto reunirem-se. Das 123 nações presentes em Dezembro, 19 delas já pediram a interdição deste tipo de armas.

Na missiva — em que é pedida “protecção” dos perigos ligados às armas autónomas — as empresas referem que se sentem “especialmente responsáveis em dar o alerta” por trabalharem no ramo da inteligência artificial e da robótica. Disponibilizam ainda a sua ajuda, adiantando que “muitos dos investigadores e engenheiros estão interessados em oferecer conselhos técnicos” à comissão designada pelas Nações Unidas.

E deixam o aviso: “[As armas] permitirão que os conflitos armados sejam feitos a uma escala maior do que nunca, e em intervalos de tempo mais rápidos do que os humanos conseguem compreender. Estas podem ser armas de terror, armas que déspotas e terroristas usam contra povos inocentes e armas usadas para se comportarem de formas indesejadas."

"Quando a caixa de Pandora for aberta, será difícil fechá-la”, concluem.

Segundo um comunicado cedido por Toby Walsh ao PÚBLICO, esta é a primeira vez que várias empresas no ramo da robótica e da inteligência artificial se uniram para tomar uma decisão comum no que toca a este assunto. Anteriormente, só a canadiana Clearpath Robotics se tinha pronunciado, considerando peremptória a proibição deste tipo de máquinas automatizadas.

A existência destas armas já foi antes alvo de debate, tendo até levado à criação, em 2012, do movimento internacional Campaign to stop killer robots (campanha para travar os robôs assassinos) que tem como principal objectivo “proibir as armas completamente autónomas” através de um tratado internacional ou da aplicação de leis a nível nacional.

No site deste movimento é dito que “deixar que decisões de vida ou morte sejam tomadas por máquinas ultrapassa uma linha moral fundamental”, já que faltaria aos robôs o “julgamento humano e a capacidade de entender o contexto”. Um robô poderia disparar indiscriminadamente tanto sobre um soldado como um civil e seria difícil definir a quem caberia a responsabilidade das suas acções: se ao programador, ao fabricante ou ao próprio robô, lê-se na página. “O controlo humano de qualquer robô de combate é essencial para assegurar tanto a protecção humanitária como um controlo legal eficaz”, consideram.