Protesto contra armas autónomas leva universidade sul-coreana a recuar

Investigadores de 30 países prometeram cortar relações com a instituição, que tem planos para um laboratório de armas com inteligência artificial.

Foto
Os académicos protestaram contra armas que não são controladas por humanos Reuters/MOHAMMED SALEM

Mais de 50 investigadores no ramo da inteligência artificial começaram um boicote a uma universidade sul-coreana que tinha planos para uma parceria com um fabricante de armas autónomas. O protesto funcionou e a universidade recuou.

Em Fevereiro, o Instituto Avançado de Ciências e Tecnologia na Coreia do Sul, mais conhecido como KAIST, anunciou que iria trabalhar com a Hanwha Systems, a maior empresa de tecnologias militares do país, na criação de um laboratório de inteligência artificial dedicado ao desenvolvimento de armas e outros sistemas de defesa. Porém, nesta quarta-feira, investigadores de universidades de 30 países ameaçaram cortar relações com o KAIST (incluindo visitas e trabalhos de investigação) até que a universidade clarificasse o tipo de armas que ia desenvolver.

Menos de 24 horas depois de o boicote começar, o comunicado a anunciar a abertura do laboratório desapareceu do site da Universidade, e o presidente do KAIST, Shin Sung-chul, respondeu ao organizador do protesto a dizer que “não tem qualquer intenção de desenvolver armas letais autónomas e robôs assassinos” e que a universidade está “consciente dos dilemas éticos”. 

“Estou satisfeito por o KAIST concordar tão rapidamente com o nosso pedido para não desenvolver armas autónomas, e garantir a manutenção de controlo humano significativo”, diz ao PÚBLICO Toby Walsh, o investigador australiano por detrás do movimento. Porém, embora considere a resposta “um sucesso”, quer falar com todos os académicos que assinaram a carta antes de o terminar. “Isto abre um bom precedente para outros laboratórios de investigação. Espero que a República da Coreia do Sul se comprometa, também, a não entrar nesta área”, acrescenta.

A Coreia do Sul já usa armas com capacidades autónomas para defender a fronteira com a Coreia do Norte. Por enquanto, ainda são controladas por humanos, através de uma câmara, mas podem passar ao modo automático. Em 2015, na Convenção das Nações Unidas sobre Armas Convencionais, o país admitiu “ter cautela na utilização de sistemas de armas autónomos que retiram completamente o humano da equação, devido à possibilidade de avarias, lacunas na responsabilização, e questões éticas.”

É este tipo de armas que preocupa Walsh. “O Exterminador está a 50 ou mais anos de distância”, clarifica, referindo-se às máquinas que preenchem o imaginário das pessoas quando se fala em robôs assassinos. “Nós estamos muito mais preocupados com armas autónomas simples. Armas como um drone em que o piloto é substituído por um computador.”

De acordo com os comunicados sobre o novo laboratório do KAIST (que continuam disponíveis no site da Hanwha Systems e na carta aberta enviada à universidade), a parceria tinha o objectivo de "contribuir para a investigação de sistemas de defesa nacional", "criar sistemas de comando e decisão com base em inteligência artificial" e usar tecnologia de "reconhecimento e rastreio" de objectos.

Toby Walsh ressalva que não se está contra a utilização da inteligência artificial para tecnologia militar. “Ninguém deveria arriscar uma parte do corpo a desarmar uma mina”, diz Walsh. “E a inteligência artificial pode ser usada em partes de algumas armas, por exemplo, para detectar melhor o alvo. Mas não se pode nunca remover o humano do processo de decisão”.

Na próxima segunda-feira, 123 membros das Nações Unidas juntam-se em Genebra para discutir os desafios levantados por este tipo de armas letais. Apenas 22 das nações estão a favor de uma proibição total.

Sugerir correcção
Comentar