Imaginemos dois cenários.

Cenário 1. Um humano entra numa determinada área patrulhada por um drone autónomo. As câmaras e sensores captam o movimento. Um algoritmo analisa a pessoa, identifica-a como um soldado inimigo e executa a instrução que alguém programou: disparar e matar.

Cenário 2. Um humano entra numa determinada área protegida por um dispositivo explosivo. Quando se aproxima do dispositivo, este explode e mata a pessoa.

O primeiro cenário é uma das muitas declinações possíveis das chamadas armas autónomas, equipadas com sensores, câmaras e automatismos com base em inteligência artificial, e cuja utilização e limites a comunidade internacional está a debater.

O segundo cenário é o de uma mina antipessoal, que mata indiscriminadamente, incluindo civis e crianças, e que continua a matar durante muito tempo após os conflitos. A maioria dos países do mundo decidiu, no final do século passado, banir o fabrico e uso destas minas (entre as excepções, estão os EUA, a Rússia e a China). 

A conversa é agora em torno das novas armas. Na semana passada, em Genebra, os EUA opuseram-se à intenção de alguns países de regular ou banir o uso dos chamados sistemas de armas letais autónomas (o próprio conceito tem várias definições, variando sobretudo consoante o nível de autonomia). Em vez de regras rígidas, os americanos preferem um código de conduta não vinculativo. 

Vários países têm-se oposto a que armas autónomas sejam usadas. O secretário-geral das Nações Unidas, António Guterres, durante a sua intervenção na Web Summit de 2018, classificou-as como "inaceitáveis do ponto de vista político". Empresários e académicos (incluindo Elon Musk, da Tesla; Mustafa Suleyman​, da DeepMind; e o físico Stephen Hawking) também se juntaram há uns anos para pedir o fim dos "robôs assassinos".

A expressão "robôs assassinos" é frequentemente usada por organizações de direitos humanos (quem estiver inclinado a pensar que robôs assassinos são ficção científica pode ver este vídeo dos robôs da Boston Dynamics e imaginar o que poderiam fazer as máquinas se estivessem programadas para outras coisas que não dançar). 

Drones e outros robôs militares poderão lançar ataques, e até coordenarem-se para o fazerem, com pouca ou nenhuma intervenção humana. Os campos de batalha do futuro podem vir a ser inteiramente automatizados e há mesmo quem veja nisto benefícios, argumentando que máquinas devidamente programadas podem reduzir a perda de vidas humanas e ajudar ao cumprimento do Direito Internacional Humanitário (estes temas são aprofundados num interessante artigo da académica Maria Francisca Saraiva, investigadora do Instituto de Defesa Nacional).

Por seu lado, a Cruz Vermelha, por exemplo, aqui citada pela Human Rights Watch, nota que os algoritmos não têm as características humanas de "bom senso" e "boa fé" para garantir o uso adequado de força militar. 

As tecnologias de inteligência artificial actuais estão longe da superinteligência que alimenta o imaginário da ficção científica. Criar algoritmos dotados de moralidade não é um cenário de curto prazo. E transformar a aceitabilidade de armas num problema informático é um caminho recheado de armadilhas.

Um drone autónomo move-se e dispara só em algumas condições e para cumprir objectivos pré-determinados; isso não significa que faça escolhas morais, por muita tecnologia de inteligência artificial que tenha incorporada. Apesar da sofisticação tecnológica do automatismo, no preciso momento de matar, o "robô assassino" não é muito diferente de uma mina que explode quando alguém a pisa. ​

Digno de nota

- A Karla Pequenino esteve no Dubai e conta como funciona o sistema informático que mantém a Expo 2020 a funcionar. Chamado MindSphere, analisa níveis de ruído, iluminação e humidade, bem como a qualidade do ar e a segurança em qualquer um dos mais de 130 edifícios da feira.

- As criptomoedas continuam o caminho de integração no sistema financeiro tradicional, contrariando os propósitos originais da Bitcoin. Desta feita, os governos dos países da União Europeia chegaram a acordo para novas regras que obrigam as plataformas de criptoactivos a ter regras de transparência e escrutínio dos clientes, semelhantes às dos bancos e serviços de pagamento electrónico. A versão final do futuro regulamento será agora negociada com o Parlamento Europeu.

- A Santa Casa da Misericórdia está a transformar peças de arte sacra em peças digitais únicas que são registadas em blockchains (estas peças digitais são normalmente conhecidas por NFT, a sigla de non-fungible tokens).  Os NFT estão a ser leiloados no site Arteantik, criado para a Santa Casa. As receitas revertem para as causas apoiadas por esta instituição.

- Morreu na semana passada Pedro Oliveira, ex-jornalista que foi durante 17 anos director da revista Exame Informática. Era um dos rostos conhecidos do jornalismo de tecnologias em Portugal.

4.0 é uma newsletter sobre inovação, tecnologia e o futuro. Comentários e sugestões podem ser enviados para jppereira@publico.pt. Espero que continue a acompanhar.