A guerra do futuro em debate no presente

A identificação dos alvos das armas autónomas letais (LAW, no irónico acrónimo em inglês), baseia-se em algoritmos falíveis e, pior, não supervisionados por humanos.

Foto
corrine amos�

Em Weapons of math destruction, livro que deu origem ao documentário Dilema das Redes, a matemática norte-americana Cathy O’Neil mostra como a abundância de dados possibilitada pela Internet, o famoso big data, teria gerado uma distópica realidade, em que algoritmos governariam seres humanos. A intenção original de aludir à expressão “armas de destruição em massa”, substituindo “massa” por “matemática”, perde-se na tradução para português. Publicado no Brasil como Algoritmos de destruição em massa: como o big data aumenta a desigualdade e ameaça a democracia, o título perdeu a metáfora da arma, elemento central do argumento de O’Neil.

A autora defende que a vida algorítmica reforça os conflitos existentes e cria novos, o que justificaria a comparação com armas, ou seja, instrumentos destinados a atacar.

Ela não está sozinha na sua cruzada crítica à tecnologia: outros best sellers, como A era do capitalismo de vigilância, de Shoshana Zuboff, e A nova idade das trevas, de James Bridle, trazem, em tom de alerta, muitos exemplos em que o uso de algoritmos de inteligência artificial resultaram em decisões discriminatórias e injustas. E mais: esse processo decisório não é auditável e não há responsabilização sobre os seus erros.

Embora tenham razão na sua demanda por regulação, essas obras partem de um pressuposto comum que nos parece questionável e longe de dar conta da nossa realidade: a existência de um poder central maligno orwelliano que teria arquitetado o novo modelo e dele se nutriria.

Um novo documentário, que teve a sua estreia mundial em fins de maio, traz um tom longe de tecnofóbico e, mesmo, sensacionalista. Com uma linguagem sóbria, Immoral Code (código imoral, em português) concentra-se num uso bastante específico de algoritmos de inteligência artificial: as armas letais.

Nesse caso, não há metáfora. Embora as consequências de outras decisões algorítmicas também possam matar, este não é o seu objetivo original. Já as armas autónomas letais (LAW, no irónico acrónimo em inglês), também chamadas robôs assassinos, destinam-se unicamente a atacar potenciais inimigos. O problema, explicam os especialistas de diferentes áreas ouvidos no filme, é que a identificação desses alvos se baseia em algoritmos falíveis e, pior, não supervisionados por humanos.

Ao mesmo tempo que faz a denúncia e instrui o público sobre inteligência artificial, o sistema de defesa dos países e o contexto de desenvolvimento desses sistemas, Immoral Code, produzido pela campanha internacional Stop Killer Robots, trata o tema de forma didática e pragmática: diante dos riscos que apresenta, a novidade tecnológica precisa de ser tema de um tratado internacional específico que crie limitações à sua produção e responsabilize os Estados infringentes.

Para alcançar esse objetivo, o grupo de instituições e movimentos que fazem parte da campanha tem vindo a mobilizar a comunidade internacional no âmbito da Convenção das Nações Unidas sobre Certas Armas Convencionais. A maioria dos países já concordou com a importância e a urgência de se tratar do tema, mas poucos se comprometeram com medidas concretas.

Portugal, por exemplo, enfatizou a importância do controlo humano sobre o uso da força e o manuseamento de armas. O tema já estava entre as preocupações do país durante a sessão de 2018 do Primeiro Comité sobre Desarmamento e Segurança Internacional da Assembleia Geral da ONU: “Ressaltamos que todos os Estados compartilham a responsabilidade de garantir que os seus sistemas de armas cumpram o direito internacional, em particular o direito internacional humanitário”. No entanto, concretamente, apenas declarou a intenção em subscrever termo de comprometimento político com este fim.

Em julho, este tema será tratado pela primeira vez por países de língua portuguesa. Uma conferência na Universidade Lusófona de Lisboa reunirá especialistas e autoridades da CPLP, que exporão investigações e pontos de vista sobre o assunto. Oxalá possam, conjuntamente, influenciar para melhorar os rumos das inevitáveis guerras futuras.

As autores escrevem segundo o novo acordo ortográfico

Sugerir correcção
Ler 1 comentários