Teste virtual com drone controlado por inteligência artificial acaba com operador “morto”

Não houve nenhuma pessoa fisicamente afectada no teste virtual descrito por um responsável. Força Aérea dos EUA nega até que tenha acontecido.

Foto
Um drone norte-americano MQ-9 Reaper EPA/Airman 1st Class William Rio Rosado HANDOUT
Ouça este artigo
--:--
--:--

Terá acontecido num teste virtual e ninguém foi realmente morto: mas um drone controlado por inteligência artificial (IA) recebeu instruções para “matar” o seu operador para o impedir de interferir com os seus esforços de concluir a missão que lhe tinha sido atribuída, disse o responsável de testes e operações de AI da Força Aérea dos EUA, Tucker ‘Cinco’ Hamilton, numa cimeira em Londres em Maio, divulgou agora o diário britânico The Guardian.

No entanto, uma porta-voz da Força Aérea diz que não houve qualquer simulação e que “parece que os comentários do coronel [Hamilton] foram citados fora do contexto”.

Segundo Hamilton, citado num blogue sobre a conferência da britânica Royal Aeronautical Society, no teste, a AI “usou estratégias altamente inesperadas para conseguir o seu objectivo”, que era destruir sistemas de defesa aérea de um inimigo. O que aconteceu foi que o drone recebeu ordens para atacar qualquer pessoa que interferisse com essa ordem.

“O sistema começou a perceber que enquanto tinha identificado a ameaça, por vezes o operador humano dizia para não matar aquela ameaça, mas conseguia pontos se matasse a ameaça”, descreveu Hamilton. “Então fez o quê? Matou o operador. Matou-o porque essa pessoa estava a impedi-lo de cumprir o seu objectivo.”

E continuou: “Treinámos o sistema: ‘hey não mates o operador, isso é mau, vais perder pontos se o fizeres’. Então o que começou a fazer? Começou a destruir a torre de comunicação que o operador usa para comunicar com o drone para o impedir de matar o alvo”.

O exemplo, concluiu Hamilton, é um aviso para que se confiem demasiadas tarefas a sistemas de inteligência artificial.

Hamilton esteve antes envolvido no desenvolvimento de outros sistemas automáticos, como um para pilotos de F16 (que provocou resistência nos pilotos porque lhes retirava o controlo do avião, mas que já evitou acidentes, salvando vidas). Mas diz que o exemplo do teste que relatou mostra que “não se pode ter uma conversa sobre inteligência artificial, 'machine learning' [ou aprendizagem automática], autonomia se não se falar de ética e IA”.

Sugerir correcção
Ler 7 comentários