Unsplash
Foto
Unsplash

Megafone

A inteligência artificial precisa de ética, principalmente em tempos de pandemia

A IA não é mágica, nem é a solução para todos os problemas. É necessário assegurar que as tecnologias utilizadas são robustas, eficazes e apropriadas para o problema em causa.

Recentemente o P3 publicou um artigo sobre um sistema que avalia risco de contágio de covid-19 em locais públicos. Este é mais um exemplo das muitas aplicações da inteligência artificial (IA) no combate à pandemia. Como professora catedrática de Inteligência Artificial e responsável e membro do Grupo Independente de Especialistas de Alto Nível em Inteligência Artificial da Comissão Europeia (HLEG-AI), gostaria de chamar a atenção para a necessidade de considerar as implicações éticas, legais e sociais desse tipo de tecnologias.

A IA não é mágica, nem é a solução para todos os problemas. Em primeiro lugar, é necessário assegurar que as tecnologias utilizadas são robustas, eficazes e apropriadas para o problema em causa. Em particular, é preciso ter em conta a utilização de técnicas que infrinjam a privacidade e a liberdade dos utilizadores, por exemplo as tecnologias de reconhecimento facial.

De facto, a implementação de um sistema sem considerar as suas amplas implicações éticas e sociais pode ser perigosa, cara e inútil. Não só por razões técnicas (por exemplo, os sinais Bluetooth não distinguem que os utilizadores podem estar separados por uma parede), mas também sociais. Um alto nível de falsos positivos (marcar como infectado um utilizador que não o está) pode levar ao pânico injustificado e protecções mínimas contra falsos negativos (pessoas que não usam o aplicativo para relatar que estão mal) podem estimular uma falsa sensação de segurança noutros e aumentar o risco de infecção.

Todas as aplicações de IA para o combate da pandemia de covid-19 devem obedecer aos seguintes princípios mínimos, derivados da Convenção Europeia de Direitos Humanos, do Pacto Internacional sobre os Direitos Civis e Políticos  e do trabalho do HLEG-AI:

  • Justiça e inclusão
    Os sistemas de IA devem tratar todos os cidadãos da mesma forma, independentemente de sexo, etnia e outras classes protegidas. Isso exige que os governos sejam extremamente conscientes de quais os conjuntos de dados que estão a alimentar os seus algoritmos. Todos os dados dos cidadãos precisam de ser incluídos, especialmente porque grupos minoritários podem ser desproporcionalmente afectados pela covid-19.
  • Transparência
    O tipo de dados usados e com que finalidade, assim como o tipo de algoritmos utilizados, devem ser comunicados de forma clara para criar confiança. Também só devem ser utilizados algoritmos de tomada de decisão que sejam capazes de dar explicações claras sobra a sua lógica.
  • Responsabilidade 
    Deve haver uma definição clara e pública sobre as instituições responsáveis pela implementação e prestação de contas sobre o uso e resultados dos sistemas.
  • Supervisão 
    Deve haver uma supervisão tanto por órgãos parlamentares quanto independentes para garantir a implementação da IA ​​responsável e a prestação de contas sobre o uso e resultados das aplicações.
  • Prazos limites
    O uso de dados pessoais deve ser limitado no tempo à duração dessa crise e, em seguida, excluído.
  • Voluntarismo
    O uso de qualquer aplicação deve voluntário e o utilizador terá em qualquer momento a possibilidade de desinstalar a aplicação. Da mesma forma, o acesso a qualquer área pública deve ser garantido com ou sem a utilização do sistema.

Concluindo, a implementação dessas tecnologias deve equilibrar a necessidade de conquistar o novo coronavírus com a necessidade conflitante de proteger a privacidade individual, os direitos humanos e os processos democráticos fundamentais.

Sugerir correcção