Google desiste de painel de ética de inteligência artificial uma semana depois de ser criado

A escolha dos membros não correu bem ao Google. Milhares de empregados da empresa assinaram uma petição a queixarem-se da nomeação de Kay Coles James, conhecida por ter políticas anti-imigração e anti-LGBTQ.

Foto
O grupo de reflexão acabou por ser desmantelado uma semana após a criação Reuters/Hannibal Hanschke

O recém-formado Conselho de Ética para inteligência artificial do Google foi dissolvido depois da escolha de alguns membros ter dado azo a fortes críticas, tanto dentro como fora da empresa. O grupo – criado com a missão de juntar pontos de vista distintos – durou pouco mais de uma semana. 

O painel foi apresentado a 26 de Março: o objectivo era guiar o desenvolvimento responsável da inteligência artificial na empresa, com oito membros que se iriam reunir quatro vezes por ano para avaliar os projectos do Google naquela área.

Na altura, o vice-presidente de assuntos globais da empresa, Kent Walker, tinha explicado que o grupo deveria reflectir sobre desafios complexos, como o reconhecimento facial e a justiça em decisões feitas por máquinas. É uma área com que a empresa se debate há anos.

Só que a escolha dos membros para o novo painel não correu bem ao Google. Um dos problemas era a presença de Kay Coles James, a presidente da Heritage Foundation (um think thank conservador em Washington, EUA). Coles James é conhecida por defender políticas contra a imigração ilegal e a proibição de pessoas transgénero nas forças militares.

A inclusão de James pretendia garantir um ponto de vista mais conservador, depois de o partido Republicano acusar o Google de enviesamento político. Em Agosto, a Casa Branca disse que ia analisar os resultados do Google, depois de o Presidente americano ter acusado o motor de busca de manipular resultados, dando prioridade a notícias que lhe eram desfavoráveis (algo que o Google nega).

A escolha de James não foi popular entre trabalhadores do Google. Uma petição online, que diz contar com o apoio de perto de 2500 empregados da empresa (até à hora de publicação desta noticia) foi publicada a pedir a remoção de Kay Coles James do grupo. Descreviam as opiniões de James como “anti-transgénero, anti-LGBTQ, e anti-imigrante”. Para os signatários, manter Coles James no grupo poderia permitir a criação de políticas intolerantes para os sistemas de inteligência artificial.

Somaram-se críticas à inclusão da fundadora e presidente da empresa de drones Trumbull, por receios de que a empresa – que cria “soluções inovadoras” para o Departamento de Defesa dos EUA – levasse o Google a utilizar a sua investigação para a criação de armas inteligentes.

“Tornou-se claro que, no ambiente actual, o grupo não pode funcionar como nós queríamos. Vamos então acabar com o conselho”, lê-se num comunicado do Google, enviado ao PÚBLICO.

Com o debate sobre a escolha dos dois membros, os restantes seis eram pressionados a justificar a sua permanência no painel. Alessandro Acquisti, investigador da Universidade de Carnegie Mellon, nos EUA, na área de privacidade e economia comportamental recusou a nomeação para o grupo. Luciano Floridi, director de ética no instituto de Internet da Universidade de Oxford, também publicou um texto no Facebook em que explicava que estava contra nomeação de Coles James, mas que sentia que tinha de ficar (pelo menos, inicialmente). “Vou duplicar os meus esforços, tanto quanto conseguir, para suportar a voz da razão e do conhecimento”, escreveu Floridi, notando que via o conselho como uma boa ideia.

Apesar de ter dissolvido o grupo, o Google frisa que não está a desistir de procurar opiniões informadas sobre inteligência artificial e ética.

A empresa é, por vezes, alvo de controvérsia pela forma como os seus algoritmos são programados, e o facto de o seu funcionamento não ser público. Para os algoritmos do Google, pesquisar “gorilas” já foi sinónimo de pesquisar negros, e procurar “crimes de negros contra brancos” no motor de busca ainda leva a páginas extremistas contra a população negra e judeus.

“Vamos a continuar a ser responsáveis no nosso trabalho e nos assuntos importantes que são levantados pela inteligência artificial, e vamos encontrar outras formas de obter opiniões de fora da empresa sobre estes tópicos”, escreveu o Google.

Sugerir correcção
Comentar