“A inteligência artificial precisa de ser regulada”, diz presidente executivo do Google

A empresa acredita que os princípios devem ser os mesmos em todo o mundo e que a industria da tecnologia deve ter um papel na sua formulação.

Foto
Sundar Pichai, em Bruxelas Reuters/YVES HERMAN

Em 2020, a possibilidade de limitar e regular os avanços de inteligência artificial é um tema quente, com governos e empresas de tecnologia de todo o mundo a falar da possibilidade de criar legislação para a área. Esta segunda-feira, o líder do Google partilhou o seu ponto de vista em Bruxelas. A empresa é a favor de regulação e acredita que deve ter um papel na sua formulação.

 “Não tenho quaisquer dúvidas de que a inteligência artificial precisa de ser regulada. É demasiado importante para não o ser”, frisou o presidente executivo do Google, Sundar Pichai, esta segunda-feira, num discurso raro num evento em Bruxelas que foi organizado pelo think thank Europeu Bruegel. O tema era sobre como colaborar com a União Europeia na criação de inteligência responsável. 

“As empresas como a nossa não podem apenas criar tecnologia promissora e deixar as forças do mercado decidir como vai ser utilizada”, notou Pichai. As ideias defendidas durante a manhã repetem o artigo de opinião que o próprio escreveu para o jornal britânico Financial Times, publicado também nesta segunda-feira, onde admitiu que a história está cheia de exemplos de como as “virtudes da tecnologia não estão garantidas” e que “há preocupações reais sobre as possíveis consequências negativas da inteligência artificial, desde as deepfakes ao uso nefasto do reconhecimento facial”.

A opinião de Pichai sobre o tema surge uma semana depois de jornalistas da rede de media pan-europeia Euractive revelarem um rascunho de proposta da Comissão Europeia que inclui uma proibição a tecnologia de reconhecimento facial em espaços públicos no sector público e privado até que reguladores desenvolvam métodos sólidos para avaliar os riscos da tecnologia bem como abordagens para gerir os riscos envolvidos. O desenvolvimento de inteligência artificial em contexto académico seria uma excepção.

No artigo de opinião para o Financial Times, Pichai define uma “regulação adequada” para inteligência artificial como uma que equilibre “potenciais danos, especialmente em áreas de alto risco” com “oportunidades sociais” que são criadas pelo uso da inteligência artificial. Dá o exemplo de sistemas para ajudar médicos a detectar cancros, ou sistemas para reduzir atrasos em voos. Acima de tudo, porém, o líder do Google acredita que a regulação deve seguir os mesmos princípios em todo o lado.

Desde Dezembro que Pichai, passou a acumular cargos de liderança ao ficar responsável pela gestão da Alphabet (empresa mãe do Google e de outros projectos como a empresa de carros autónomos Waymo) quando os fundadores da empresa, Larry Page e Sergey Brin, anunciaram que iam deixar as suas posições de chefia.

“A União Europeia e os Estados Unidos estão a começar a desenvolver propostas de regulação. O alinhamento internacional será crítico para que os padrões globais funcionem. Para lá chegar, precisamos de concordar em valores centrais”, escreveu o presidente do Google.

A gigante norte-americana definiu o seu conjunto de valores em Junho de 2018, depois de queixas dos próprios trabalhadores sobre o Project Maven, uma parceria com o Pentágono para criar um sistema de drones equipados com inteligência artificial para identificar objectos. Com isto, a empresa deixou por escrito que não vai desenvolver inteligência artificial para “armas ou outras tecnologias cujo principal propósito seja causar directamente ou facilitar danos a pessoas”, ou sistemas que recolham informação para “vigilância que desrespeite normas internacionalmente aceites”.

Por sua vez, os princípios (sete, no total) definem uma visão utópica da inteligência artificial que deve ser testada antes de implementada, deve beneficiar a sociedade, evitar reforçar estereótipos e viés, incorporar princípios de excelência cientifica, e respeitar princípios de privacidade. Também deve ser possível pôr a tecnologia em causa e escrutiná-la em caso de dúvidas quanto ao uso.

“Só que princípios que permanecem em papel tornam-se irrelevantes”, notou Pichai, esta segunda-feira. Razão pela qual a empresa criou a iniciativa AI for Good para apoiar empresas e organizações que querem criar inteligência artificial para promover o bem da sociedade. “Também criamos ferramentas para pôr [os princípios] em acção, como testar a inteligência artificial em termos de justiça e conduzir avaliações independentes ao nível dos direitos humanos sobre os nossos novos produtos”, notou Pichai.

É uma posição diferente da do Facebook que defende a existência de regulação, mas acredita que é a criação é da responsabilidade do governo. “Não devem ser empresas privadas a decidir sobre aquilo que as pessoas devem fazer ou dizer na Internet”, notou Mark Zuckerberg, num discurso na reunião anual de investidores da empresa o ano passado. 

O problema em debater ética

Em Abril de 2019, o Google teve de abdicar de um Conselho de Ética para inteligência artificial depois da escolha de alguns membros ter dado azo a fortes críticas, tanto dentro como fora da empresa. O grupo – criado com a missão de juntar pontos de vista distintos – durou pouco mais de uma semana.

O objectivo era guiar o desenvolvimento responsável da inteligência artificial na empresa, com oito membros que se iriam reunir quatro vezes por ano para avaliar os projectos do Google naquela área. Só que a tentativa do Google incluir visões da totalidade do espectro político, não correu bem e a escolha de escolha de Kay Coles James, conhecida por defender políticas contra a imigração ilegal e a proibição de pessoas transgénero nas forças militares, levou à dissolução do painel.

Dez meses mais tarde, Pichai acredita que a regulação do governo ajudará bastante na definição de princípios sólidos. “Não temos de começar do zero”, justificou Pichai no texto para o Financial Times. “Regras existentes como o Regulamento Geral para a Protecção de Dados podem ser uma base.” Pichai frisa, no entanto, que que as regras não podem ser iguais para todas as áreas em que se usa inteligência artificial – os carros autónomos, por exemplo, requerem princípios diferentes dos aparelhos cardíacos que usam inteligência artificial para funcionar.

Apesar de Pichai se comprometer com cuidados ao nível da inteligência artificial, o número um do Google frisa que o objectivo não é travar a tecnologia: “A inteligência artificial tem o potencial de melhorar milhares de milhões de vidas, o maior risco poderá ser falhar nisto.”