Pioneiro da inteligência artificial demite-se da Google: “A evolução é assustadora”

Cientista que trabalha desde os anos 1970 com inteligência artificial sai agora da Google para poder alertar para os riscos do desenvolvimento de novas aplicações tecnológicas, como o ChatGPT.

Foto
Geoffrey Hinton adianta que a evolução da inteligência artificial vai multiplicar-se nos próximos anos MARK BLINCH/REUTERS

Geoffrey Hinton é um dos pioneiros da inteligência artificial – não é por acaso que lhe chamam o “padrinho” da inteligência artificial. Depois de décadas de investigação na área, juntou-se à Google em 2013 e de onde saiu esta segunda-feira, como conta o jornal norte-americano The New York Times. Aos 75 anos, reforma-se para “poder falar sobre os perigos da inteligência artificial sem ter de considerar o impacto que terá na Google”, resume Geoffrey Hinton no Twitter.

O cientista britânico, há décadas radicado na Universidade de Toronto (Canadá), passa de criador a crítico de uma área da tecnologia que teve em 2022 o seu primeiro grande impacto global, com o lançamento do ChatGPT em Novembro, mas também de outras ferramentas em que se produzem vozes ou imagens em segundos. “Veja como [a tecnologia de inteligência artificial] era há cinco anos e como é agora”, diz Geoffrey Hinton citado pelo The New York Times. “Pegue nessa diferença e multiplique para o futuro. [A evolução] é assustadora.”

As críticas à utilização da inteligência artificial e dos perigos que pode acarretar não são novas. No final de Março, um grupo de especialistas e responsáveis pela indústria tecnológica – incluindo Elon Musk, financiador inicial da Open AI (criadora do ChatGPT), e Steve Wozniak, co-fundador da Apple – pedia um travão de seis meses no desenvolvimento da inteligência artificial. Algo similar a várias declarações isoladas contra esta tecnologia e os seus impactos na sociedade. “Estes novos sistemas são uma ferramenta fantástica para a difamação e serão certamente utilizados para isso”, afirmava o filósofo Noam Chomsky em entrevista ao PÚBLICO na última sexta-feira. “A ideia de que podemos aprender alguma coisa com este tipo de IA é um erro”, acrescenta.

Agora, é um novo ataque a partir de dentro. Desde os anos 1970 que Geoffrey Hinton investiga redes neuronais artificiais – onde um sistema matemático simula os neurónios para, por exemplo, analisar fotografias e aprender a identificar flores ou carros sem necessitar da nossa intervenção. Esta base permite, por exemplo, que um modelo de inteligência artificial consiga olhar para milhares de fotografias de animais e definir quais são os cavalos – porque sabe as suas características a partir dos exemplos que “estudou” antes.

É também neste campo que o investigador, formado em psicologia cognitiva e ciências da computação, tem dado os maiores contributos. Um dos mais conhecidos é de 2012, onde participou na criação de uma rede neuronal que identificava objectos comuns, como cães, carros ou flores a partir de milhares de imagens, num trabalho realizado com dois estudantes da Universidade de Toronto, Alex Krishevsky (o responsável principal do trabalho) e Ilya Sutskever.

Até muito recentemente, não existia preocupação com o volume de informação que uma ferramenta como o ChatGPT conseguia compreender. Mas Geoffrey Hinton indica que o ponto de viragem é agora. “Neste momento, estamos a ver coisas como o GPT-4 (actual modelo de linguagem em que assenta o ChatGPT) a eclipsar as pessoas na quantidade de conhecimento geral que tem e eclipsa-nos por larga margem”, diz em declarações à BBC, onde nota também que a capacidade de raciocínio e resposta são ainda limitadas.

“Dado o ritmo de evolução [desta tecnologia], podemos esperar que isto [capacidade de raciocínio e resposta] melhore rapidamente. Portanto, precisamos de nos preocupar com isso”, afirma ao site da televisão britânica.

Já em Fevereiro, Cateljine Muller defendia que estas ferramentas ainda não eram positivas para a sociedade. “O mundo ainda não é capaz de lidar com todas as consequências de uma ferramenta como o ChatGPT. Neste momento, apresenta mais riscos do que benefícios”, referia ao PÚBLICO a fundadora da ALLAI, organização europeia por uma IA responsável, e que tem aconselhado a Comissão Europeia nesta temática.

O risco de desinformação, de uso indevido para amplificar estereótipos ou mensagens políticas e a perda de trabalhos são alguns dos riscos frequentemente elencados nas críticas à inteligência artificial. “É difícil ver como se pode impedir que maus intervenientes não usem isto de forma maligna”, apontou Geoffrey Hinton ao The New York Times.

Em sentido contrário, a eficiência e rapidez em tarefas como a tradução ou pesquisa, o aumento da produtividade e a interacção com pessoas em serviços de atendimento a clientes podem trazer vantagens tanto económicas, como no tempo livre da população.

Jeff Dean, responsável científico da Google, respondeu em comunicado que a empresa continua “comprometida com uma abordagem responsável à inteligência artificial”.

Sugerir correcção
Ler 26 comentários