A revolução europeia na inteligência artificial?

As tecnologias existentes levaram décadas a ser desenvolvidas, e o mundo conheceu, ao longo destas décadas, diversas fases de desânimo e de entusiasmo.

No passado dia 25 de Abril, em mais uma coincidência de datas que a história vai inevitavelmente acumulando, a Comissão Europeia divulgou uma comunicação, intitulada “Inteligência artificial para a Europa”, em que propõe reforçar radicalmente a capacidade de actuação da União Europeia nesta área. O documento e a nota de imprensa (facilmente acessíveis no site da Comissão ou no meu blogue) compara a inteligência artificial, no século XXI, com a máquina a vapor ou a electricidade, nos séculos XIX e XX, tecnologias de base que potenciaram muitos outros desenvolvimentos. Argumenta ainda que alguns dos maiores desafios da humanidade, desde a cura de doenças fatais até ao controlo das alterações climáticas, poderão ser abordados com tecnologias baseadas, no todo ou em parte, em inteligência artificial e que a tecnologia será essencial para o desenvolvimento de novos produtos e serviços.

No documento agora publicado, que vem na sequência de outras iniciativas divulgadas a 10 de Abril, no Digital Day, a Comissão Europeia propõe um conjunto de acções destinadas a garantir que a Europa não se deixará ficar para trás nesta área, em relação aos Estados Unidos, China e Japão. Embora o conjunto de acções proposto seja diversificado, a ideia é que a Europa, no seu todo, passe a investir pelo menos 20 mil milhões de euros, por ano, no desenvolvimento de tecnologias de inteligência artificial, multiplicando por mais de quatro o actual nível de investimento na área. São propostas também medidas que preparem a sociedade para os impactos sociais e económicos da inteligência artificial e ainda que sejam dados passos para a criação de um enquadramento legal adequado para sistemas “inteligentes” (embora de uma forma mais tímida do que num documento de 2017 do Parlamento Europeu).

Este entusiasmo pela inteligência artificial não é de agora. Na mitologia grega existem referências a máquinas inteligentes, diversos autómatos com capacidades diversificadas apareceram ao longo da história da Europa e, no século XIX, Lady Ada Lovelace, a primeira programadora da história (e filha de Lord Byron), analisou a possibilidade de reproduzir comportamentos inteligentes e criativos num computador. O computador mecânico usado nessa análise, e para o qual Ada Lovelace escreveu diversos programas, era o Engenho Analítico, concebido por Charles Babbage, e nunca chegou a ser construído, por dificuldades técnicas e financeiras. Apesar disso, serviu para que Lovelace decidisse responder pela negativa à questão que colocou, argumentando que um computador nunca poderia criar nada de novo, mas apenas reproduzir mecanicamente as instruções recebidas. Porém, Alan Turing, num artigo seminal, escrito um século mais tarde, em 1950, chegou a uma conclusão diferente e argumentou que um dia seria possível reproduzir comportamentos inteligentes num computador. Propôs mesmo o Teste de Turing, que consiste em considerar um computador como inteligente, se for impossível distingui-lo de um ser humano, através de um diálogo.

Com uma conferência que teve lugar em 1956, em Dartmouth, Estados Unidos, iniciou-se um longo processo que criou a área que agora designamos globalmente como “inteligência artificial”. Um texto dessa conferência propunha realizar um estudo, com dois meses de duração, destinado a desenvolver mecanismos que permitissem às máquinas usar linguagem, resolver problemas que exijam inteligência e melhorarem-se a si mesmas. A tarefa veio a revelar-se, porém, muito mais complexa e morosa do que inicialmente pensado e os meses transformaram-se em décadas, à medida que se percebia que reproduzir a inteligência humana num computador é muito difícil. As tecnologias de inteligência artificial existentes levaram décadas a ser desenvolvidas, e o mundo conheceu, ao longo destas décadas, diversas fases de desânimo e de entusiasmo, sendo a actual apenas mais uma de uma longa série.

No princípio deste longo processo, os cientistas reproduziram, com algum sucesso, raciocínios matemáticos e lógicos que estavam normalmente associados à inteligência humana. Tentaram, ao princípio, criar sistemas inteligentes construindo programas baseados na manipulação de símbolos lógicos e matemáticos. A ideia era construir, passo a passo, programas que se comportassem de forma inteligente, manipulando conjuntos de símbolos cada vez mais complexos. Foi assim possível programar computadores para jogar às damas, demonstrar teoremas matemáticos, optimizar processos industriais e planear horários, entre outras tarefas deste tipo. Todavia, quando se tentou programar computadores para tarefas tão simples como reconhecer objectos numa imagem, perceber linguagem falada, ou navegar num ambiente não controlado, como um quarto ou uma estrada, percebeu-se que a inteligência humana é multifacetada e muito difícil de reproduzir num programa de computador. A dificuldade advém do facto de os seres humanos estarem habituados a funcionar em ambientes imprevisíveis e em condições sempre diferentes, uma flexibilidade que é muito difícil reproduzir num programa.

Nas últimas décadas, a aprendizagem automática, um conjunto de métodos que permite que os computadores aprendam a partir da experiência, demonstrou ser particularmente eficaz. Em vez de ser um programador a criar um programa, passo por passo, estes métodos geram um programa que desempenha determinada função, a partir de exemplos do resultado pretendido. Um programa para conduzir um automóvel poderá ser gerado a partir de muitos exemplos de como, em determinada situação, um condutor humano agiu, acelerando, travando ou rodando o volante. Embora esta abordagem já seja conhecida há algumas dezenas de anos, só agora, com a existência de grandes volumes de dados, métodos mais eficazes, e computadores muito rápidos, foi possível aplicá-la a problemas reais e complexos. Esta abordagem pode também ser usada em análise de dados, com importantes aplicações em marketing, apoio à decisão e optimização de processos logísticos, comerciais e industriais.

As redes neuronais são um dos mecanismos mais usados em aprendizagem automática, e são realmente modelos matemáticos muito simplificados de redes de neurónios biológicos, como os do cérebro humano. As ligações entre cada um destes neurónios “sintéticos” são configuradas usando técnicas matemáticas de optimização, conduzindo, por fim, a programas com o comportamento desejado. Novas abordagens, melhoramentos e inovações são propostas a um ritmo alucinante, dada a intensidade das actividades de investigação e desenvolvimento da área, e todos os dias são conhecidas novas aplicações da tecnologia, conhecida como “aprendizagem profunda” (deep learning).

Neste enquadramento, em que a agilidade é essencial, é difícil saber até que ponto a iniciativa da Comissão Europeia virá a alterar a actual situação de domínio da tecnologia por empresas maioritariamente norte-americanas e chinesas. Porém, a comunicação do dia 25 de Abril, não sendo exactamente uma revolução, revela, pelo menos, que a Europa está atenta para a necessidade de ser competitiva nesta área, por muitos vista como tendo uma importância estratégica para o desenvolvimento da sociedade do futuro.

Sugerir correcção
Ler 3 comentários