Coisas como nós

Ao fazer compras online ou ao pôr um “like” no Facebook, expomos a nossa identidade e privacidade a uma reserva gigantesca de dados. Sim, há aí um enorme potencial para a humanidade. Mas há também uma série de ameaças para as quais temos de estar atentos. Nono de uma série de dez textos sobre os riscos da “revolução digital”.

A inteligência artificial (IA) nasceu para a ciência e para o mundo há pelo menos 60 anos, se considerarmos que foi em 1955 que McCarthy, Minsky, Rochester e Shannon primeiro usaram o termo [1]. E cinco anos antes já Alan Turing, talvez a figura mais importante de toda a Ciência de Computadores, publicara um artigo onde pergunta “Conseguem as Máquinas Pensar?” [2]. Aí descreve o “Imitation Game”, que viria a ser conhecido mais popularmente como Teste de Turing. O teste coloca uma inteligência artificial e uma pessoa por trás de uma cortina e o objetivo é alguém (humano) interagir com esses dois agentes e tentar descobrir qual deles é a máquina. Turing antevia que um programa poderia um dia ser suficientemente sofisticado para imitar a inteligência humana, isto apesar das fortes limitações dos computadores da época. E não é difícil perceber as enormes vantagens potencialmente trazidas por estas “máquinas pensantes”. Poderiam substituir-nos em algumas tarefas, ajudar-nos no processo decisório, optimizar processos. E logo em 1959 Arthur Samuel desenvolvia, no primeiro computador comercial da IBM, um programa para jogar damas que conseguiria bater-se com campeões regionais [3]. Entre outras contribuições essenciais, uma das técnicas revolucionárias utilizadas por Samuel consistia em pôr o computador a jogar contra si próprio repetidamente e assim descobrir sozinho qual a melhor forma de ganhar a um futuro adversário. Samuel chamou-lhe “Machine Learning”. A capacidade de a máquina aprender uma tarefa a partir da sua própria experiência.

Depois desses e de outros pioneiros, a investigação em IA não parou de crescer e de se consolidar mas manteve-se, durante várias décadas, praticamente confinada aos laboratórios das universidades e dos centros de investigação. Durante este período muitas contribuições importantes foram feitas, como as Redes Neuronais (que já vinham de 1943) treinadas com métodos de otimização, que descobriam padrões escondidos aos olhos humanos, a Programação em Lógica, as Redes Bayesianas e os Sistemas Periciais. Áreas como a Robótica, ou o Processamento de Língua Natural (que permite aos computadores ler e interpretar linguagens humanas), tiveram interessantíssimos desenvolvimentos que as foram levando para a prática de algumas empresas que conseguiam trabalhar com nichos de mercado mais sofisticados, mas nunca conseguiram verdadeiramente impressionar a economia e a sociedade. Talvez por isso, muitas das discussões sobre ética ou riscos da IA foram sendo tratadas como interessantes mas demasiado futuristas, ou mais próximas da ficção científica do que da realidade próxima. A IA sofria de uma dificuldade fundamental: era necessário codificar manualmente o conhecimento.

Isto começou a mudar no final dos anos 80 com o Data Mining ou mais propriamente da Descoberta de Conhecimento a partir de Bases de Dados (KDD). Estatística e Machine Learning juntaram-se para analisar sobretudo os já muitos dados que os sistemas de informação das empresas produziam por razões transacionais, desde registos de compra e venda de ações em gigantes mercados financeiros até balanços dos dia a dia de empresas de média dimensão. A maré de dados começava a encher. As outras áreas de ciência e da sociedade perceberam o potencial da descoberta automática, que rapidamente se estendeu a dados textuais e à imagem. A World Wide Web foi-se tornando na maior fonte de dados, cada vez mais ricos, mais pessoais, mais ruidosos. Muitas novas aplicações viram a luz do dia, como os já discutidos sistemas de recomendação automáticos [4] que percebem as nossas preferências e nos poupam tempo de pesquisa com as suas sugestões, enquanto aumentam a nossa propensão para consumir. Os algoritmos de Machine Learning tiveram de se adaptar ao enorme volume, variedade e velocidade dos dados (Big Data). Métodos que estavam há anos a ser desenvolvidos pelos tais investigadores são aplicados por cada vez mais empresas e serviços de estado a problemas e a dados cada vez mais diversos. Redes Neuronais, Redes Bayesianas, aprendizagem estatística, deixam de ser disciplinas de nicho e passam a ser estudadas por todos os que sonham em ser Cientistas de Dados, a “ocupação mais sexy do século XXI” [5].

Mas a joia mais brilhante desta coroa de novidades antigas seria o Deep Learning, um ramo da aprendizagem automática (a melhor tradução que eu conheço para machine learning) resultante da evolução das velhinhas Redes Neuronais. Combinando diferentes camadas de neurónios artificiais, os algoritmos começam a aprender a realizar tarefas que se pensava limitadas à inteligência humana. A aprendizagem automática é conseguida não através de regras explícitas fornecidas pelos humanos, mas observando múltiplos exemplos e “apreendendo as diferenças”. Como é que se ensina a diferença entre um sinal saudável e um potencialmente canceroso? Apesar de haver regras divulgadas, só um olhar especialista os sabe distinguir em segundos. No entanto, cada vez mais os algoritmos conseguem distinguir imagens de gatinhos em milhões de fotos das redes sociais, reconhecer rostos e traduzir línguas com pouquíssima intervenção humana (mas com muitos dados e algum poder computacional), sem respeitar a forte tradição da Lógica como estrutura da inteligência. A IA parece poder dispensar, pela primeira vez, o nosso bom senso.

Um mar de aplicações estende-se, por exemplo, na saúde, onde já se vaticina a próxima redundância dos radiologistas e outros intérpretes de imagens [6]. Os carros autónomos, ainda que não saibam tomar sempre a melhor decisão, já conseguem identificar limites de estrada, sinais, outros veículos e peões. Os mais bem-sucedidos algoritmos de IA, apesar de serem uma caixa preta que não permite grandes indagações sobre as razões das suas respostas, conseguem em muitas tarefas passar o tal teste que Turing pensara e funcionar como assistentes pessoais que nos ajudam a marcar um cabeleireiro ou a encontrar o candeeiro que queremos em lojas de móveis online, através de chatbots ou mesmo “falando” connosco, sem que saibamos necessariamente que estamos a interagir com uma máquina.

Tanto que o mundo já receia pelo apocalipse das máquinas inteligentes. Gente respeitável como Stephen Hawking ou Elon Musk declaram a IA como uma das maiores ameaças para a humanidade [7], a par do grande asteroide que pode colidir com a Terra ou mesmo da terrível ameaça ambiental. Da utopia recente, a IA passou a uma verosímil maravilha perigosa e útil. Está no nosso bolso, na nossa carteira, no nosso carro, na nossa casa, nas notícias, na publicidade, em quase toda a parte. Faz parte do discurso oficial das nações, faz vibrar uma economia que promete crescimento acrescentado como há muito tempo não se vê [8].

A IA tem ainda muito para melhorar em áreas em que os humanos são decididamente muito bons, como no reconhecimento de objetos e de cenas e no processamento de língua natural, mas ainda mais em áreas em que a intervenção humana é difícil ou demasiado lenta, como na robótica para salvamento ou para exploração em ambientes hostis como o mar ou o espaço. Por outro lado, para podermos viver com ela, a IA precisa também de ser muito mais como nós. Precisa de compreender.

E isto leva-nos a uma série de questões.

À medida que deixamos cada vez mais decisões importantes a algoritmos, precisamos que estes sejam mais confiáveis, transparentes e que sejam capazes de nos explicar as suas decisões (por exemplo, quando recusam um crédito ou nos aconselham a investigar um suspeito). A IA pode precisar mesmo de argumentar, de nos contar por palavras que entendamos tudo o que aconteceu antes de uma decisão que tenha tomado. Para isso, vai talvez ter de recuperar a Lógica e a Razão e sair do atual estado de quase caixa preta.

Por outro lado, um agente artificial vai ter de saber ser justo nas suas decisões e nas suas palavras. Se aceitamos que um chatbot não pode ter um discurso de ódio e semear a discórdia, teremos de lhe ensinar regras de comportamento social e ética. Esta terá de ser codificada, aprendida ou inferida e isso depende do tipo de valores que lhe quisermos ensinar (serão esses os meus, os seus, os de outras sociedades?). Teremos de ter uma Inteligência Artificial ética-por-natureza, como preconiza a Estratégia Europeia para a IA, que nos permita assegurar que os princípios humanistas europeus prevalecem perante possíveis más tentações que sempre irão pairar sobre nós. A UE lidera neste momento a discussão ética sobre AI. Embora ainda muito haja para fazer neste capítulo, há receios [9] que todas estas condições, combinadas com o princípio da proteção da privacidade, nos ponham numa velocidade de desenvolvimento mais baixa do que os Estados Unidos ou a China (que trabalha para ser líder mundial de IA até 2030) e que possam alimentar o pessimismo do público sobre a tecnologia.

Cabe-nos perceber que estes difíceis equílibrios só se conseguem com discussões alargadas e que a IA Humana pode mesmo significar importantes oportunidades de investigação e de inovação. Acreditamos que todo o Mundo, e não só a Europa, vai querer fazer este caminho mais cedo ou mais tarde.

[1] John McCarthy, Marvin L. Minsky, Nathaniel Rochester, Claude E. Shannon, A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence, 1955 (republicado no AI Magazine Vol 27 N 4 (2006))
[2] Computing Machinery and Intelligence, Alan Turing, 1950.
[3] Arthur Samuel, Some Studies in Machine Learning Using the Game of Checkers, IBM Journal, Vol. 3, No. 3, Julho, 1959 https://www.cs.virginia.edu/~evans/greatworks/samuel.pdf
[4] https://www.publico.pt/2019/04/08/tecnologia/analise/dizme-fazes-dirteei-es-1868035
[5] Data Scientist: The Sexiest Job of the 21st Century, Harvard Business Review , Outubro 2012
[6] https://www.publico.pt/2019/04/22/tecnologia/analise/rica-saude-1869954
[7] Stephen Hawking warns artificial intelligence could end mankind, BBC News, Dezembro 2014, https://www.bbc.com/news/
[8] Notes from the AI frontier: Modeling the impact of AI on the world economy, McKinsey&Company, Setembro 2018.
[9] Europe Thinks Ethics Is the Key to Winning the A.I. Race. Not Everyone Is Convinced, Fortune, Abril 2019.

Esta série, às segundas-feiras, está a cargo do grupo de investigação em Data Science and Policy, da Nova School of Business and Economics (http://scienceandpolicy.eu)

Na próxima segunda-feira: “O futuro decide-se agora”

O autor escreve segundo o novo Acordo Ortográfico​

Sugerir correcção
Comentar