“Vai ocorrer uma catástrofe que nos forçará à regulação”

Gerd Leonhard é um futurista que não se esgota na análise tecnológica do futuro. Está aliás mais preocupado com as dimensões éticas da evolução e em limitar aquilo que diz ser o culto da eficiência, que põe em causa a essência da humanidade.

miguel manso
Foto
miguel manso

Leonhard era músico, tendo começado cedo a operar a transição para o mundo digital. Foi nesse processo que lançou as bases do seu actual trabalho dedicado ao futuro, dividido entre a consultoria e a divulgação científica, mas sempre preocupado com a dimensão ética da evolução. A obra Tecnologia Versus Humanidade (editora Gradiva) está traduzido em português desde o ano passado e é o resumo do seu pensamento estrutural: que é preciso fazer escolhas no caminho tecnológico que estamos a construir e que as opções são necessárias para que o futuro mantenha uma dimensão humana.

O trabalho que produz vem na sequência do pensamento de outros autores, que têm alertado para a necessidade de preservar o elemento humano na construção da sociedade digital. E é neste conceito que Leonhard está bem acompanhado, graças às declarações que cientistas como Stephen Hawking e empreendedores como Elon Musk têm repetido nos últimos anos. Mas a verdade é que esse discurso surge por contraponto a uma visão libertária que considera que a tecnologia vai superar todas as limitações da humanidade e que a fusão do homem com a máquina é o último passo da evolução da espécie — a chamada singularidade.

Essa possibilidade é real. Aliás, uma das frases mais conhecidas de Gerd Leonhard confirma que o mundo vai mudar mais nos próximos 20 anos do que nos últimos 300, confirmando que o ritmo das mudanças tecnológicas está a acelerar. E apresenta como símbolos maiores dessas mudanças a inteligência artificial e a edição do genoma. Comecemos pelos computadores: “As máquinas estão realmente a aprender, é aquilo a que se chama aprendizagem automática. Em dez anos, aproximadamente, as máquinas vão ter capacidades ilimitadas e vão conseguir fazer tudo o que lhes seja pedido, porque teremos computação quântica, computação 3D, redes móveis muito rápidas (5G) e a Internet das Coisas.” Depois temos a edição do genoma humano: “Após sequenciarmos o genoma de todas as pessoas, teremos aproximadamente cinco milhares de milhões de genomas, o que significa que poderemos investigar a função de cada gene. Ou seja, em dez segundos podemos analisar os problemas de cada pessoa e trabalhar clinicamente para prevenir e curar doenças.”

O culto da eficiência

Este é o lado positivo da evolução tecnológica. O negativo, para o qual Gerd tem alertado da mesma forma, prende-se com o culto absoluto da eficiência, que reduz o valor da humanidade. E isso manifesta-se em opções que eliminam o elemento humano da equação a favor da proclamada eficiência, como se tem visto em algortimos que visam ser mais transparentes mas que confirmam preconceitos e que não são capazes de reconhecer traços de humanidade individuais — casos destes têm-se repetido, por exemplo, no sistema judicial e em mecanismos de avaliação de concessão de benefícios sociais nos Estados Unidos, em que o resultado tem sido o regresso aos modelos originais de intervenção humana. “Eu digo sempre que a eficiência é o oposto da humanidade. A eficiência é algo económico, serve para tornar um processo menos dispendioso e mais rápido — que pode ser eficiente para apanhar lixo mas se torna grave quando estamos a discutir questões relacionadas com o ser humano. Alguém vai  procurar trabalhar na eficiência de uma relação afectiva, reduzindo uma relação de dois anos a uma de duas semanas?” 

E é para prevenir estes “excessos” que entra a necessidade de regulação no processo de evolução: “Precisamos de regular o uso da tecnologia para eliminar os aspectos negativos. Recorremos à regulação e às leis para determinar o impacto de todas as indústrias, regulamentando as consequências negativas, mas não o fazemos quanto à tecnologia.” Uma resposta possível ao porquê de não o fazermos prender-se-á com o sucesso de marketing do discurso dos líderes da tecnologia como Mark Zuckerberg, que dissimulam os propósitos financeiros das suas empresas com vacuidades como “aproximar o mundo” ou “dar uma voz a toda a gente.” E é por isso que as redes sociais são um bom exemplo utilizado por Leonhard para se referir à necessidade de regulação e consciência social do que se passa: “Acho que o problema é que o Facebook é uma infra-estrutura, é a única auto-estrada de comunicação. Da mesma forma que é impossível vivermos sem o Google, e é a isto que se chama um cartel. Do meu ponto de vista, o Facebook é um verdadeiro cartel que tomou de assalto o mundo tecnológico, como há uns anos aconteceu com a Microsoft. Quando uma empresa se torna assim tão grande, é preciso desmantelá-la, o que vai acabar por acontecer. 

E esta é uma situação que se estende a outros domínios da tecnologia. Os gigantes da inteligência artificial são empresas americanas e chinesas. “São usadas como armas porque esta é uma questão de poder, e precisamos de tratados de não-proliferação porque estas são as armas mais poderosas alguma vez inventadas”. No livro Tecnologia Versus Humanidade, escrito em 2016, o autor comparou a questão da inteligência artificial à das armas nucleares, em que tratados internacionais regulavam a dimensão dos arsenais e impediam que Estados-párias acedessem à tecnologia. Sabemos que o cenário já não é o mesmo, e a inteligência artigical ou a manipulação genética são bastante mais difíceis de controlar — pelo que o risco aqui é que só se regule tarde de mais. Gerd Leonhard acha que isso vai acontecer: “Vamos ter um incidente grave antes de chegar à regulação. Podemos falar sobre isto, mas a realidade é que nada foi feito em relação às armas nucleares até serem usadas, e depois chegámos à conclusão que foi mau e que tínhamos de evitar que voltasse a acontecer — porque podíamos morrer todos. Relativamente à inteligência artificial, ainda temos cerca de dez anos, porque ainda não está a esse nível, mas vamos ter de chegar a um acordo. Vai ocorrer uma catástrofe que nos forçará a regular estas tecnologias, tal como, por exemplo, uma Inteligência Artificial a controlar o tráfego aéreo e 100 mil pessoas morrerem. As pessoas não acreditavam na bomba nuclear até esta explodir.”

Para que a regulação ocorra, é preciso que o poder legislativo esteja atento. Enquanto elogia o papel da Comissão Europeia pelo esforço no controlo da tecnologia, Leonhard assume que a principal preocupação nos tempos que correm tem a ver com o trabalho. Mas também isso precisa de ser revisto, porque a relação entre a produtividade, o emprego e os salários está a ser revista. “O que a maioria das pessoas não sabe é que nós não precisamos de trabalhar como trabalhamos hoje se tirarmos o melhor proveito das tecnologias. Hoje, as pessoas preocupam-se com os empregos porque não é muito bem-visto estar desempregado. É normalmente aqui que começo por dizer que se não compreendem o que as máquinas conseguem fazer vão acabar por ficar sem trabalho muito rapidamente. E isto vai ter consequências”. A principal das quais é a desigualdade, que graças à globalização se tem reduzido muito entre países mas se tem agravado dentro de cada país. E é aí que se vai sentir a grande mudança: “Em cinco anos não vai haver um único líder de Governo, presidente da câmara, ou alguém com um posto importante que seja eleito sem abordar estes temas.”

A dimensão ética

Um aspecto determinante no livro e no discurso de Gerd Leonhard é a ética da utilização da tecnologia — porque há um discurso moral sobre a tecnologia, mas seria interessante que a discussão se voltasse a centrar no elemento humano. “A tecnologia não é inerentemente boa ou má, ela simplesmente existe, nós é que a criamos. E penso que o futuro vai acontecer independentemente de nós, mas é um facto que nós fazemos o futuro, nós decidimos o futuro. De momento, estamos preocupados com o custo ou com quem controla a tecnologia e em dez anos só vamos perguntar: porquê? Poe que é que o estamos a fazer?”

E este olhar tem consequências também sobre o primado dos valores a transmitir às gerações seguintes. Com a evolução das máquinas, poderemos descurar o ensino das tarefas mecânicas e dar mais espaço aos valores humanos: “Acho que foi Marvin Minsky, especialista em inteligência artificial, que deu origem a este debate, dizendo que a inteligência humana também significa que conseguimos viver não sabendo algo, encontramos outra forma de o fazer. Como é que vamos fazer as crianças entender compaixão, empatia e criatividade? Nada disto se aprende na escola, mas sim a viver. A visão holística é fundamental, e a ciência é apenas uma parte dela. Isto é um grande desafio para a comunidade científica, que tende a pensar que as respostas estão sempre na ciência. E ainda que ache que por vezes é verdade, é preciso ter em conta a visão holística, que será mais preponderante no futuro. Porque a ciência não vai ter limites, vamos poder inventar tudo o que quisermos.” 

É aqui que a conversa chega a uma das mais interessantes abordagens do livro, ao repetir que “a evolução é um processo espiritual” e que precisa de um equilíbrio que neste momento não existe. “Acho que é natural para as pessoas procurarem atalhos porque é conveniente. Mas o pior é quando a conveniência se torna o princípio e o fim do raciocínio. Podemos ser mais eficientes e dar à luz numa máquina, mas será que seria humano? Temos a tendência de substituir a consciência pela conveniência. É muito mais importante ser convenientes do que sermos conscientes. E não interessa se são coisas pequenas, como o Google Maps ou assim. Quando analisamos a um nível pessoal, é desumano. O Governo tem de delimitar a fronteira entre as máquinas que elevam a humanidade e as que não — a pergunta essencial que surgiu depois de ter escrito o livro foi se é humanamente sustentável, e essa tem sido a minha preocupação.”

O seu ponto de vista ético é eminentemente humanista, por contraponto ao ideário tecnológico de Silicon Valley. Se voltarmos a colocar o acento na humanidade, se nos concentrarmos no que é bom para o ser humano, deixamos de encarar a maior produtividade e eficiência como fins em si mesmos e passamos a encarar valores mais humanos como primordiais: “Para responder à derradeira questão da tecnologia, se faz o ser humano feliz, se proporciona mais avanços para os humanos, se cria uma sociedade melhor. E se a resposta for não, devíamos pensar em não a utilizar ou em implementar algumas restrições.”