Entrevista

“A inteligência artificial tem potencial para democratizar o mundo”

O filósofo neozelandês Andrian Currie é investigador do Centro para o Estudo do Risco Existencial, da Universidade de Cambridge, Reino Unido. Tem um objecto de estudo tão peculiar quanto difícil — problematiza fenómenos que podem conduzir à extinção da espécie humana.

Foto

Adrian Currie é um filósofo com uma visão muito particular do conhecimento e da ciência. Depois de ter passado por algumas das mais prestigiadas universidades australianas, como estudante e professor, emigrou para a Europa e tornou-se investigador do Centro para o Estudo do Risco Existencial, da Universidade de Cambridge — CSER. Neste centro, Adrian, nascido na Nova Zelândia, estuda fenómenos que podem conduzir à extinção da espécie humana — dos mais prováveis, como as alterações climáticas, aos mais imprevisíveis, como o desenvolvimento da inteligência artificial, passando por outros mais reais e actuais, como as armas nucleares. Para Currie, o estudo do risco existencial é uma espécie de “apólice de seguro” da humanidade.

Porque é que escolheu a Filosofia como área de estudos?
Quando tinha uns 19 ou 20 anos, era um daqueles jovens muito confiantes e privilegiados. Tinha a certeza de que percebia tudo. Foi um grande choque fazer o meu primeiro exame de Filosofia e chumbar. Percebi que era uma área em que não dava para inventar, por estranho que pareça. Eu sei que, visto de fora, parece que em Filosofia se inventa tudo, mas, afinal, estamos a inventar baseados num conjunto de regras. Isto torna as coisas úteis de formas surpreendentes e interessantes. Acho que a Filosofia me cativou porque foi a primeira vez que me deparei com uma disciplina em que supostamente eu era bom, mas afinal não era. Ia ter de trabalhar muito. Foi a primeira coisa em que tive de trabalhar a sério. Escolhi Filosofia porque me desafiou.

Acha que a Filosofia constitui um ponto de vista privilegiado para pensar a tecnologia?
Há quem pense na Filosofia como sendo um conjunto de perguntas: porque estamos aqui? Qual é o sentido da vida? O que é o conhecimento? Prefiro pensar em Filosofia como sendo um conjunto de competências. Em Filosofia, somos treinados para pensar em razões, em argumentos. Isto pode ser muito importante para a maioria das teorias de discurso humano. Quando quero fazer alguma coisa, seja o que for, quero que haja motivos para o fazer. É quase como se fôssemos engenheiros conceptuais. Um engenheiro é muito bom a conceber espaços ou a ligar vários objectos de forma certa. Os filósofos, espera-se, são igualmente bons a ligar vários conceitos de forma certa. Para mim, é isso que é importante em Filosofia. Não é uma questão das perguntas que fazemos, mas sim das competências que podemos trazer para discussões já existentes.

O centro onde trabalha em Cambridge lida essencialmente com medos comuns resultantes das novas tecnologias. Pode explicar melhor o vosso objecto de estudo?
Estamos interessados no “risco existencial” e talvez seja útil explicar este conceito. Antes de mais, não tem muito que ver com existencialismo ou filosofias semelhantes. Pegamos apenas na palavra “existência”. A definição mais banal de risco existencial é a de um risco que levaria ou à extinção humana ou mesmo a um desmoronamento da civilização. Pense no seu filme preferido, com um meteoro a atingir a Terra ou com extraterrestres a atacar-nos. São cenários em que a existência da espécie humana estaria ameaçada.

Uma forma mais interessante de pensar em risco existencial é concentrarmo-nos no termo “existência”. Normalmente, quando se pensa em riscos, pensa-se numa escala. Temos cataclismos, alguma coisa muito má acontece, que é medida em dinheiro, em número de vítimas ou algo do género. Risco existencial é um risco à [nossa] existência face a alguma acção. Eu corro riscos existenciais quando atravesso a rua. A raça humana corre riscos existenciais quando começa a acumular armas nucleares. O mais interessante é que se trata da existência de uma acção a que anexamos um risco. É isso que nos interessa.

Pensamos em riscos de formas diferentes. Estamos interessados em riscos existenciais, falando de forma abrangente. Seán Ó hÉigeartaigh [director do departamento de Currie] tem uma metáfora: “A razão por que se quer uma comunidade de investigadores de risco existencial é para que estes funcionem como uma espécie de seguro de vida.” Um dos motivos para obtermos seguros é podermos sair de casa sem nos preocuparmos se deixamos o forno ligado. Existem seguros para casas que nos permitem abrir mão desta e de outras preocupações semelhantes. De momento, no que toca ao risco existencial, as pessoas têm de se preocupar o suficiente para que haja uma comunidade capaz de se constituir nessa apólice de seguros.

E o risco existencial envolve-nos a todos. Riscos para mim, Adrian? Não são muito relevantes, mas os riscos existenciais para toda a raça humana são. Há conjuntos de coisas em risco que podemos considerar, as línguas humanas são um exemplo. Mas os alvos do nosso departamento tendem a ser as tecnologias emergentes, e há motivos para isso.

Alguns riscos existenciais são, por vezes, simples: meteoros a atingir a Terra, supervulcões ou explosões de radiação gama. São simples porque já aconteceram antes e podemos saber mais sobre eles. Quando se fala de novas tecnologias, de máquinas biológicas, nanotecnologia ou de alterações do planeta através da poluição, falamos de eventos sem precedentes. O que torna tudo bastante mais difícil. É difícil fazer ciência com base em situações que só ocorreram uma vez ou que ainda não ocorreram de todo. Um cientista normalmente vai procurar dados e depois analisa-os. Ou coloca uma hipótese e de seguida procura dados que a sustentem. Mas não existem dados sobre a extinção humana, já que isso nunca nos aconteceu — o que torna tudo mais difícil.

O mais interessante é que o poder destas tecnologias atinge hoje uma escala sem precedentes. Não temos uma forma óbvia de descobrir o que vai acontecer. É provável que criando uma inteligência artificial poderosa esta nos escape do controlo? Ou é pouco provável? Certo é que não podemos ver o que as inteligências artificiais do passado fizeram. É aquilo a que eu chamaria um “desafio epistémico”. É uma expressão “chique” em Filosofia que significa “conhecimento”. É muito difícil ter conhecimento dentro do risco existencial. É por isso que o que fazemos no departamento se centra nas tecnologias emergentes e em particular naquelas que têm potencial para nos afectar a nível civilizacional ou afectar a espécie humana como um todo.

O que faz no seu dia-a-dia no trabalho? Quais são as suas tarefas?
É uma combinação do que a maioria dos filósofos faz. Leio e falo com pessoas. Depois, penso nisso e escrevo. [risos]

Trabalha das 9 às 5?
Regra geral... Não, não cumpro esse horário. Um filósofo académico, sobretudo no início da carreira, não trabalha das 9 às 5. Digamos que se trabalha muito mais do que aquilo por que somos pagos. Eu tento estar no escritório em horas específicas, mas regra geral trabalho muito mais do que isso.

E já chegou a alguma conclusão? Com que riscos é que nos devemos realmente preocupar?
Há certas circunstâncias em que se pode dizer: “Eis as coisas com que nos devemos preocupar.” Por exemplo, se falarmos com pessoas envolvidas em política, estas gostam que lhes apresentem as coisas separadas por pontos, mas na realidade o mundo é muito mais complicado.

PÚBLICO -
Foto

As recomendações que fazemos são muitas vezes independentes do que acontece no mundo real. Uma das preocupações que as pessoas interessadas em risco existencial têm é desenvolver formas de fazer esse tipo de comunicação. Há, por exemplo, o Bulletin of the Atomic Scientists com o seu Relógio do Apocalipse [imagem usada por um grupo de cientistas de renome para assinalarem o progresso rumo ao fim da humanidade]. A que distância estamos da meia-noite? Podemos criar um dispositivo do género para riscos existenciais? É uma forma útil para nos dizer: “Este é o ponto a que devemos estar preocupados.” Mas, de momento, noto que há uma grande discórdia quanto a esta matéria.

A questão mais interessante talvez não seja com o que nos devemos preocupar mais, mas sim o facto de pessoas diferentes pensarem coisas diferentes. Muitos dos envolvidos em risco existencial consideram a inteligência artificial o verdadeiro perigo e têm vários argumentos para o garantir. Outros dizem que não é com isso que nos devemos preocupar, mas sim com as surpresas, falando de forma geral. Ou seja, não deveríamos estar preocupados com os riscos existenciais que já imaginámos, mas sim com aqueles que nunca nos vieram à cabeça e que, como tal, não estamos em posição de evitar.

É essa a sua posição?
É provável que sim. Nesta área, impressiona-me mais a nossa ignorância do que o nosso conhecimento. Não sabermos o que vai acontecer cativa-me mais do que saber o que vai acontecer, mas não me posso ficar por aí. As armas nucleares são, claramente, um assunto muito problemático que apresenta um grande risco. Sim, depois de tudo devidamente filtrado, diria que para mim o mais preocupante são as armas nucleares.

Mas devo sublinhar que a preocupação geral com as tecnologias emergentes se prende com o facto de acreditarmos que estas tecnologias têm o potencial de tornar o mundo melhor. Não nos devemos afligir para de seguida nos irmos esconder debaixo da cama cheios de medo. Estas são matérias com que nos devemos preocupar porque queremos tirar proveito destas tecnologias. A capacidade de criações como a inteligência artificial e as novas biotecnologias para tornar o mundo melhor é enorme. Mas são tão poderosas e potencialmente tão baratas que o seu uso se pode tornar problemático.

No seu trabalho, fala recorrentemente da necessidade de especulação empírica enquanto método. Porquê?
A ciência é uma criatura muito conservadora. Encoraja as pessoas a concordar umas com as outras ou a discordar em pequenas quantidades e em espaços pequenos. E funciona porque, se soubermos onde procurar, é aí que se deve procurar. Queremos as pessoas concentradas nisso. Mas, se não soubermos — e isto é uma declaração específica que não se aplica a todas as ciências, mas sim a ciências em que é difícil identificar o objecto —, nesse caso, queremos que os cientistas sejam ousados e sejam capazes de dizer: “Talvez seja isto?” Quando formulamos a hipótese “talvez seja isto”, temos um “isto” e podemos arranjar formas de testar esta sugestão prospectiva. Se não tivermos uma ideia, ou uma forma de gerar ideias, torna-se difícil saber onde procurar e mesmo saber que tipo de provas serão relevantes.

A especulação com bases empíricas é uma especulação em que se inventa, mas as regras ditam que, ao inventar, se criam mais ligações ao mundo. Isso desafia a forma como costumamos pensar em ciência. Quando se escreve numa publicação científica, as pessoas partem do princípio de que é verdade, que basta, mas para muitas áreas da ciência, aliás, para a maioria das áreas da ciência, esta não é uma boa forma de progredir. Sobretudo estas ciências especulativas, ciências em que é difícil descobrir onde estão as provas, são aquelas em que temos de ter mais tolerância a falsos positivos. Conto que se digam muitas coisas erradas, mas muito úteis e muito produtivas.

A primeira área da ciência para que olhei e me levou a desenvolver este ponto de vista foi a Paleontologia, assim como a Geologia e a Arqueologia. São ciências dedicadas ao passado distante. Muitas das coisas que disse sobre o risco existencial aplicam-se à Paleontologia. Muitas vezes lidam com acontecimentos que parecem ser únicos. Além disso, as provas estão degradadas. Não podemos fazer experiências com dinossauros vivos. A coisa que mais salta à vista na Paleontologia é a forma como se aceitam certos tipos de especulação como ponto de partida. Acho que aceitam tão bem especular porque estão numa situação difícil no que toca à criação de conhecimento. Quer um exemplo?

Sim, claro.
Os saurópodes são dinossauros com pescoço e cauda compridos. Nos filmes, são os que estão sempre ao fundo a comer folhas em árvores altas. São um grupo interessante de dinossauros. São muito maiores do que deviam ser, em certos aspectos. Olhem para como os mamíferos de grande porte se movem em terra. Os mamíferos terrestres medem cerca de quatro metros e pesam cerca de seis toneladas. Os dinossauros saurópodes tinham cerca de 30 metros e pesavam 60 toneladas. São muito maiores. Como é que ficaram tão grandes? Deparamo-nos com uma questão intrigante. Até que os paleontólogos começaram a gerar teorias. Talvez fosse por haver muito oxigénio — com mais oxigénio, os seres vivos, por vezes, ficam maiores. Ou então porque punham ovos. Quando se põe ovos, a população pode recuperar mais depressa. Os palentólogos, a partir da pergunta inicial, geraram muitas teorias. Quando tinham teorias, testavam-nas. Pelo que se sabe, os índices de oxigénio não oscilavam da forma certa durante o Jurássico, portanto é improvável que o oxigénio tenha sido um factor. Ou talvez tivesse que ver com a alimentação. Podiam testar a quantidade de comida disponível no que toca a plantas do Mesozóico. Começaram assim a desenvolver uma imagem à medida que especulavam e iam testando as ideias. A partir das experiências que se faziam, geravam-se novas ideias e assim por diante. Esta é uma forma muito produtiva de avançar.

Os filósofos do século XX viam a ciência como uma disciplina em que se tinha uma teoria apenas para de seguida a tentar derrubar. E depois havia as que sobreviviam. No caso da Paleontologia, não temos teorias completas para derrubar ou consagrar, temos, sim, uma imagem que vai surgindo com pedacinhos que se juntam ou se separam. Os desafios que a Paleontologia enfrenta são em muito semelhantes aos desafios metodológicos do risco existencial. Por isso é que acho que as pessoas discordarem é muito saudável. É discordando que se gera algum nível de especulação. Queremos que se pensem coisas diferentes porque, ao fazê-lo, começa a criar-se a tal imagem, a tal sugestão inicial.

De certa forma, a ficção científica tem tido o papel de especular, imaginando cenários futuros.
Se analisarmos todos os filmes feitos sobre o tema do risco existencial e da extinção da humanidade (e existem bastantes), em todos aparece sempre uma “bala de prata” que salva a Humanidade. Em A Guerra dos Mundos (2005), os marcianos nunca pensaram, por uma qualquer razão que me escapa, que poderiam existir germes, vírus e bactérias na Terra contra os quais teriam de se precaver. Há sempre uma solução mágica. É uma maneira preocupante de olhar para o risco existencial, porque é muito mais complexo. Responder ao risco, garantir que não vai acontecer, requer a atenção de muitas pessoas seriamente comprometidas em soluções que tornem a tecnologia segura. É um trabalho duro, aborrecido, até. Sou um grande defensor de usarmos o pensamento criativo e a ficção científica para imaginarmos e especularmos sobre cenários futuros. Mas não devemos permitir que essa ficção esteja muito limitada ou restringida pelo que consideramos ser uma boa história.

E a ficção científica tende a ser distópica.
Exactamente. A ficção científica não está presa apenas às regras da literatura, está também presa às regras da psicologia humana. Tendencialmente, os humanos são extremistas. Se pensarmos no trabalho mais especulativo que está a ser feito em inteligência artificial, percebemos que se imaginam dois extremos: num lado, um espaço utópico onde está tudo bem; do outro, uma grande ameaça tipo Skynet [uma forma de inteligência artificial altamente avançada inventada para filmes de Hollywood]. Parecem ser as únicas opções. Mas ainda não se verificou de facto nenhuma utopia ou distopia. Estou aberto à possibilidade de se materializarem situações utópicas, mas existe um enorme hiato entre estes dois extremos que merecem a nossa análise. Por outras palavras, a nossa missão no Departamento de Risco Existencial é muito complicada. A nossa mensagem não deve ser “entrem todos em pânico”. Na maioria dos casos, exceptuando, talvez, as alterações climáticas e as bombas nucleares, a probabilidade de estes riscos se verificarem é muito reduzida, pelo menos a curto prazo. Não devemos perder a cabeça, essa é a pior coisa que podemos fazer. Mas, como temos tendência para dramatizar, ler que “um robô exterminador vai destruir-nos” é certamente mais interessante de que ler o que eu, Adrian, penso sobre estruturas de governação necessárias para garantir que a inteligência artificial se desenvolve em segurança.

PÚBLICO -
Foto

Isso adquire maior relevância porque, amiúde, as histórias que temos sobre tecnologia são muito pobres. Penso que a maneira como o público e os decisores políticos olham para a inteligência artificial está a melhorar. Mas não estou na melhor posição para o avaliar, pois estou frequentemente rodeado de pessoas que percebem de inteligência artificial. De qualquer modo, tenho a sensação de que as pessoas começam a ter uma ideia mais informada sobre como será a inteligência artificial dentro de 20 anos. Perspectivas mais simplistas levarão a que sejam tomadas más decisões sobre como aplicar e gerir a tecnologia. Se as pessoas se concentrarem demasiado nos robôs assassinos, acabarão por se preocupar mais com a inteligência artificial enquanto materializada em objectos físicos, com andróides e luzes que falam connosco. No entanto, grande parte da inteligência artificial acabará por controlar — em parte, já o faz — o funcionamento do nosso sistema financeiro ou as infra-estruturas das nossas cidades. E não falamos de agentes, não se parecerão com agentes e poderão nem se comportar como agentes, não se parecerão de todo connosco, como os andróides. E, se não os virmos à nossa frente, nem sequer pensaremos neles quando pressionarmos o nosso representante local para que se preocupe mais com a inteligência artificial. E os decisores políticos também terão, forçosamente, essa informação e não outra. Estas narrativas pobres são muito preocupantes, especialmente se pensarmos em como irão afectar o desenvolvimento da ciência.

Como é que comunica o que o seu departamento faz, as conclusões a que chega?
Seja qual for o ramo da ciência, é sempre muito difícil comunicar as nossas descobertas ao público e aos decisores políticos de forma clara. Como tal, estamos ainda a aprender a fazê-lo, a desenvolver as ferramentas certas. E, no que diz respeito ao público, isso implica escrevermos nós mesmos artigos que o público compreenda. Para tal, começámos a colaborar com grupos que nos podem ensinar a fazê-lo. Enquanto académicos, estamos habituados a escrever dissertações com dez mil palavras, com imensas palavras caras e notas de rodapé, etc.

Custa-nos bastante escrever para pessoas que não estão habituadas a ler textos com frases muito longas. Estamos a colaborar com outras pessoas para aprender a escrever boas histórias, usando algumas regras do storytelling na nossa comunicação.

Mas ainda há muito para fazer em termos de decisão política: questões como justiça e representação tecnológica ou aspectos ligados à transparência e responsabilidade.
A inteligência artificial tem potencial para democratizar o mundo de maneiras muito interessantes. Tem capacidade para ser um grande nivelador, mas tem de evoluir da maneira correcta e deve ser acompanhada pelas melhores políticas para que produza os efeitos desejados. Caso contrário, pode muito facilmente produzir o efeito oposto, aumentando a distância entre as pessoas e exponenciando, dessa maneira, as fontes de problemas no mundo.

Qual é a sua posição nesses extremos que há pouco referiu? Entre um cenário em que tudo corre bem e outro em que tudo corre mal?
Onde eu gostaria de estar ou para onde penso que nos dirigimos?

Qual é a sua posição média entre esses extremos?
Se estou optimista ou pessimista?

Se preferir assim... não quis usar esses termos, mas sim.
Desconfio de que o próximo século será muito difícil. Estamos a desenvolver muitas tecnologias que são muito poderosas, mas não criámos estruturas que nos permitam controlá-las. Penso que vão acontecer coisas más. Não acredito que nos venhamos a extinguir, mas devemos preocupar-nos com essa possibilidade. Tenho esperança de que venhamos a aprender com os nossos erros e que estes não sejam tão graves que provoquem o pior cenário. Estou muito optimista a médio prazo, mas muito pessimista a curto prazo. E uma das razões para pensar assim é que nós, humanos, temos o hábito de não nos preocuparmos com um problema até ele nos afectar de perto. E muitas pessoas dizem isso sobre as alterações climáticas. Só quando vemos as nossas colheitas a fracassar, etc., é que nos preocupamos, é que se torna real. Desconfio de que muitas coisas vão tornar-se realidade para muitas pessoas durante o próximo século. E espero que depois venhamos a evoluir. Como será quando chegarmos a esse ponto? Não faço ideia.

E gosta de não fazer ideia?
Sim, às vezes, gosto de ser ignorante. É aborrecido quando sabemos o que vai acontecer. Jogar ao Galo e saber como vai acabar ao fim de duas jogadas tira a piada ao jogo. Um futuro em aberto é um futuro excitante.

2084 - Imagine é um ciclo de conversas sobre o tempo da próxima geração. Numa parceria entre o Centro Cultural de Belém e o PÚBLICO, a realizadora Graça Castanheira ouve pessoas que, a partir das suas áreas de estudo, pensam e idealizam a nossa existência comum, procurando debater especificamente o impacto das tecnologias emergentes na vida de todos os dias.