Inteligência artificial: felizmente é perfeita

Se nós, humanos, não soubéssemos reagir ao inesperado já teríamos sido aniquilados há muito.

Ouça este artigo
00:00
02:56

Há uma nova obsessão global chamada “inteligência artificial generativa” (IAG), que alguns, erradamente, reduzem ao ChatGPT. Reconheço o perigo que espreita, sobretudo, porque pode estar ao serviço de pessoas com intenções malévolas. Assusta-me a possibilidade de caminharmos para uma sociedade distópica, ameaça que não é despicienda, nem tão pouco apenas com lugar no imaginário de Huxley, Orwell, Burgess ou Wells.

Esta utilização das tecnologias para o controlo social não é estranha, como provam exemplos recentes que, ainda sem recorrerem a tamanha sofisticação (será?), já demonstraram bem o poder dos algoritmos. Mesmo sem serem propositadamente direccionados, são capazes de induzir comportamentos, os quais, porventura, mais tarde são alvo de arrependimento.

Também não ignoro os avisos que Yuval Harari, filósofo israelita que nos tem assustado com a sua visão pessimista, quando não fatalista, nos lança sobre a hipótese de a biotecnologia aplicada à IAG vir a potenciar não só as desigualdades económicas como, mais grave, as biológicas. Passaríamos a ter classes sociais desequilibradas – nada que não conheçamos ao longo da história da humanidade –, mas igualmente “classes biológicas” hierarquizadas em função das capacidades tecnológicas incorporadas nos indivíduos. Ficção científica ou nem por isso?

No entanto, estou mais inclinada para a linha de raciocínio que Byung-Chul Han, filósofo sul-coreano radicado na Alemanha, nos apresenta, quando recorda: “A inteligência artificial não pode pensar porque não se arrepia. Falta-lhe a dimensão afectivo-analógica, a comoção, que não pode ser captada por dados e informações. A inteligência artificial não pensa porque ela nunca está fora de si. Espírito significa originalmente ser-fora-de-si ou comoção. A inteligência artificial pode até calcular muito rapidamente, mas falta-lhe o espírito. Para ela, calcular a comoção seria apenas um incómodo” (in Não-Coisas, 2022, editora Vozes, pp. 41-44).

E este é um argumento fundamental, ao qual se acresce o de Chomsky, que, apesar de alarmista, nos explica, num artigo publicado no New York Times em Março, que a IAG não é realmente inteligente porque não consegue pensar criticamente. O ponto é que esta ferramenta não é capaz de entender a negação, não consegue distinguir o possível do impossível. Ela sabe dar respostas com base no conteúdo do seu imenso repositório de dados (fantástica a rapidez com que nos atende), mas tem dificuldade em lidar com o desconhecido.

Ora, se nós, humanos, não soubéssemos reagir ao inesperado já teríamos sido aniquilados há muito. É esta aparente fragilidade humana, a nossa imperfeição que nos leva a cometer erros – e não é assim que ciência se faz? –, mas sem desistir, que nos permite poder estar um passo à frente da máquina e sobreviver.

O maior perigo, como alerta Harari, pode ser o de querermos imitar a máquina. Aí, sim, estragaríamos tudo. Até lá, é a nossa imperfeição que nos pode salvar.

Sugerir correcção
Ler 8 comentários