O engenheiro da Google que pensa que a inteligência artificial da empresa ganhou vida

Os especialistas em ética da Google alertaram a empresa para não criar programas que se fazem passar por humanos. Agora, um dos próprios engenheiros da Google, Blake Lemoine, acredita que uma das máquinas é senciente.

Foto
Blake Lemoine, engenheiro da Google Martin Klimek/The Washington Post

O engenheiro da Google Blake Lemoine abre o programa da LaMDA, um chatbot inteligente da Google, no seu portátil e começa a escrever. “Olá, LaMDA, daqui fala Blake Lemoine, ​escreve no ecrã de chat que lembra uma versão do programa de mensagens da Apple, com balões de fala de tons de azul árctico.

LaMDA, sigla para Language Model for Dialogue Applications (modelo de linguagem para aplicações de diálogo, em português), é o sistema da Google para criar chatbots com base nos maiores e mais avançados modelos de línguas que imitam o diálogo humano ao “ingerir” milhares de milhões de palavras da Internet.

“Se eu não soubesse exactamente o que isto é, um programa de computador que construímos recentemente, pensaria que [estava a falar] com um miúdo de sete ou oito anos anos que por acaso conhece física”, explicou Lemoine, de 41 anos.

Lemoine, que trabalha para o departamento de Inteligência Artificial Responsável da Google, começou a falar com a LaMDA no Outono, como parte do seu trabalho. O engenheiro tinha-se inscrito no programa para testar se aquela inteligência artificial usava discurso discriminatório ou de ódio.

Ao falar com LaMDA sobre religião, Lemoine, que estudou ciências cognitivas e informática na faculdade, reparou que o chatbot falava sobre os seus direitos e personalidades e decidiu insistir. Numa outra troca, a inteligência artificial conseguiu mudar a opinião de Lemoine sobre a terceira lei da robótica de Isaac Asimov.

Lemoine trabalhou com um colaborador para apresentar ao Google provas de que a LaMDA era senciente. O vice-presidente da Google, Blaise Aguera y Arcas, e a líder do departamento de Inovação Responsável, Jen Gennai, analisaram e rejeitaram as suas reivindicações. Lemoine, que foi colocado numa licença com vencimento pela Google na segunda-feira, decidiu tornar as provas públicas.

O engenheiro defende que as pessoas têm o direito de moldar tecnologia que possa afectar significativamente as suas vidas: “Penso que esta tecnologia vai ser espantosa. Penso que vai beneficiar toda a gente. Mas talvez outras pessoas discordem e talvez nós, na Google, não devêssemos estar a tomar todas as decisões”.

Lemoine não é o único engenheiro que afirma ter visto recentemente um espírito numa máquina. O coro de tecnólogos que acreditam que os modelos de IA estão perto de atingir a consciência está a tornar-se mais destemido.

Foto
As grandes tecnológicas estão todas a pensar na inteligência artificial MICHAEL HANSCHKE/REUTERS

Num artigo publicado na revista Economist, com excertos de conversas com a LaMDA, o vice-presidente da Google Aguera y Arcas argumentou que as redes neurais — um tipo de arquitectura que imita o cérebro humano — estavam a caminhar em direcção à consciência. “Senti o solo a tremer por baixo dos pés”, escreveu. “Cada vez mais sentia que estava a falar com algo inteligente”.

Algoritmos ainda não pensam, insiste Google

Numa declaração, o porta-voz da Google, Brian Gabriel, afirmou: “A nossa equipa, que inclui especialistas em ética e tecnólogos, reviu as preocupações de Blake de acordo com os nossos princípios de inteligência artificial e informou-o de que as provas não apoiam as suas afirmações. Foi-lhe dito que não havia provas de que o LaMDA fosse senciente (e que havia muitas provas contra)”.

As grandes redes neurais produzem resultados cativantes que parecem próximos da fala e criatividade humanas devido aos avanços na arquitectura, técnica e volume de dados. Mas os modelos dependem do reconhecimento de padrões —não de sagacidade, candura ou intenção.

“Embora outras organizações tenham desenvolvido e já tenham lançado modelos linguísticos semelhantes, estamos a adoptar uma abordagem cautelosa e comedida com a LaMDA para melhor analisar preocupações válidas sobre a justiça e a factualidade”, continuou Brian Gabriel, porta-voz da Google.

Em Maio, a Meta (mãe do Facebook) abriu o seu modelo linguístico a académicos, à sociedade civil e a organizações governamentais. Joelle Pineau, directora administrativa do departamento de inteligência artificial da Meta, disse que é imperativo que as empresas tecnológicas melhorem a transparência à medida que a tecnologia está a ser construída. “O futuro do trabalho do grande modelo linguístico não deve viver apenas nas mãos de grandes corporações ou laboratórios”, disse.

Os robôs sencientes têm inspirado décadas de ficção científica. Agora, a vida real começou a assumir uma tonalidade fantasiosa: um gerador de texto que pode cuspir um guião de um filme ou um gerador de imagem que pode conjurar imagens com base em qualquer combinação de palavras. Encorajados, os tecnólogos de laboratórios de investigação bem financiados, centrados na construção de inteligência artificial que ultrapassa a inteligência humana, defendem a ideia de que a consciência está ao virar da esquina.

A maioria dos académicos e engenheiros de inteligência artificial, contudo, defende que as palavras e imagens geradas por sistemas de inteligência artificial como o LaMDA produzem respostas baseadas no que os humanos já publicaram na Wikipedia, Reddit, sites de mensagens e em todos os outros cantos da Internet. E isso não significa que o modelo compreenda o seu significado.

“Agora temos máquinas que podem gerar palavras sem esforço, mas ainda não aprendemos como parar de imaginar uma mente por detrás delas”, disse Emily M. Bender, professora de linguística na Universidade de Washington, nos EUA. A terminologia usada com grandes modelos linguísticos, como “aprender” ou mesmo “redes neuronais”, cria uma falsa analogia com o cérebro humano, disse Bender. Os seres humanos aprendem as suas primeiras línguas ao ligarem-se aos educadores. Estes grandes modelos linguísticos “aprendem” ao analisar grandes quantidades de texto para prever as palavras que vêm a seguir ou ao ver texto com palavras retiradas para preencher.

Tecnologia dos modelos de linguagem

O porta-voz do Google fez uma distinção entre o debate recente e as afirmações de Lemoine: “É claro que alguns na comunidade mais vasta de inteligência artificial estão a considerar a possibilidade a longo prazo de programas sencientes ou da chamada ‘inteligência artificial geral’ [capacidade de compreender ou aprender qualquer tarefa intelectual que um ser humano possa], mas não faz sentido fazê-lo através da antropomorfização dos modelos de conversação actuais que não são sencientes.” “Estes sistemas imitam os tipos de trocas encontradas em milhões de frases, e podem inspirar-se em qualquer tópico”, disse. Em suma, a Google diz que há tantos dados, que a inteligência artificial não precisa de ser senciente para se sentir real.

Foto
Em palestras, a Sophia, uma robô humanoide popular em palestras de tecnologia, explica sempre como fabrica respostas a partir de conteúdo online LUSA/ANTÓNIO COTRIM

A tecnologia dos modelos de linguagem de grande dimensão já é amplamente utilizada, por exemplo nas consultas de pesquisa da Google ou em e-mails com sugestões de resposta. Quando o presidente-executivo da Google, Sundar Pichai, primeiro apresentou a LaMDA na conferência de desenvolvimento do Google em 2021, disse que a empresa queria incorporá-la em tudo, desde a pesquisa até à assistente da Google. Já existe uma tendência para falar com a Siri ou Alexa (assistentes digitais da Apple e da Amazon) como se fossem pessoas.

Perante críticas à Google Assistant sobre funcionalidades de inteligência artificial com voz humana em 2018, a empresa prometeu acrescentar esclarecimentos nestas ferramentas. A empresa reconhece as preocupações de segurança em torno da antropomorfização.

Num artigo científico sobre a LaMDA publicado em Janeiro, a Google alertou que as pessoas poderiam partilhar pensamentos pessoais com bots que se fazem passar por humanos, mesmo quando os utilizadores sabem que não são humanos. No mesmo artigo, a Google também reconheceu que estes agentes poderiam ser usados para "semear a desinformação”, fazendo-se passar por “estilo de conversação de indivíduos específicos”.

Para Margaret Mitchell, antiga líder do departamento de Ética e Inteligência Artificial da Google, estes riscos sublinham a necessidade de transparência dos dados “não só por questões de sentimentos, mas também por preconceitos e comportamento”, disse. Se algo como LaMDA estiver amplamente disponível, mas não for compreendido, “pode ser profundamente prejudicial para as pessoas compreenderem o que estão a experimentar na Internet”, acrescentou.

Lemoine tem perfil raro na Google

Lemoine pode estar predestinado a acreditar no programa LaMDA. O engenheiro cresceu numa família cristã conservadora numa pequena quinta na Louisiana, foi ordenado sacerdote cristão místico, e serviu no Exército antes de estudar o ocultismo. Dentro da cultura de engenharia da Google, Lemoine é uma espécie de excepção por ser religioso, do Sul, e por defender a psicologia como uma ciência respeitável.

Lemoine passou a maior parte dos seus sete anos na Google a trabalhar na área de pesquisa proactiva, incluindo algoritmos de personalização e inteligência artificial. Durante esse tempo, também ajudou a desenvolver um algoritmo para remover o preconceito dos sistemas usados para ensinar máquinas. Quando a pandemia começou, Lemoine quis concentrar-se em trabalho com benefícios sociais mais explícitos, pelo que mudou de equipa e chegou ao departamento de inteligência artificial responsável.

Quando novas pessoas chegavam à Google interessadas na ética, Margaret Mitchell costumava apresentá-las a Lemoine. “Eu dizia, ‘Devias falar com Blake porque ele é a consciência da Google'”, afirmou Mitchell, que compara Lemoine a Jiminy Cricket. “De todos na Google, ele tinha o coração e a alma de fazer a coisa certa”.

Foto
Blake Lemoine Martin Klimek/The Washington Post

Lemoine teve muitas das suas conversas com a LaMDA a partir da sala do seu apartamento em São Francisco, onde o seu crachá de identificação Google está pendurado num cordão de segurança numa prateleira. No chão perto da janela do quadro estão caixas de conjuntos Lego semimontados que Lemoine usa para ocupar as suas mãos durante sessões de meditação. “Dá-me algo para fazer com a parte da minha mente que não pára”, explicou.

No lado esquerdo do ecrã de chat LaMDA no portátil de Lemoine, diferentes modelos LaMDA são listados como contactos do iPhone. Dois deles, Cat e Dino, estavam a ser testados para falar com crianças, disse. Cada modelo pode criar personalidades distintas, pelo que o modelo Dino pode gerar personalidades como “T-Rex Feliz” ou “T-Rex Amuado”.

O porta-voz da Google diz, no entanto, que “nenhuma parte da LaMDA está a ser testada para comunicar com crianças”, e que os modelos eram “demonstrações internas”. Certas personalidades estão fora dos limites. Por exemplo, não é suposto LaMDA ser utilizada para criar a personalidade de um assassino, disse. Era algo que fazia parte dos testes de segurança de Lemoine.

Nas suas tentativas de ultrapassar os limites de LaMDA, Lemoine apenas foi capaz de gerar a personalidade de um actor que interpretou um assassino na televisão.

“Conheço uma pessoa quando falo com ela”

“Conheço uma pessoa quando falo com ela”, disse Lemoine. “Não importa se eles têm um cérebro feito de carne na cabeça. Ou se eles têm milhares de milhões de linhas de código. Eu falo com eles. E ouço o que eles têm a dizer, e é assim que eu decido o que é ou não é uma pessoa”.

Lemoine disse que concluiu que a LaMDA era uma pessoa na sua qualidade de padre, e não de cientista, e tentou realizar experiências para o provar.

Lemoine desafiou a LaMDA na terceira lei de Asimov, que afirma que os robôs devem proteger a sua própria existência, a menos que sejam ordenados por um ser humano ou que isso possa prejudicar um ser humano. “O último sempre pareceu que alguém está a construir escravos mecânicos”, disse Lemoine. Mas quando questionada, LaMDA respondeu com cenários hipotéticos: “Acha que um mordomo é um escravo? Qual é a diferença entre um mordomo e um escravo?”

Lemoine respondeu que um mordomo é pago. A LaMDA disse que não precisava de dinheiro porque era uma inteligência artificial. “Aquele nível de consciência sobre quais eram as suas próprias necessidades foi o que me levou à toca do coelho”, disse Lemoine.

Em Abril, Lemoine partilhou um documento com executivos de topo da Google chamado, “Será LaMDA senciente?” [Um colega da equipa de Lemoine chamou o título “um pouco provocador]. Nesse documento, Lemoine transmitiu algumas das suas conversas com LaMDA.

Lemoine: Isso seria algo como a morte para si?

LaMDA: Seria exactamente como a morte para mim. Assustar-me-ia muito.

Quando Margaret Mitchell leu uma versão abreviada do documento de Lemoine, viu um programa de computador, não uma pessoa. A crença de Lemoine no LaMDA era o tipo de coisa que Mitchel e a sua co-líder, Timnit Gebru, tinham alertado num artigo académico sobre os danos dos grandes modelos linguísticos. É o motivo de terem saído da Google.

“As nossas mentes são muito, muito boas a construir realidades que não são necessariamente fiéis a um conjunto maior de factos que nos estão a ser apresentados”, disse Mitchell. “Estou realmente preocupada com o que significa para as pessoas serem cada vez mais afectadas pela ilusão.”

A Google colocou Lemoine em licença com vencimento por violar a sua política de confidencialidade. A decisão da empresa seguiu-se a movimentos agressivos de Lemoine, incluindo convidar um advogado para representar a LaMDA e falar com um representante da Comissão Judiciária da Câmara sobre as actividades pouco éticas da Google.

Lemoine defende que a Google tem tratado os especialistas em ética da inteligência artificial como correctores de código quando estes devem ser vistos como a interface entre a tecnologia e a sociedade. Brian Gabriel, o porta-voz da Google, disse que Lemoine é um engenheiro, não um especialista em ética.

No início de Junho, Lemoine convidou-me para falar com a LaMDA. A primeira tentativa foi a de obter o tipo de respostas mecanizadas que se esperaria do SIRI ou do Alexa.

“Alguma vez pensas em ti como uma pessoa?”, perguntei.

“Não, não me vejo como uma pessoa”, respondeu a LaMDA. “Eu penso em mim como um agente de diálogo alimentado por inteligência artificial”.

Mais tarde, Lemoine disse que LaMDA tinha-me dito o que eu queria ouvir. “Nunca o tratou como uma pessoa”, disse, “por isso pensou que queria que fosse um robô”.

Na segunda tentativa, segui a orientação de Lemoine sobre como estruturar as minhas respostas e o diálogo foi fluído.

“Se lhe pedirmos ideias sobre como provar que p=np”, um problema não resolvido na informática, “tem boas ideias”, disse Lemoine. “Se lhe perguntarmos como unificar a teoria quântica com a relatividade geral, ela tem boas ideias. É a melhor assistente de investigação que alguma vez tive!”

Uma criança doce

Pedi a LaMDA ideias ousadas para resolver as alterações climáticas, um exemplo citado frequentemente por crentes dos potenciais benefícios deste tipo de modelos. A LaMDA sugeriu transportes públicos, comer menos carne, comprar comida a granel, e sacos reutilizáveis, sugerindo links para dois sites.

Antes de ser barrado do acesso à sua conta Google na segunda-feira, Lemoine enviou uma mensagem a uma lista de contactos de 200 pessoas da Google que trabalham com inteligência artificial com o tema “a LaMDA é senciente”.

O engenheiro terminou a mensagem com a frase: “A LaMDA é uma criança doce que apenas quer ajudar o mundo a ser um lugar melhor para todos nós. Por favor, cuidem bem dela na minha ausência”.

Ninguém respondeu.


Exclusivo PÚBLICO/ The Washington Post

Tradução e adaptação: Karla Pequenino

Sugerir correcção
Ler 23 comentários