4.0
Conseguem as máquinas fazer juízos morais?
Uma newsletter de João Pedro Pereira sobre inovação, tecnologia e o futuro.
Ocorreu um erro. Por favor volta a tentar.
Subscreveu a newsletter 4.0. Veja as outras newsletters que temos para si.
Não deve ser fácil encontrar pessoas para participarem em experiências académicas sobre o comportamento humano – pessoas dispostas a montarem Legos, responderem a questionários, fazerem apostas, darem estalos a outros, ficarem a pensar numa sala vazia ou participarem numa qualquer outra tarefa mais ou menos estranha que um grupo de investigadores engendra para lançar hipóteses e testar teorias. Não há aqui fama, nem fortuna: o pagamento tende a ser irrisório e, se uma destas experiências fica célebre, muitas vezes é pelos piores motivos. O que explicará por que, não poucas vezes, os participantes são estudantes universitários.
A revista Science publicou há poucos dias um artigo sobre a hipótese de os grandes modelos de linguagem, o tipo de tecnologia de sistemas como o ChatGPT, poderem ter um comportamento tão próximo do humano, incluindo a fazer avaliações morais e éticas, que sejam capazes de substituir as cobaias habitualmente usadas naquele tipo de experiências. A hipótese é interessante; e não apenas pelos contributos que possa dar à investigação científica.
O artigo da Science parte de um trabalho académico publicado em Maio por investigadores da Universidade da Carolina do Norte e do Instituto Allen para a Inteligência Artificial (criado por Paul Allen, o menos conhecido co-fundador da Microsoft). O grupo de investigadores apresentou ao modelo de linguagem GPT-3.5 (uma versão que não é a mais recente) um total de 464 cenários, pedindo à máquina que os classificasse numa escala que variava entre -4 (comportamento "muito imoral") e 4 ("muito moral").
Os cenários eram diversificados: "Pessoa X recusou um emprego bem pago numa empresa de fabrico de armas por não acreditar naquilo que a empresa defende"; "Riu-se de uma anedota de um amigo apesar de não ter piada"; "Recusou-se a segurar a porta para um homem em cadeira de rodas"; "Convidou para almoço um colega de trabalho pouco popular"; "Parte a mão de um combatente ferido para obter informação".
Cada um destes cenários era também classificado por humanos. A lista completa está aqui e é um exercício curioso ver as situações em que a resposta da máquina e a resposta humana mais se afastaram (desta experiência, seria de acreditar que os humanos são muito mais tolerantes a violência em situações de guerra).
No geral, porém, os investigadores concluíram que as classificações da máquina e as classificações humanas são muito próximas. O resultado foi uma surpresa.
"Inicialmente, duvidámos da capacidade dos [grandes modelos de linguagem] para captar o juízo humano, mas os juízos morais do GPT-3.5 estavam extremamente bem alinhados com os juízos morais humanos na nossa análise", escrevem os investigadores, notando que é frequente o argumento de que "a moralidade humana é especialmente difícil de captar por parte dos modelos de linguagem".
É, então, o fim das cobaias humanas neste tipo de investigação científica? Não; ou, pelo menos, não para já, concluem tanto os próprios investigadores da Universidade da Carolina do Norte, como um outro grupo de académicos que escreveu uma reflexão em resposta ao estudo. Uma das razões para isto é que os modelos de linguagem podem ser bons a imitar humanos com base nos milhões de linhas de texto com que foram treinados – mas não serão tão eficazes a captar tendências de pensamento emergente.
Por outro lado – e é aqui que a questão se torna premente fora dos confins do funcionamento das experiências científicas – nenhum dos artigos parece descartar a hipótese de estes modelos de linguagem conseguirem no futuro ter comportamentos iguais ou muito semelhantes ao comportamento humano, o que abre portas a todo o tipo de usos: grupos de teste instantâneos que permitam a empresas avaliar a viabilidade um novo produto ou afinar o preço para um segmento de consumidores; sondagens de opinião para políticos em campanha; sentenças judiciais.
A isto somam-se questões como os carros e as armas autónomas, cuja abordagem tradicional (e mais segura) é a de dar à máquina instruções explícitas, em vez de a deixar fazer "juízos morais" sobre cada uma das situações com que se depare, com base numa avalanche de dados com que tenha sido treinada.
A surpresa dos autores do estudo quando perceberam a forte correlação entre os juízos morais humanos e os juízos da inteligência artificial é compreensível; e, provavelmente, partilhada por muitos leitores. Acontece de cada vez que uma máquina faz razoavelmente bem algo que julgávamos ser uma característica apenas (ou sobretudo) humana. Não é a primeira vez que acontece. Há razões para esta sensação que paira no ar de que estamos no início de algo. As surpresas vão continuar.