Inteligência artificial aprende “conversa fiada” para cooperar com humanos

Investigadores programaram um algoritmo para conquistar a lealdade de humanos desconfiados.

Foto
Os humanos mentiam mais vezes nos jogos do que as máquinas Reuters/WOLFGANG RATTAY

Do póquer ao xadrez, a inteligência artificial já pode vencer os humanos nos jogos que eles criaram. Há investigadores, porém, que acreditam que esses feitos não são o fundamental: é preciso ensinar a inteligência artificial a cooperar com os humanos e não só a competir.

Uma equipa internacional liderada por investigadores da Universidade Brigham Young (BYU) e do Instituto de Tecnologia de Massachusetts (MIT), nos EUA, criou um algoritmo que pode aprender a criar acordos com pessoas através de pequenas porções de conversa conhecidas, na gíria comum, como “conversa fiada”. Chama-se S# e os resultados foram publicados esta semana na revista académica Nature Communications.

"Com as máquinas a ficarem cada vez mais poderosas, torna-se crítico que possam cooperar com pessoas que não partilham todos os objectivos que elas têm," explica o investigador principal Jacob Crandall, da BYU, ao PÚBLICO. "Queriamos perceber a 'matemática da cooperação' e as ferramentas sociais de que a inteligência artificial precisa para cooperar connosco."

Primeiro, os investigadores escolheram 25 algoritmos criados para aprender comportamento estratégico de várias áreas do conhecimento (da biologia, à economia) e puseram-nos a competir entre si e com humanos para ver qual dos algoritmos era melhor, independentemente da duração ou estrutura do jogo. A maioria dos desafios incluía alguma versão do “dilema dos prisioneiros”: irão dois prisioneiros cooperar para minimizar a sentença, ou um deles trai o outro, desconfiado, para sair em liberdade? Trata-se de uma teoria do jogo que supõe que cada jogador quer sempre aumentar ao máximo a sua própria pontuação independentemente do adversário.

A equipa também testou interacções entre 220 humanos. Na maioria dos casos, as máquinas foram melhor que os humanos a chegar a um acordo para satisfazer ambas as partes. “Cerca de metade dos humanos mentiu a certa altura dos jogos”, explica Crandall na apresentação do estudo. Se fossem honestos um com o outro, dois humanos poderiam ter um desempenho tão bom como duas máquinas que estavam programadas para não mentir.

Para ensinar as máquinas a interagir melhor com pessoas desconfiadas, os investigadores experimentaram programar “conversa fiada” no algoritmo que teve melhores resultados. Funcionou. A equipa duplicou a taxa de cooperação entre humanos e inteligência artificial em 472 jogos diferentes.

Se nos jogos com máquinas, os participantes humanos concordassem em cooperar, a máquina respondia “Boa. Vamos ficar ricos!” ou “És mesmo bom”, para tentar evitar que os humanos as traíssem. Se os humanos tentassem enganá-las, e a máquina descobrisse, aprendeu a dizer frases como “Vais pagar por isso!”. Segundo os investigadores, muitas pessoas não conseguiam distinguir o algoritmo S# de um participante humano.

Os investigadores definem estas expressões como conversa fiada porque não são vinculativas em relação às acções do jogador. Dizer “és mesmo bom!” não garante que a máquina ou o humano façam o que prometeram. Mas deve motivar o humano a confiar na máquina. “A cooperação humana não requer poder computacional, e é facilitada pela intuição, normas culturais, e emoções”, lê-se no estudo. “Em particular, conversa fiada (sinais que não custam nada e não são vinculativos) tendem a levar os humanos a cooperar mais frequentemente.”

Crandall explica que a "conversa fiada" foi programada ao identificar as fases internas do processo de decisão da máquina. Permite, essencialmente, que a máquina comunique uma narrativa do que acha que vai acontecer numa relação, e do que antecipa que vai acontecer ou gostava que acontecesse.

"Estes sinais são essenciais para a nossa capacidade de nos compreendermos e para planear compromissos", acrescenta Crandall, que explica que o S# também aprendeu alguns sinais não verbais. Se um humano tentasse enganar o algoritmo repetidamente, o algoritmo começara a evitar responder. Os investigadores comparam o método ao “tratamento do silêncio”, utilizado frequentemente por humanos como uma forma de mostrar desagrado. 

Crandall diz que espera que os resultados sejam, também, uma lição para os humanos. "Podem, potencialmente, ensinar os humanos a cooperar melhor."

Sugerir correcção
Ler 1 comentários