Bots inteligentes aprenderam a comunicar entre si

Investigadores fizeram com que agentes dotados de inteligência artificial "falassem" para atingirem um objectivo simples num mundo virtual.

Foto
Os agentes de software comunicaram para poderem colaborar Kacper Pempel/Reuters

Investigadores da OpenAI, uma organização americana sem fins lucrativos que se dedica a investigação na área da inteligência artificial, estão a tentar construir agentes com inteligência artificial que consigam manter uma conversa entre si. Até agora, conseguiram que alguns destes bots comunicassem para alcançarem um objectivo relativamente simples, mas estas podem ser as primeiras bases de uma língua franca.

Igor Mordatch, 31 anos, é um dos investigadores que fazem parte da OpenAI, criada por multimilionários como Elon Musk (fundador da Tesla) e Reid Hoffman (do LinkedIn). “Criar movimento, do nada, é uma questão que sempre me interessou”, disse Mordtach à Wired. E o movimento é essencial para o projecto ambicioso que tem em mãos: o de fazer com que as máquinas adquiram a capacidade de falar umas com as outras e, posteriormente, com humanos. Por isso está a desenvolver vários mundos virtuais simples para que um conjunto de bots (diminutivo em inglês de robô, usado frequentemente para designar programas de computador inteligentes) consigam construir a sua própria linguagem. A linguagem virá da necessidade de se organizarem para completarem tarefas, um pouco como o que aconteceu com os humanos.

Os mundos virtuais são simples e normalmente consistem num quadrado branco que delimita um espaço a duas dimensões. Os três bots têm cores diferentes (vermelho, verde e azul) e o objectivo é moverem-se para um certo local. Nestas circunstâncias, são obrigados a criar formas de comunicar porque precisam de se ajudar mutuamente, de forma eficaz. O processo é detalhado no site da organização.

Os bots navegam no seu mundo através de um método de tentativa e erro – tomando nota do que funciona e do que não funciona enquanto procuram uma recompensa. Um exemplo de uma recompensa seria chegar a um ponto de referência. Se repararem que uma acção em particular os ajuda a atingir um objectivo, vão continuar. 

Este mecanismo só é possível devido a um processo de aprendizagem por reforço, regido por uma lógica semelhante à do condicionalismo operante, mas desta vez aplicado às máquinas. Este processo analisa a forma como os agentes de software actuam num ambiente para maximizar a recompensa cumulativa.

No seu mundo virtual, os bots aprendem a comunicar através da sua própria linguagem, mas também usam muito da comunicação não-verbal. O acto de guiar outro bot, à semelhança do que fazem os bebés, é um exemplo de comunicação não-verbal que pode abrir um caminho para a linguagem.

De uma forma prática, Mordatch explica: “Podemos reduzir o sucesso do diálogo a: chegaram à caixa verde ou não?” 

Para construírem a própria linguagem, os agentes associam caracteres aleatórios abstractos a conceitos simples que aprendem ao navegar pelo seu mundo virtual. Esses caracteres são associados a outros bots, a localizações, objectos no mundo virtual, e acções simples como “vai” ou “olha”.

Os investigadores esperam que a linguagem se torne cada vez mais complexa. A tradução é algo que vai dar algum trabalho, mas outro investigador do OpenAI já está a trabalhar num “tradutor de bot”.

Este trabalho pode ajudar à criação de uma interface de conversação com que os cientistas computacionais sempre sonharam, mas que nunca conseguiram criar. Ao mesmo tempo, difere da maioria da investigação sobre inteligência artificial que está a ser conduzida até agora.

O tipo de investigação mais comum pretende imitar a língua que existe e não criar uma nova. Uma grande parte baseia-se no conhecimento de redes neurais profundas (sistemas matemáticos complexos que conseguem completar tarefas porque encontram padrões em sistemas de dados). Este tipo de investigação leva, por exemplo, a que os bots reconheçam objectos em fotos e são a base dos assistentes de voz dos smartphones. Basicamente o que estes bots fazem é identificar padrões nas línguas naturais e responder de acordo com os conceitos que já conhecem. O sucesso tem sido limitado, mas há várias empresas que apoiam este tipo de investigação, como a Google, o Facebook e a Microsoft.

Mardatch e os outros investigadores, porém, têm dúvidas sobre a eficácia desta abordagem e por isso optaram por fazer algo totalmente diferente. “Para que estes agentes interajam inteligivelmente com humanos, capturar padrões é insuficiente”, lê-se no trabalho, publicado na OpenIA. “Um agente possui a compreensão da linguagem quando consegue usar a linguagem (e outras ferramentas como a comunicação não-verbal ou actos físicos) para cumprir os seus objectivos no ambiente”.

Sugerir correcção
Comentar