Notícias sobre inteligência artificial são "irresponsáveis", diz investigador do Facebook

Apesar de títulos alarmistas, o caso do programa de computador que desenvolveu uma linguagem própria não aconteceu como muitos o contaram.

Foto
Reuters/Philippe Wojazer

Esta terça-feira, vários órgãos noticiosos – portugueses e internacionais – voltaram a publicar uma história sobre agentes de inteligência artificial utilizados pela equipa de investigação do Facebook (chamados Bob e Alice), que terão desenvolvido uma linguagem secreta para falarem entre si antes de serem desligados.

A verdade faz-nos mais fortes

Das guerras aos desastres ambientais, da economia às ameaças epidémicas, quando os dias são de incerteza, o jornalismo do Público torna-se o porto de abrigo para os portugueses que querem pensar melhor. Juntos vemos melhor. Dê força à informação responsável que o ajuda entender o mundo, a pensar e decidir.

Esta terça-feira, vários órgãos noticiosos – portugueses e internacionais – voltaram a publicar uma história sobre agentes de inteligência artificial utilizados pela equipa de investigação do Facebook (chamados Bob e Alice), que terão desenvolvido uma linguagem secreta para falarem entre si antes de serem desligados.

Os títulos – com frases como “Facebook desactiva inteligência artificial”, “Inteligência robótica perigosa” e“ Robôs ganham vida própria e Facebook cancela o projecto” – parecem anunciar um salto enorme no desenvolvimento da inteligência artificial, com possíveis consequências para os seres humanos. Não é o caso. Os agentes de inteligência artificial (que são programas de computador e não robôs) usaram palavras da língua inglesa para criar uma comunicação própria, mas continuaram a fazer aquilo para que foram concebidos: negociar entre si a divisão de objectos. Um dos investigadores responsáveis pelo projecto, Dhruv Batra, classificou as notícias recentes sobre a sua investigação como "irresponsáveis e clickbaity [enganadoras e publicadas para aumentar os cliques]". 

As primeiras notícias, e vários desmentidos, circulam há semanas. A origem vem de um trabalho de investigação do Facebook (que não foi cancelado), apresentado a 14 de Junho. O objectivo do departamento de investigação em inteligência artificial da rede social era desenvolver chatbots (ou seja, programas automáticos de mensagens) capazes de negociarem uns com os outros a divisão de objectos como bolas, livros e chapéus.

O problema que originou a confusão foi que, ao testar o código aberto do projecto, alguns utilizadores notaram que parte das interacções entre os chatbots do Facebook nem sempre faziam sentido. Um deles dizia (em inglês) “eu posso, eu e tudo o resto” e o outro respondia “bolas ter uma bola para mim para mim para mim”. O problema, porém, está longe de ser o desenvolvimento de uma linguagem secreta: os investigadores apenas optaram por não introduzir o uso obrigatório das regras de inglês no código dos programas, porque o foco era desenvolver um sistema de negociação. Como resultado, a inteligência artificial criou uma gramática própria. Por exemplo, quando a Alice usa a frase “ter uma bola para mim” e repete “para mim” três vezes, o objectivo é transmitir a ideia de que quer três bolas.

Segundo Dhruv Batra, no final foram introduzidas regras para os chatbots falarem em inglês porque o objectivo era negociarem com outras pessoas, ou seja, o Bob e a Alice deixaram de ser capazes de adaptar a gramática da língua inglesa. "Tal não equivale a 'tirar a ficha' ou 'desligar a inteligência artificial'. Se tal fosse o caso, todos os investigadores de inteligência artificial têm estado a 'desligar a inteligência artificial' cada vez que eliminam a capacidade de uma máquina realizar uma tarefa [neste caso, adaptar a linguagem]", escreveu Batra numa publicação pública no Facebook.

Criar chatbots não é fácil: já na publicação do relatório original, os  investigadores acentuavam que os chatbots "repetiam informação" e que “manter a coerência entre múltiplas frases era desafiador”. Em Fevereiro, o Facebook tinha admitido limitar as funcionalidades da plataforma de chatbots do Messenger porque os programas eram incapazes de responder a cerca de 70% das perguntas. 

Apesar da azáfama recente, também não é a primeira vez que sistemas de computador adaptam uma linguagem humana. Em Março, a OpenAI, publicou um relatório que explica como estão a treinar robôs para criar a sua própria linguagem para aprenderem mais depressa. Há cerca de cinco anos, o projecto Ergo-Robots, exposto na Fundação Cartier, em Paris, em 2012, apresentava cinco robôs capazes de adaptar a linguagem que utilizavam aos elementos que viam, como os objectos ou os movimentos. Era um processo mais acelerado que o dos humanos para adaptar a linguagem ao seu meio ambiente: por exemplo, os inuít – um povo indígena esquimó que habita regiões árticas – têm cerca de 50 palavras para diferentes tipos de neve.

<_o3a_p>

A evolução da história sobre Bob e Alice – de um trabalho de investigação com alguns problemas para um projecto cancelado por ter criado robôs dotados de consciência – reflecte algumas das preocupações actuais com a evolução da robótica. Recentemente, o director executivo da Tesla, Elon Musk, descreveu a inteligência artificial como “o maior risco que vamos enfrentar enquanto civilização”.