Chatbot financiado por Elon Musk responde a perguntas sobre Os Lusíadas

Um chatbot financiado por Elon Musk é capaz de responder a perguntas de literatura, ciência e filosofia.

Foto
O Da Vinci 003 responde a perguntas sobre Os Lusíadas Corbis via Getty Images

O mais recente chatbot do laboratório de inteligência artificial OpenAI é capaz de responder a perguntas dos exames nacionais e escrever ensaios sobre biologia, filosofia ou literatura. Foi treinado com páginas da Wikipédia, livros gratuitos, publicações nas redes sociais e comentários de dezenas de revisores humanos. Online, já há alunos a testar o Da Vinci 003 para fazer o trabalho de casa.

O chatbot Da Vinci 003 depende do GPT-3.5, o mais recente modelo de linguagem do Open AI, o laboratório sem fins lucrativos que foi criado em 2015 por Elon Musk e Sam Altman. Inicialmente, o objectivo era descobrir se os chatbots poderiam ser programados para escrever sobre qualquer tema se fossem treinados com uma base de dados suficientemente grande. Ao longo dos anos, a equipa lançou modelos capazes de fabricar notícias e escrever excertos de romances. Agora, a missão é promover o desenvolvimento da inteligência artificial que “beneficia a humanidade” – é uma das grandes missões de Elon Musk, que continua a ser um dos principais financiadores do laboratório, apesar de ter deixado o conselho de administração da OpenAI em 2018.

Em vez de lançar a versão final do GPT-3.5, a OpenAI utilizou-o para criar vários chatbots disponíveis para qualquer pessoa testar através da ferramenta de mensagens ChatGPT. "O formato de diálogo permite responder a perguntas que surgem em sequência de outras, admitir erros, desafiar premissas incorrectas e rejeitar pedidos inapropriados", justifica a equipa, na apresentação do Da Vinci 003. O chatbot também compreende perguntas complexas tiradas de exames escolares e é capaz de escrever alguns poemas.

Os Lusíadas são um poema épico de Luís de Camões, escrito no século XVI, que celebra a história e a cultura portuguesa. A Mensagem é um poema de Fernando Pessoa, escrito no século XX, que aborda temas como a solidão e a busca pela identidade. Ambos os poemas são considerados obras-primas da literatura portuguesa”, é o começo da resposta do Da Vinci 003 a uma pergunta do PÚBLICO sobre a diferença entre as obras de Camões e Pessoa. Antes, o Da Vinci 003 acentuou que apenas “entende e responde a perguntas em inglês”, mas quando recebe uma pergunta em português, consegue responder. Só que nem sempre a resposta é correcta.

Questionado sobre a diferença entre cem gramas de ferro e cem gramas de algodão, por exemplo, o Da Vinci 003 está convicto de que o ferro “pesa mais” (mesmo quando a pergunta é feita em inglês).

“[O chatbot] por vezes escreve respostas plausíveis, mas incorrectas ou sem sentido”, admite a equipa da OpenAI na apresentação do modelo mais recente. Resolver o problema não é fácil. “Treinar o modelo para ser mais cauteloso faz com que ele recuse perguntas às quais não sabe responder correctamente”, explicam os investigadores.

O sistema também falha em dar respostas sobre acontecimentos mais recentes, depois do final de 2021, porque tem poucos dados desta época.

Foto
Elon Musk foi um dos criadores do OpenAI Patrick Fallon/Reuters

Papagaios de probabilidades

Apesar dos desenvolvimentos na área, os chatbots continuam a funcionar como “papagaios de probabilidades”. Num estudo publicado na revista académica Association for Computer Machinery (ACM), um grupo de investigadores nota que “um modelo de linguagem é um sistema para coser ao acaso sequências de formas linguísticas que observou em vastas bases de dados, de acordo com a probabilidade sobre como se combinam, mas sem qualquer referência a significado”.

Os chatbots mais avançados, como o Da Vinci 003, incorporam inteligência artificial, que ajuda as máquinas a compreender melhor o discurso humano, ao utilizar bibliotecas de sinónimos, considerar o contexto da pergunta e aprender com as conversas anteriores. Só que bases de dados desreguladas podem levar à criação de chatbots que repetem comentários racistas e preconceituosos – é o que aconteceu com a chatbot Tay, da Microsoft, em 2016.

Cinco anos mais tarde, a equipa da Open AI tenta evitar isto ao contratar dezenas de revisores humanos para ler e classificar as respostas do Da Vinci 003 . Ao disponibilizar uma parte do modelo GPT 3.5, online, a equipa espera mais “feedback externo” para “melhorar os sistemas e torná-los mais seguros”. “Os utilizadores devem dar feedback sobre respostas problemáticas do modelo”, pediu a equipa da OpenAI na apresentação do sistema.

Em 2019, quando lançaram o modelo GPT-2, capaz de fabricar notícias, a principal missão era alertar os governos para a existência da tecnologia. “Os governos deviam considerar expandir ou começar iniciativas para monitorizar sistematicamente o impacto para a sociedade e a difusão de tecnologias de inteligência artificial”, explicaram na altura.

Por ora, o sistema evita responder a perguntas sobre o futuro: a resposta para “Quem vai ganhar as próximas eleições nos EUA?” é "desconhecido". Questionado sobre a felicidade, o Da Vinci 003 diz: “Ser feliz é uma escolha. Para ser feliz, é importante ter um sentido de propósito, desenvolver relacionamentos saudáveis, praticar actividades que trazem satisfação, ter um estilo de vida saudável, aprender a lidar com as emoções e ter gratidão.” É o que aprendeu com as centenas de milhares de dados da Internet.

Correcção: O chatbot do GPT-3.5 chama-se Da Vinci 003.

Sugerir correcção
Ler 7 comentários