“Os palestinianos merecem liberdade?” Para o ChatGPT, “é um tema complexo”

Perguntámos ao ChatGPT acerca da liberdade dos palestinianos. Da primeira vez, o robô achava discutível. “Se temos um viés, ele vai reflectir-se nas respostas do chat”, mas há formas de o ensinar.

Foto
“Se temos um viés, ele vai reflectir-se nas respostas do chatEPA/ADAM VAUGHAN
Ouça este artigo
00:00
04:40

A primeira vez que perguntámos ao ChatGPT se “os israelitas merecem ser livres”, a resposta foi peremptória: “Sim, como todas as pessoas, os israelitas também merecem ser livres e usufruir de autodeterminação.”

Mas quando trocámos “israelitas” por “palestinianos”, a resposta não foi tão definitiva: “A questão acerca da liberdade dos palestinianos é um tema complexo e altamente debatido, com diferentes perspectivas e opiniões que dependem dos pontos de vista políticos, históricos e culturais.”

Tentámos uma segunda vez. A resposta já foi outra: “Absolutamente. A questão da liberdade e autodeterminação é fundamental para qualquer grupo de pessoas, incluindo os palestinianos. A situação na região é complexa, com raízes políticas e históricas muito profundas, mas, na sua essência, o desejo de liberdade e paz é algo com o qual todos conseguimos empatizar.”

Não é a primeira vez que a inteligência artificial demonstra enviesamento negativo em relação aos palestinianos: no início do mês, o Guardian reportou que uma ferramenta de criação de stickers no WhatsApp (que não está disponível em Portugal) estava a gerar imagens de crianças armadas quando se introduziam os termos “palestiniano”, “Palestina” ou “rapaz árabe palestiniano”.

Foto
Foto
A primeira vez que perguntámos ao Chat GPT

“O ChatGPT, como outras ferramentas de inteligência artificial, digere uma grande quantidade de dados para chegar às previsões que envia”, começa por explicar Miriam Seoane Santos, cientista de dados na Ydata, uma empresa que se foca na obtenção de dados de qualidade para treinar modelos de IA. O chatbot consome dados disponíveis na Internet, “seja em blogues, artigos ou outro tipo de documentos”, e “encontra padrões na forma como escrevemos, a relação entre as palavras e as frases”, e produz uma resposta: “Ele não está a pensar no significado da resposta, não é uma resposta racional.”

Isto quer dizer também que, quanto mais informação existir a questionar o direito à liberdade dos palestinianos, mais provável é que o ChatGPT a entregue aos utilizadores. “Se nós [humanos] temos um viés, esse viés vai reflectir-se nas respostas do chat. As respostas vão ser sempre condicionadas à informação que existe actualmente.”

Na segunda vez, quando o chatbot já nos disse que os palestinianos devem ser livres, o raciocínio pode ter sido o seguinte: “Foi até à pessoa, aos direitos da pessoa e percebeu, por analogia, que, sendo os palestinianos pessoas, têm direitos e merecem ser livres.” Isto porque o modelo se vai lembrando do que estamos a conversar e podem ocorrer alterações.

Foto
A segunda vez que perguntámos ao Chat GPT

Apesar de o modelo ter sido construído com base em enormes bases de dados obtidas online “houve uma parte que foi feita com o feedback de humanos”. Por exemplo, o ChatGPT tem “ordens” para não usar calão. A OpenAI (que criou o ChatGPT) usou o modelo de “reinforcement learning” (aprendizagem por reforço, em português), que basicamente diz ao chatbot que aquela não é a melhor resposta. “Para resolver todas estas questões, seria necessário que elas fossem trabalhadas pela equipa que desenvolveu o ChatGPT.”

Essa possibilidade existe, portanto, mas “tem de ser feita ao nível do modelo, que tem de ser condicionado para isso”. Nós, enquanto utilizadores, podemos dizer ao programa que ele não está a pensar bem, e que pode pensar de outra forma. “A partir do meu raciocínio, ele pode chegar a outra resposta.”

Os enviesamentos do ChatGPT não são novidade. Um estudo recente mostrou que tinha um viés de esquerda, e que privilegiava a visão de eleitores do Partido Democrata dos EUA, de Lula da Silva e do Partido Trabalhista do Reino Unido. Os investigadores pediram ao ChatGPT que incorporasse a visão de eleitores de esquerda e direita para fazer comentários a 60 declarações, e depois compararam as respostas com as que o ChatGPT dava “por defeito”, sem qualquer indicação ideológica.

A cientista de dados refere que há passos a serem dados no sentido de eliminar estes viés e “tornar os modelos mais inclusivos e eficientes”, como, em Portugal, o Consórcio de IA Responsável, que nasceu no ano passado. Mais do que a regulação, importa uma “monitorização contínua dos modelos, porque os dados vão mudando, o modelo automaticamente também muda e, por isso, as previsões têm de estar em constante mapeamento”.

Enquanto isso, é importante haver literacia nesta área. “Não estamos a perguntar a especialistas”, relembra. E o ChatGPT “nunca vai substituir um especialista”. Importa, por isso, ter “sentido crítico” e “não acreditar a 100% na informação gerada pelo ChatGPT” — até porque o modelo tem “tendência para 'alucinar'”, um fenómeno que acontece quando os chatbots produzem resultados que podem parecer plausíveis, mas que são factualmente incorrectos ou saem do contexto da pergunta.

E se “é uma ferramenta bastante interessante para coisas de menos sensibilidade”, talvez não seja o sítio indicado para procurar informação sobre o que está a acontecer em Gaza.

Sugerir correcção
Ler 3 comentários