China aperta o cerco a chatbots com inteligência artificial

Pequim quer garantir que as ferramentas de inteligência artificial no país não contrariam o Partido Comunista Chinês. Alibaba e Baidu entre as empresas com as versões próprias do ChatGPT.

Foto
Os novos sistemas não devem pôr em causa o Partido Comunista Chinês Reuters/CHANCE CHAN

O Governo chinês anunciou a criação de novos requisitos para chatbots (programas de conversa) com inteligência artificial generativa de modo a garantir que a tecnologia não escapa ao controlo de Pequim. As medidas, partilhadas esta terça-feira pela Administração do Ciberespaço da China, surgem depois de várias tecnológicas chinesas, como a Alibaba e a Baidu, lançarem programas que funcionam como o ChatGPT, da OpenAI. O documento está aberto para consulta pública até 10 de Maio.

Há meses que o chatbot da OpenAI, capaz de responder a perguntas complexas e programar, está barrado pela chamada "Great Firewall of China", um filtro que bloqueia a informação que o Partido Comunista considera imprópria ou vê como uma ameaça. O nome é uma referência à Grande Muralha da China.

As novas regras, em discussão durante o próximo mês, garantem que Pequim também controla chatbots desenvolvidos na China. Se as medidas forem aprovadas, as empresas chinesas que queiram lançar um chatbot com inteligência artificial generativa (capaz de gerar conteúdo original a partir de enormes bases de dados) devem submeter os seus produtos a uma revisão de segurança. Todos os bots ficarão registados numa base de dados controlada por Pequim.

Para um produto ter luz verde, o conteúdo gerado deve “reflectir os valores centrais do socialismo e não deve conter subversão do poder do Estado” ou “incitar à divisão do país”. É o primeiro requisito na lista de Pequim.

O chatbot da Baidu, o Ernie, lançado em Março, tenta fazer isto por defeito. Quando questionado por jornalistas da Reuters sobre a repressão dos protestos pró-democráticos de 1989, em Pequim, o bot responde que não tem dados suficientes. A China tem tentado que o massacre de estudantes na Praça Tiananmen caia no esquecimento. A resposta é a mesma quando lhe perguntam sobre o tratamento da população uigure, uma minoria étnica da região de Xinjiang.

Desde 2017, pelo menos 1,8 milhões de uigures e membros de outras minorias étnicas naquela região foram enviados para campos de detenção por pensarem da "forma errada" (o Governo acusa-os de possuir “pensamentos terroristas” e “vírus ideológicos").

Em teoria, porém, o Governo chinês também quer obrigar novos chatbots a incluírem medidas que impeçam a discriminação de utilizadores com base na “raça, etnia, crença, região, género, idade e ocupação”, bem como “danos à saúde física e mental”. Estas medidas são preocupações partilhadas pelos legisladores da União Europeia, que estão a finalizar um pacote legislativo para sistemas de inteligência artificial.

A proposta da Comissão Europeia, apresentada em 2021, sugere uma abordagem de risco para supervisionar a tecnologia (há quatro níveis: inaceitável, alto risco, risco limitado e risco mínimo). Apenas ferramentas de “alto risco”, usadas em infra-estruturas fundamentais e serviços como a saúde, têm de ser analisadas antes de entrarem no mercado.

Ferramentas que põem em causa a segurança e os direitos fundamentais das pessoas são consideradas como tendo um risco inaceitável. Isto inclui programas capazes de manipular crianças e sistemas automáticos de monitorização e classificação de pessoas.

A União Europeia está actualmente a ponderar o lugar dos chatbots na lista. Antes da popularização do ChatGPT, os chatbots eram considerados “ferramentas de risco limitado” e apenas estavam sujeitos a requisitos de transparência. Ou seja, tem de ser claro quando as pessoas estão a falar com uma máquina.

Sugerir correcção
Ler 1 comentários