Criadores do ChatGPT comparam inteligência artificial a energia nuclear e voltam a pedir regulação

Tem de existir o equivalente à Agência Internacional de Energia Atómica para inspeccionar novos sistemas de inteligência artificial, pedem os co-fundadores da OpenAI.

Foto
Sam Altman na subcomissão do Senado dos EUA que trata temas de tecnologia Win McNamee/Getty Images
Ouça este artigo
--:--
--:--

Os criadores do ChatGPT, a ferramenta que popularizou os novos programas de inteligência artificial (IA), voltaram a apelar à regulação do sector. Numa breve carta publicada online esta semana, os co-fundadores da OpenAI comparam os novos sistemas de inteligência artificial generativa (capazes de escrever, dialogar e programar como humanos) a inovações como a energia nuclear e apelaram à criação de uma instituição equivalente à Agência Internacional de Energia Atómica (AEIA) para monitorizar o sector e realizar auditorias.

Tendo em conta o panorama actual, é concebível que, nos próximos dez anos, os sistemas de IA ultrapassem o nível de competências dos especialistas na maioria dos domínios”, lê-se na carta assinada por Sam Altman, Greg Brockman e Ilya Sutskever. “Podemos ter um futuro dramaticamente mais próspero; mas temos de gerir o risco para lá chegar", alertam. "Não podemos ser apenas reactivos."

A mensagem ecoa as palavras do presidente executivo da OpenAI, Sam Altman, na passada terça-feira, quando notou que “a regulação da inteligência artificial é essencial", numa sessão com uma subcomissão do Senado dos Estados Unidos, sobre o futuro da tecnologia.

Os repetidos pedidos da OpenAI chegam numa altura em que reguladores de todo o mundo debatem regras para a inteligência artificial. Na mais recente cimeira do G7, os líderes das sete economias mais ricas do mundo discutiram o tema da inteligência artificial, concordando que é preciso fazer alguma coisa em relação aos potenciais riscos da tecnologia que pode ser usada para promover a difusão de informação falsa e desencadear ciberataques.

Há anos que os legisladores europeus estão a tentar definir uma abordagem de risco, com diferentes regras consoante o risco societal que as ferramentas de inteligência artificial representam.

Pedidos vagos

Apesar dos repetidos apelos para regulação, tanto legisladores como gigantes tecnológicas não avançam com propostas específicas. Um dos grandes desafios é conseguir regular de forma a evitar os riscos da tecnologia, sem travar a inovação. “Não é fácil definir regras nesta área”, explicou, há umas semanas, a eurodeputada Maria Manuel Leitão Marques em conversa com o PÚBLICO. “Sabemos que não podemos ser proteccionistas. A inteligência artificial tem riscos, mas também está a permitir uma enorme evolução científica em várias áreas.” Por exemplo, no tratamento de doenças.

Na carta aberta mais recente, a própria equipa da OpenAI nota que é importante permitir que empresas e projectos de investigação continuem a desenvolver modelos de inteligência artificial até um “determinado limiar de capacidades”. O limiar fica, no entanto, por definir.

Com o aumento da incerteza em torno da tecnologia, no final de Março, um grupo de especialistas, incluindo o co-fundador da Apple, Steve Wozniak, e Elon Musk, apelaram a uma pausa no desenvolvimento da inteligência artificial.

É uma abordagem que o trio da OpenAI não defende. “Acreditamos [que as novas ferramentas de IA] vão conduzir a um mundo melhor”, lê-se no final da carta. “O mundo enfrenta muitos problemas para os quais vamos precisar de muito mais ajuda para resolver; esta tecnologia pode melhorar as nossas sociedades e a capacidade criativa de todos.”

Tentar travar a ferramenta obrigaria a um “regime de vigilância global”, defendem os co-fundadores do ChatGPT. A regulação, notam, é o melhor caminho: “Agora é a altura de começar a pensar na regulação da superinteligência”, salienta a equipa.

Sugerir correcção
Ler 4 comentários