Líder da OpenAI admite que IA pode ser usada para manipular eleições

O CEO da OpenAI, a empresas por detrás do ChatGPT, depôs no Senado norte-americano sobre riscos associados a novas formas de inteligência artificial.

Foto
Sam Altman foi convidado a falar sobre os riscos e cuidados a ter com novas tecnologias de IA generativas EPA/JIM LO SCALZO

O presidente executivo da OpenAI, a empresa por detrás do ChatGPT, admitiu que os novos modelos de inteligência artificial (IA) podem ser usados para manipular o resultado de eleições e defendeu a criação de uma agência para licenciar o uso da tecnologia e recompensar empresas com boas práticas de IA.

As ideias foram partilhadas num depoimento, esta terça-feira, no Senado dos Estados Unidos, em Washington, onde Sam Altman foi chamado a falar sobre os riscos associados a novas ferramentas de inteligência artificial, como o ChatGPT, que propõem formular respostas a perguntas como um ser humano.

"A regulação da inteligência artificial é essencial", frisou Sam Altman no começo da sessão com uma subcomissão do Senado que trata temas de privacidade, tecnologia e direito. "Precisamos de regras, directrizes, sobre o que se espera em termos de divulgação de uma empresa que fornece um modelo", clarificou o chefe da OpenAI. A origem dos dados usados para treinar a tecnologia é um dos grandes factores a considerar, disse.

Paralelamente, a Casa Branca convocou os principais directores executivos de tecnologia para abordar esta problemática. A missão é ajudar os legisladores dos EUA a estabelecer medidas que promovam os benefícios da tecnologia e que salvaguardem a segurança nacional.

Nos últimos meses, grandes e pequenas empresas de tecnologia têm-se apressado a colocar no mercado produtos com IA generativa. A expressão tornou-se sinónimo de ferramentas capazes de produzir conteúdo original (como imagens, texto ou código informático) a partir de enormes bases de dados. Frequentemente, estas ferramentas também são apresentadas como chatbots por serem utilizadas em contexto de conversa – não é preciso saber programar para as utilizar.

Alguns críticos temem que a tecnologia gere problemas como a proliferação da desinformação e de discurso de ódio online."Não há forma de voltar a colocar este génio na lâmpada. Globalmente, isto está a explodir", disse o senador democrata Cory Booker, um dos muitos legisladores com dúvidas sobre a melhor forma de regular a IA.

Incentivos para IA responsável

Enquanto a União Europeia pondera legislação sobre a inteligência artificial, nos EUA a manutenção da competitividade nacional é a prioridade dos legisladores. O foco é incentivar as empresas a seguir um conjunto de boas práticas de desenvolvimento de inteligência artificial.

Altman propôs a criação de requisitos de licenciamento e testes para empresas que querem desenvolver grandes modelos de IA. O executivo da OpenAI, que é apoiada pela Microsoft, também apelou à cooperação global no debate e sugeriu a criação de incentivos para o desenvolvimento de sistemas que respeitem directrizes de segurança. A atribuição de licenças e incentivos deve ficar a cargo de uma nova agência governamental.

Quanto a regras específicas, o presidente da OpenAI defende que dados disponíveis na Internet (por exemplo, em páginas públicas das redes sociais) devem poder ser usados para treinar ferramentas de inteligência artificial. No entanto, admite que uma empresa ou organização deve ter o direito de impedir que os seus dados sejam usados para treinar sistemas de IA generativa.

Sugerir correcção
Comentar