4.0
Regular ou não regular, não é questão
Uma newsletter de João Pedro Pereira sobre inovação, tecnologia e o futuro.
Ocorreu um erro. Por favor volta a tentar.
Subscreveu a newsletter 4.0. Veja as outras newsletters que temos para si.
Eric Schmidt é uma voz poderosa no mundo da tecnologia. E as suas palavras foram desconcertantes.
Schmidt trabalhou uma década como CEO do Google, entre 2001 e 2011. Escreveu livros, apoiou as candidaturas de Barack Obama, é conferencista regular no circuito de conferências de elite, e investidor em startups. Na Administração Trump, presidiu a uma comissão para analisar o impacto da inteligência artificial na segurança nacional americana.
Numa entrevista recente à televisão americana NBC, para uma peça jornalística sobre inteligência artificial (são 11 interessantes minutos que o leitor poderá querer ver), afirmou:
"A minha preocupação com qualquer tipo de regulação prematura, especialmente feita pelo Governo, é que é sempre escrita de forma restritiva. O que eu preferia fazer é ter um acordo entre os actores-chave de que não vamos ter uma corrida até ao fundo. (...)
Preferia muito que as actuais empresas definissem limites razoáveis. (...)
Não há forma de uma pessoa de fora do sector perceber o que é possível. É demasiado novo, demasiado difícil, não há o conhecimento, não há ninguém no Governo que possa fazer as coisas certas. Mas o sector pode mais ou menos fazer as coisas certas. E depois o Governo pode pôr uma estrutura regulatória à volta."
São três as ideias de Schmidt que causam espanto: a de que a regulação é hoje prematura; a de que não há gente competente para regular; e a de que a auto-regulação não só é possível, como terá um resultado benéfico.
Em primeiro lugar, e apesar de todo o entusiasmo recente, as tecnologias de inteligência artificial não são exactamente um conceito novo. Numa perspectiva mais restrita e moderna, esta é uma área com sete décadas, remontando ao teste de Turing, às leis da robótica de Asimov e a um pequeno evento numa universidade americana em 1956, que viria a ganhar fama mais tarde.
Ora, vivemos numa época em que está em pleno curso o desenvolvimento de carros autónomos; em que se criam automatismos para fins clínicos, fiscais ou de apoio social; em que o ChatGPT é capaz de escrever milhões de textos com o estilo de qualquer autor vivo ou morto; e em que, segundo uma outra entrevista dada por Schmidt, este tipo de tecnologia pode ajudar a fazer ciberataques ou a criar mecanismos biológicos para matar milhões de pessoas – esta época não será a pior altura da História para pensar em regulação.
Em segundo lugar, surge o argumento da incompetência. Se fosse sério, poderia ser usado por muitos outros sectores regulados ("o sector financeiro é extraordinariamente complexo, não há ninguém de fora que verdadeiramente o consiga perceber"). Como em tantos outros sectores, os reguladores podem ir buscar competências às empresas e à academia. Só por exemplo, recentemente, um reconhecido pioneiro da inteligência artificial despediu-se da Google para poder livremente alertar para os riscos da tecnologia.
Em terceiro, Schmidt oferece a solução da auto-regulação. Aqui, temos dois exemplos de falhanços dolorosos: as redes sociais e as criptomoedas. A ideia de que empresas tecnológicas que vivem num feroz ambiente concorrencial vão chegar a um acordo para se auto-limitarem é ingénua, na hipótese mais benévola (e Schmidt não deve ter nada de ingénuo). Além disso, mesmo que chegassem a um acordo e que o honrassem, que regras estabeleceriam? Com base em que critérios e valores? Para beneficiar exactamente quem? E que custos são aceitáveis neste processo?
A União Europeia (que este século tem tido o papel de grande regulador tecnológico) avançou há dois anos com uma proposta de regulamento, com o qual pretende definir regras para os usos de inteligência artificial. Estabelece diferentes obrigações ou proibições para diferentes patamares de risco. Por exemplo, seria proibido usar estas tecnologias para um sistema de pontuação social dos cidadãos, semelhante ao que a China está a desenvolver. Já em 2021 Eric Schmidt tinha criticado as ideias do regulamento europeu.
Nos menos regulatórios EUA, o debate tem estado aceso, depois de o CEO da OpenAi, Sam Altman, ter ido ao Congresso dizer que a regulação é necessária. Altman tem por estes dias passado a imagem de um tecnólogo altruísta e responsável. Talvez seja. Por outro lado, é um dos principais investidores na Worldcoin, um projecto semi-obscuro que recolhe dados da íris dos utilizadores em troca de uma futura criptomoeda (em Setembro, a empresa disse ao PÚBLICO que tinha recolhido imagens da íris de 50 mil utilizadores em Portugal).
Por seu lado, a OpenAi estabeleceu para si própria uma missão grandiosa: "Assegurar que a inteligência artificial geral beneficia toda a Humanidade". (Ao pé disto, a velhinha missão do Google de "Organizar toda a informação do mundo" parece um passatempo.) Este até pode ser um mote bem-intencionado. O problema é que a definição daquilo que é benéfico e de quais são os caminhos para lá chegar fracturam a Humanidade há milénios.
As democracias podem não ser um sistema perfeito, mas, no que toca a decidir o que são os benefícios colectivos, são o melhor que conhecemos. Seguramente melhores do que uma mão-cheia de ultra-milionários em Silicon Valley.