Se não consegues desenvolver, pelo menos regula. Podia ser o mote da União Europeia para as últimas vagas de tecnologias de informação – e não vale a pena fingir que não está a ser assim com a inteligência artificial. 

Na sexta-feira, os legisladores da União chegaram finalmente a acordo para um pacote legislativo destinado a regular o uso de tecnologias de inteligência artificial. 

Foram, descreve a imprensa internacional, três dias intensos. Tão intensos quanto pode ser a actividade de esmiuçar detalhes técnicos e legais para satisfazer 27 países em relação a uma tecnologia cujo futuro é nebuloso. Houve uma sessão negocial de 22 horas consecutivas e, nas palavras da Economist, "uma extraordinária tolerância por comida má". Vieram a público fotografias de restos de sanduíches e de outra fast food

A abordagem escolhida há muito foi a de criar patamares de risco consoante o tipo de uso. Sistemas inteligentes de auxílio à escrita ou automatismos para filtrar emails? Poucas ou nenhumas exigências. Tecnologia de reconhecimento facial a ser usada pelas autoridades? Só em casos especiais. Programas de reputação social, como na China? Aplicações que monitorizam as emoções de trabalhadores nas empresas? Sistemas destinados a manipular o comportamento de pessoas? Todos banidos. Uso de armas inteligentes pelos militares? Demasiado complicado e delicado, não nos metemos nisso. 

Também há regras para os sistemas de inteligência artificial geral, aqueles que não se destinam a uma finalidade específica, mas que têm inteligência para funcionar em diferentes situações, à semelhança do que acontece com o cérebro (humano e não só). Há quem considere estes sistemas o Santo Graal da inteligência artificial. O objectivo da famosa OpenAI é, pelo menos em teoria, chegar aqui.

A regulação chega com uma antecipação invulgar por comparação com outros casos nas tecnologias de informação. O processo começou com uma reflexão sobre o tema logo em 2018. A Comissão Europeia fez a primeira proposta em Abril de 2021. Neste momento, ainda há detalhes a limar, mas o final desta fase está bem à vista. A próxima etapa será determinante. 

À ratificação final segue-se um prazo de dois anos para que os Estados-membros transponham as regras para as leis nacionais, algo que nem sempre é um processo linear ou sequer feito dentro do limite de tempo (Portugal vai falhar este ano a transposição do IRC mínimo sobre os lucros das grandes multinacionais). Mais do que isso: em dois anos, tecnologias como o ChatGPT darão saltos gigantescos. 

O objectivo da UE é o de evitar barreiras que impeçam a tecnologia de ser desenvolvida, ao mesmo tempo que é garantida a existência de regras quando é aplicada, e consoante o contexto em que é aplicada. É argumentável que é este o objectivo de toda a regulação de novas tecnologias; e que esta talvez seja uma visão optimista. 

No final das negociações, o comissário europeu Thierry Breton escreveu no X: "Histórico! A UE torna-se o primeiro continente a definir regras claras para o uso de IA. O #IAAct [nome pelo qual a legislação é conhecida] é muito mais do que um livro de regras é uma plataforma de lançamento para startups e investigadores da UE liderarem a corrida global da IA."

É uma afirmação estranha. E não porque a UE não é exactamente um continente e, em todo o caso, seria sempre o primeiro "continente" a legislar porque é também o único a legislar em bloco. Mas demos a Breton o benefício do entusiasmo e da metonímia. O que é estranho é dizer que a União Europeia tem hipóteses de liderar a corrida da IA. É algo em que ninguém acredita, a começar pelos cáusticos seguidores de Breton no X.

Grupos de lobby do sector tecnológico já vieram dizer que os moldes da regulação vão deixar a UE para trás (claro, diriam sempre algo deste género). Afirmam que as regras vão levar a que sejam contratados advogados e não engenheiros, e que as normas vão sugar recursos que seriam gastos a fazer avançar a tecnologia.

Sam Altman, o líder da OpenAI, também disse há alguns meses que as regras poderiam fazer com que a empresa deixasse de operar na Europa. Mas lobby é lobby. E Altman também disse uma vez que iria trabalhar para a Microsoft. 

A verdade é que a UE não liderou nenhuma vaga das tecnologias digitais, nem esteve perto disso, nem mesmo depois de a Web ter nascido num laboratório no meio da Europa.

Uma das razões para isso talvez seja a necessidade de um capitalismo feroz ao estilo de Silicon Valley, ou de um capitalismo de estado ao estilo da China, para fazer nascer e crescer empresas como a Google ou a Alibaba. Há excepções. A DeepMind, uma das mais relevantes empresas de IA do mundo, é britânica (e nasceu quando o Reino Unido era parte da União). Mas acabou comprada pela Google há quase uma década. É sintomático que o modesto (por comparação) Spotify seja hoje uma espécie de jóia da coroa tecnológica europeia.

A UE, porém, é um poderoso regulador global, cujas leis têm consequências bem para lá das suas próprias fronteiras.

Por um lado, o mercado europeu é demasiado grande para ser ignorado (como Sam Altman disse que poderia fazer), o que significa que as multinacionais acabam por se adaptar para estar em conformidade com as leis europeias. E estas práticas estendem-se com frequência ao que fazem noutros mercados. Por outro lado, as leis europeias às vezes servem de exemplo para outras geografias. 

O feito "histórico" da UE é importante (o epíteto, aliás, também foi usado pela presidente da Comissão). Os impactos da inteligência artificial precisam de ser canalizados para as finalidades certas. A União tem até um "Pacto de IA", um conjunto de regras a que as empresas podem aderir e que, na prática, significa uma espécie de compromisso voluntário com alguns aspectos da legislação antes de esta entrar em vigor. É uma forma de não deixar a tecnologia em roda livre nos dois anos que se seguem. 

Dizer que este processo vai beneficiar as startups na Europa é tirar-lhe brilho. Goste-se ou não, a UE já tem um lugar na corrida da IA. É o árbitro.