Nem sempre a História se repete. Neste caso, ainda bem.

No que toca às tecnologias de informação, passámos as últimas duas décadas a olhar para o leite derramado e a pensar em formas de o voltar a meter no pacote. Como regressar ao tempo em que o discurso de ódio não era o denominador comum das plataformas online? Como fazer com que as crianças voltem a passar apenas um número razoável de horas em frente aos ecrãs que se tornaram omnipresentes? Como levar os adolescentes a voltarem a ter uma auto-imagem desligada daquilo que é reflectido em posts nas redes sociais? Como fazer para termos novamente um modelo de negócio que funcione para sectores como a música (entretanto, razoavelmente resolvido) ou a imprensa (menos resolvido)? Como é que se dá dignidade laboral aos novos estafetas, prestadores de serviços precários em plataformas multinacionais? 

A inovação tende a ser inesperada, e a adopção de tecnologias transformadoras tem sido, no século XXI, extraordinariamente rápida. A legislação e a regulação foram ultrapassadas e demoraram a recuperar terreno. 

Mesmo no caso da Uber e afins, talvez o que de forma mais gritante chocou de frente com leis existentes, foram precisos anos até que surgissem regras específicas. Foram anos durante os quais as empresas existiram naquilo que era, na mais benévola das versões, uma zona cinzenta; ou, numa versão mais crítica, uma completa, mas semi-tolerada, ilegalidade.

Dado este historial, é digno de nota que tanto a União Europeia como os EUA estejam a dar passos para regular a inteligência artificial. Olhemos para o que está em curso em cada um dos lados do Atlântico.

Deste lado, a Comissão Europeia propôs em 2021 novas regras, que têm estado desde então a seguir o intrincado percurso legislativo da UE, com o objectivo de chegar àquilo que é descrito como "a primeira lei abrangente do mundo" sobre inteligência artificial. Já há muito que a UE assumiu um papel mais de regulador e do que de inovador; só é bom que o faça atempadamente. O Parlamento Europeu aprovou em Junho a sua posição final e a conclusão do processo pode acontecer até ao fim do ano.

Na base da lei está a divisão dos sistemas de inteligência artificial em níveis de risco, que serão regulados de forma mais ou menos apertada. Parte da discussão assentou em determinar em que nível se encaixavam determinados sistemas ou usos.

O nível mais elevado é o de "risco inaceitável", no qual a IA não será permitida. Por exemplo, um dos casos neste patamar é a pontuação social (já testada na China), que classifica as pessoas consoante uma série de variáveis e, eventualmente, associa essa classificação a benefícios ou punições na relação do indivíduo com o Estado. Outros casos são o reconhecimento facial (com excepções) e o recurso à tecnologia para "manipulação cognitivo-comportamental de pessoas ou grupos vulneráveis": brinquedos que induzam comportamento perigoso em crianças, exemplifica o Parlamento Europeu. Os eurodeputados também colocaram neste patamar os sistemas de inteligência artificial usados para influenciar eleitores. No "risco mínimo" estão automatismos simples, como os filtros de spam

De fora ficam os usos militares que, logo de um ponto de vista moral, são um problema particularmente espinhoso.

A União Europeia é um mercado que não pode ser ignorado pelas empresas tecnológicas, razão pela qual aquilo que acontece por cá é incontornável para as grandes multinacionais. Além disso, neste domingo, na cimeira do G20, a presidente da Comissão propôs um painel internacional para a inteligência artificial, semelhante ao que foi criado há 35 anos para as alterações climáticas.

Porém, é nos EUA que estão os protagonistas e são os EUA o grande centro de tecnologias de inteligência artificial. Por lá, avizinha-se uma semana interessante.

Haverá outros momentos, mas o grande dia é quarta-feira, quando os senadores quase conseguem fazer bingo no cartão dos grandes nomes da tecnologia, com um fórum de discussão que incluirá, entre outros, Bill Gates, Elon Musk (que tem conhecidas angústias existenciais sobre os riscos da inteligência artificial), Mark Zuckerberg, Satya Nadella (o CEO da Microsoft), Sundar Pichai (Alphabet) e Sam Altman (co-fundador da OpenAI, a empresa criadora do ChatGPT).

É certo que, nos EUA, o esforço regulatório está muito distante do que acontece na União Europeia. Mas a quantidade de olhos postos na tecnologia, numa altura em que uma parte significativa das consequências profundas ainda está algures no futuro, é uma novidade. E é algo que também é verdade fora dos corredores legislativos: basta ver a quantidade de palestras e debates organizados pela sociedade civil.

Podemos agradecer a cautela de hoje à displicência do passado e às suas consequências  e a termos aprendido uma lição.