A nova lei da IA é uma peça de puzzle com a mesma lógica dos dispositivos médicos

Respeitar a nova lei da inteligência artificial implica harmonizar múltiplos regimes, certificações rigorosas, mas nem tudo está sujeito às regras. Confiança é a peça universal deste puzzle.

Ouça este artigo
00:00
06:07

A nova legislação da União Europeia sobre a inteligência artificial (AI Act) foi aprovada e a Europa é a primeira região do mundo a adotar um regulamento comunitário sobre a inteligência artificial (IA), contando com coimas até 35 milhões de euros ou (de 7%) do volume de negócios para os casos de violações do regime.

Antes já existiam referenciais de boas práticas sobre a matéria, sem força de lei, como os da Organização para a Cooperação e Desenvolvimento Económico (OCDE) e os da Organização Internacional de Normalização (ISO). Apesar de continuarem válidos naquilo que não contrariar a nova legislação, agora as regras sobre a IA foram consolidadas de forma obrigatória na União Europeia.

Apesar de ser uma legislação regional, o seu impacto é significativo a nível mundial para as empresas que desenvolvem ou utilizam IA, considerando o “efeito Bruxelas”, que é influência da legislação da União Europeia nos países terceiros com interesse no mercado único digital europeu.

É exemplo deste efeito nas Américas o Regulamento Geral da Proteção de Dados (RGPD), que influenciou a Lei Geral da Proteção de Dados no Brasil (LGPD) e o Privacy Framework nos Estados Unidos.

Não é abusurdo dizer que esse efeito, no caso da IA, será muito maior, considerando a sua influência em múltiplas áreas socioeconómicas transversais a nível global, importantes e sensíveis. São exemplo as áreas de infraestruturas públicas essenciais (água, gás e fornecimento de eletricidade), o acesso à edução e avaliação, o recrutamento e emprego, a migração e o controlo de fronteiras e a aplicação da lei, gestão em saúde e prática clínica, processos democráticos (eleições), controlo da opinião pública e o setor de seguros e banca.

Para já, importa saber que o rigor aplicável no controlo da utilização da tecnologia vai variar consoante o seu potencial e a sua finalidade, numa lógica baseada em riscos. Como tal, os criadores de sistemas com IA estão obviamente sujeitos a elevado número de obrigações, especialmente os fornecedores de sistemas de IA. Entretanto, a maioria das organizações actuará como implementador de sistemas de IA.

A legislação assenta no risco, o que significa que alguns sistemas e finalidades serão proibidos, enquanto outros serão designados de alto risco e sujeitos a obrigações mais rigorosas para os fornecedores de sistemas de IA, que devem ser os mais preocupados neste momento com o cumprimento da legislação.

Devem-se preocupar aquelas entidades que desenvolvem ou adquirem um sistema de IA com o objetivo de o colocar no mercado ou colocá-lo a serviço sob seu próprio nome ou marca registada. Na prática, o que se deve cuidar é de produzir documentação técnica que demonstre a precisão, robustez, cibersegurança, transparência, supervisão humana, monitorização pós-mercado e o registo como forncedeores no banco de dados da União Europeia.

A nova lei não reinventou a roda, uma vez que funciona com uma lógica semelhante com a realidade dos dispositivos médicos. É que, nos casos de sistemas de alto risco, eles devem-se sujeitar à marcação CE e realizar avaliações do seu impacto. Isso significa submeter a tecnologia a um procedimento de avaliação de conformidade antes da colocação no mercado.

Uma vez aprovado, será aposta a marcação CE para dar asas à solução no mercado. Sem a marcação, o voo está condenado à queda.

Outros operadores (incluindo implementadores, distribuidores e importadores) também estão sujeitos a obrigações menores. Entretanto, chama-se atenção para o facto de que, ainda que não desenhem a tecnologia, os operadores também podem tornar-se fornecedores perante a lei em algumas circunstâncias, como quando modificarem um sistema de alto risco e quando comprarem um sistema de IA colocando-o no mercado com a sua própria marca.

Somando a isso, não se deve esquecer que a legislação da IA é a principal coluna que liga várias peças de um puzzle, mas não é a única. Isso porque obriga a conjugar medidas que respeitem múltiplos regimes, como a proteção de dados, a privacidade nas comunicações eletrónicas, os direitos de propriedade intelectual, as regras de responsabilidade civil e de ética nas várias áreas, pelo que não se deve olhar para apenas para a lei europeia da IA, mas para a legislação conexa.

Entretanto, antes de haver um colapso nervoso pela complexidade da nova legislação, deve-se refletir que nem todos os sistemas serão classificados como IA e podem não estar sujeitos às mesmas regras.

A definição de sistema de IA é: “Um sistema baseado em máquina desenhado para operar com diferentes níveis de autonomia e que pode ser adaptavel após a implementação e que, para objetivos explícitos ou implícitos, infere, a partir das entradas recebidas, como gerar saídas como previsões, conteúdo, recomendações ou decisões que podem influenciar ambientes físicos ou virtuais.”

Exemplos: sistemas de vigilância com reconhecimento facial, ChatGPT. Portanto, tudo o que não estiver enquadrado neste conceito, não estará sujeito à lei da IA.

Tudo vai depender do modelo de negócio, das finalidades e do potencial da tecnologia. Quanto mais eficiente, mais sensível.

A norma entra em vigor após dois anos de implementação pelas entidades. Durante este período, o puzzle será composto por mais peças. Estende-se várias outras legislações associadas e de apoio, orientações e normas conexas para auxiliar na conformidade com a legislação principal.

Atenção: este cronograma de dois anos está sujeito a exceções. As proibições de alguns sistemas de IA entrarão em vigor após seis meses, enquanto os requisitos para a IA para finalidades gerais serão aplicados após 12 meses.

Por ser um tema de elevado interesse económico, respeitar a legislação é uma condição inevitável e as entidades já começam a trabalhar para montar o seu puzzle com as peças certas. Agora é o momento de encaixar as primeiras peças para que as atividades não sejam postas em causa, como aconteceu com a WorldCoin.

A propósito de saber quem pode interromper as atividades de quem não estiver em conformidade, a Autoridade Europeia de Proteção de Dados passa a ser responsável pelo controlo da utilização da IA a nível comunitário. Sendo uma resposta para o futuro próximo, será o homólogo nacional, a Comissão Nacional da Proteção de Dados, a autoridade de controlo em Portugal?

As entidades com atividade na UE, mais do que se preocuparem com a probabilidade de uma coima, devem olhar para as vantagens de que o cumprimento da lei poderá colocá-las na frente da corrida global contra Pequim e a Califórnia.

O autor escreve segundo o novo acordo ortográfico

Sugerir correcção
Ler 4 comentários