O cão, o lobo e a inteligência artificial

Com pequenos passos, começamos nas instituições europeias a trilhar um caminho conjunto para uma estratégia política clara para os dados e inteligência artificial, focada no ser humano e nos benefícios para as pessoas e para as empresas.

Como podemos distinguir um cão de um lobo? Perguntaram isso a um algoritmo, e até parecia uma pergunta fácil. Contudo, o algoritmo tinha aprendido a diferenciar os dois animais apenas através do seu ambiente. Assim, as imagens que tinham relva eram classificadas como cães, e as que tinham neve como lobos.

Este exemplo pode parecer inofensivo, mas baseia-se nos mesmos mecanismos de aprendizagem que estão implementados nas plataformas digitais que tomam decisões de forma automatizada. São eles que nos recomendam certos produtos ou serviços (por exemplo, que viaje para ali e não para acolá), tornam mais visíveis uns enquanto ocultam outros, ou que tomam decisões em matéria de seguros ou concessão de créditos baseadas em perfis de risco.

Estes mecanismos também podem ser usados com enormes benefícios coletivos e individuais, incluindo para melhorar os serviços públicos, na saúde, no ambiente, na proteção dos consumidores. Por exemplo, poderá ser possível, em breve, verificar se o sinal que a preocupa tem ou não probabilidade de ser um melanoma, usando apenas a câmara do seu telemóvel.

Para que tal aconteça, temos também de tomar algumas cautelas em matéria de ética, regulação e governação. Quem nos garante que as decisões automatizadas são tomadas com base em dados não enviesados ou discriminatórios? Como podemos verificar que foi isso mesmo que aconteceu? Como proteger os dados, e ao mesmo tempo aproveitar o seu valor para a inovação tanto no setor público como no privado?

Este é um tema em que tenho trabalhado no Parlamento Europeu. Esta semana vi o primeiro resultado. Foi aprovada uma Resolução sobre processos automatizados de decisão, fruto de um alargado consenso entre os diferentes grupos políticos.

Nesta Resolução, pedimos ao Conselho e à Comissão Europeia respostas para um conjunto de preocupações sobre “decisões automatizadas”. Por exemplo, que seja claro para os europeus se estão a contactar com um assistente humano ou virtual (um chatbot), quando ligam para uma linha de atendimento. Destacamos igualmente a necessidade de usar dados com qualidade e algoritmos explicáveis, de forma a minimizar o risco de enviesamento, por exemplo dados em que as mulheres estão sub-representadas. Incitamos a Comissão a rever as suas diretivas sobre a segurança dos produtos, bem como mecanismos de responsabilização no caso de estes serem defeituosos. Quem é o responsável quando a decisão é automatizada? Quem recolheu os dados, quem desenhou o algoritmo ou quem atualizou o software?

Por fim, preocupa-nos o bom funcionamento do mercado interno europeu, e por isso pedimos que se assegure que a tecnologia não serve para bloquear o acesso a conteúdos com base na localização geográfica ou nacionalidade do consumidor. Por exemplo, quando subscrevo a Netflix em Portugal devo poder ver os mesmos conteúdos em qualquer país da UE.

Com pequenos passos, começamos nas instituições europeias a trilhar um caminho conjunto para uma estratégia política clara para os dados e inteligência artificial, focada no ser humano e nos benefícios para as pessoas e para as empresas. É preciso também democratizar o conhecimento, de modo a que estas novas tecnologias sejam percebidas não apenas pelos especialistas, mas por todos os cidadãos.

Na hora do passeio na floresta, convém que confiemos no sistema que de forma automática nos avisa: não se preocupe, é um cão e não um lobo que se está a aproximar.

A autora escreve segundo o novo acordo ortográfico

Sugerir correcção
Ler 2 comentários