Reconhecimento facial tem de ser regulado, alertam especialistas

Relatório escrito por investigadores do Google e da Microsoft temem que a tecnologia se torne numa ferramenta para controlo da população.

Foto
A tecnologia está espalhada por telemóveis, computadores e outros aparelhos Lucas Jackson/Reuters

Usar a cara para desbloquear o telemóvel e o portátil, ou até para pagar o almoço, é muito conveniente. A opção elimina a necessidade de memorizar palavras-passe ou de ter sempre a carteira atrás, mas pode transformar-se um risco de segurança global. O alerta vem no relatório anual do AI Now Institute, um centro de investigação em Nova Iorque, nos EUA, que se dedica a estudar os impactos da inteligência artificial na sociedade.

Há cada vez mais fabricantes a incluir a tecnologia de identificação facial nos seus produtos, sobretudo desde que em 2017 a Apple mostrou que era possível usá-la para pôr telemóveis a reconhecer o utilizador. A tecnológica chinesa Alibaba, por exemplo, começou a testar tecnologia para “pagar com o sorriso” em alguns quiosques de venda automáticos da cadeia de restauração KFC.

“As comunidades deviam ter o direito de recusar o uso destas tecnologias em contextos públicos e privados”, lê-se no relatório publicado esta semana. Os autores, que incluem membros das equipas de investigação do Google e da Microsoft, temem que a tecnologia se torne numa ferramentas para os poderosos – sejam governos ou gigantes tecnológicos – controlarem as populações.

Uma das sugestões dos investigadores é a criação de limites para o uso do reconhecimento facial em áreas como a saúde, educação e justiça, enquanto não há mais dados sobre o impacto da tecnologia. “A tecnologia tem perigos ao reforçar práticas de discriminação nas áreas da justiça criminal, educação e emprego”, afirmam.

A identificação facial baseia-se em sistemas biométricos de inteligência artificial que identificam uma pessoa ao analisar a sua expressão facial e compará-la à informação de enormes bases de dados. Pode ser usada para fins de autenticação, em que o sistema compara duas imagens para autorizar alguém a usar um serviço, ou identificação, em que a imagem de alguém é usada para associar uma identidade (por exemplo, nome, morada, e idade) a uma cara.

Na Internet, a tecnologia já é comum. O Facebook, por exemplo, permite aos utilizadores usar a tecnologia para que a rede social os identifique automaticamente em fotografias que são publicadas com a sua cara no site. No limite, porém, pode ser usada para videovigilância: alguns polícias chineses já andam equipados com óculos de realidade aumentada, que lhes permitem identificar as pessoas com quem se cruzam e fazer várias detenções.

Não é só na China que acontece. Desde 2016 que a Amazon disponibiliza, nos EUA, serviços de reconhecimento facial para gerir a entrada em grandes eventos. Em Maio deste ano, a empresa foi criticada por vender a tecnologia à polícia norte-americana nos estados da Florida e do Oregon. A Amazon defendeu-se argumentando que o sistema permitia encontrar pessoas desaparecidas.

Segundo o relatório do AI Now Institute, o problema é que “a implementação destes sistemas de inteligência artificial está a expandir-se rapidamente sem regras, monitorização ou sistemas de responsabilização adequados.” Parte do problema são as áreas do reconhecimento facial – ainda em fase de investigação – que alegam ser possível detectar elementos como personalidade, sentimentos e saúde mental a partir das expressões faciais de alguém. “Não há estudos científicos robustos a comprovar”, escrevem os autores. “Usar [a tecnologia] para sistemas de contratação, seguros de saúde, educação, e justiça traz enormes preocupações a nível individual e mesmo social.”

Kate Crawford, uma das fundadoras do instituto, insiste que está na altura de regular. "A questão já não é se há problemas e casos de viés nos sistemas de inteligência artificial. Esse debate já acabou: os dados sobre isso atingiram um pico ao longo do último ano", lê-se nas conclusões do relatório.

Sugerir correcção
Comentar