Investigadores nos EUA criam algoritmo para deduzir orientação sexual

O trabalho está a ser alvo de críticas de várias associações da comunidade LGBT. Investigadores da Universidade de Stanford queriam alertar para os perigos que a tecnologia de reconhecimento facial representa para a privacidade.

Foto
O estudo tem limitações: apenas considera pessoas brancas que se identificam como homossexuais ou heterossexuais Reuters/LUCY NICHOLSON

Para exemplificar o potencial e perigo da inteligência artificial para a privacidade, um grupo de investigadores nos Estados Unidos utilizou redes neuronais artificiais para identificar a orientação sexual dos utilizadores de um site de encontros. O sistema respondeu correctamente entre 74% a 91% das vezes, numa base de dados de mais de 35 mil fotografias. Porém, os investigadores apenas consideraram pessoas brancas que se identificam como homossexuais ou heterossexuais.

O trabalho está a gerar polémica por expor uma população vulnerável e contestar o ideal de que não se pode julgar alguém pela aparência, com várias organizações LGBT a criticar o relatório e a questionar a factualidade dos resultados por não ser usada uma amostra diversa da sociedade. Porém, o objectivo do trabalho dos investigadores da Universidade de Stanford –que vai ser publicado na revista científica Journal of Personality and Social Psychology –, é chamar atenção para os problemas éticos da tecnologia de reconhecimento facial. Por exemplo, a capacidade de violar a privacidade das pessoas, e perseguir indivíduos que se identifiquem como LGBT. 

“As imagens das caras de milhares de milhões de pessoas estão disponíveis em arquivos digitais ou tradicionais, desde sites de encontros, a sites de partilha de fotografias ou bases de dados de governos”, explica o autor principal Michal Kosinski, nas suas notas sobre o trabalho (que são actualizadas consoante recebe mais perguntas de jornalistas e leitores). “As fotografias das redes sociais Facebook, Linkedin e Google Plus também são públicas [a não ser que o utilizador altere as definições]”.

As redes neuronais artificiais simulam uma parte do cérebro humano ao copiar redes de neurónios interconectados capazes de reconhecer padrões em imagens digitais, som ou texto para fazer previsões. “A capacidade superior destas redes permite identificar conecções em características faciais que podem ser ignoradas ou mal interpretadas pelo cérebro humano. Testámos a hipótese com uma característica especifica: a orientação sexual”, explicam os investigadores no relatório.

Para chegar aos resultados, a equipa reuniu cerca de 300 mil fotografias de 74 mil pessoas registadas num site de encontros americano com perfis públicos. Foram utilizadas técnicas de reconhecimento facial para filtrar as fotografias que se focassem na cara das pessoas, com boa qualidade, levando a uma base de dados de 35 mil fotografias de 14 mil pessoas.

Os investigadores mostraram as imagens a um algoritmo treinado com fotografias de utilizadores que especificam a sua orientação sexual no site: em fotografias de mulheres, o modelo acertou 74% das vezes, e em fotografias de homens, 81% (a precisão do algortimo subia para 83% e 91%, respectivamente, quando tinha cinco imagens para avaliar por pessoa). Em ambos os casos, a precisão ultrapassa a humana: com as mesmas imagens, as pessoas apenas acertaram na orientação sexual de 61% dos homens e 54% das mulheres.

O estudo tem limitações. Além de ignorar outras orientações sexuais (por exemplo, pessoas que se identifiquem como bissexuais ou assexuais), os investigadores questionam-se se as fotografias de um site podem ser particularmente reveladoras sobre a orientação sexual de alguém. 

Para os críticos, a falta de abrangência do estudo invalida os resultados. "A tecnologia não pode identificar a orientação sexual de alguém", frisa Jim Halloran, o director da GLAAD, uma aliança a favor dos direitos LGBT nos Estados Unidos num comentário público sobre o trabalho. "O que a tecnologia deles reconhece é uma padrão que encontrou numa pequena porção de pessoas brancas homosexuais com fotografias parecidas num site de encontros".

Os resultados do trabalho apoiam as teorias de que a orientação sexual é inata e advém da exposição a determinadas hormonas antes do nascimento. O algoritmo supõe que as caras de homens homossexuais têm traços mais comuns em mulheres (como menos pêlo facial, queixos mais estreitos e narizes mais compridos) devido a uma exposição maior à hormona feminina, progesterona.

O investigador principal, Kosinski, reconhece que a investigação é controversa, mas um dos objectivos é alertar os legisladores sobre o poder das capacidades das máquinas a analisar informação visual.  “Recebemos muitas críticas de que estamos a trabalhar em pseudociência”, nota Kosinski em resposta às críticas, acrescentando que o trabalho não considera outras etnias porque não estavam suficientemente representadas na base de dados. "O facto de olharmos apenas para pessoas brancas não invalida os nossos resultados. Olhamos para homens e mulheres brancos numa faixa etária ampla [entre os 18 e os 40 anos], e a informação é de sites de encontros e de perfis no Facebook."

A investigação pretende que os legisladores e pessoas tenham consciência dos riscos que existem com a tecnologia de reconhecimento facial. "Apesar de toda as provas em contrário, esperamos estar errados. Porém, as nossas conclusões  só podem ser desmentidas por outros dados científicos e estudos semelhantes, não por assessores de imprensa bem intencionados", escreve Kosinski, depois das críticas.

Sugerir correcção
Ler 4 comentários