Facebook pede desculpa após classificar homens negros num vídeo como “primatas”

O caso levou a empresa a desactivar a ferramenta de inteligência artificial que fez com que a mensagem fosse difundida.

Foto
A empresa pediu desculpa pelo “erro inaceitável” Dado Ruvic

O Facebook desactivou uma função de recomendação de tópicos que associou erradamente homens negros a “primatas”. A empresa pediu desculpa pelo “erro inaceitável” provocado por tecnologia de inteligência artificial. A gigante tecnológica informou ainda que está a rever a função de recomendação para que o sucedido não volte a acontecer. 

Os utilizadores do Facebook que assistiram recentemente a um vídeo do jornal britânico The Daily Mail, datado de 27 de Junho de 2020 e que apresentava imagens de homens negros, viram uma mensagem automática daquela rede social a perguntar se gostariam de “continuar a ver vídeos sobre primatas”. O vídeo apresentava imagens de homens negros que discutiam com civis e polícias brancos. 

Na zoologia, a classificação de primatas abrange os humanos, mas a categorização do Facebook dizia respeito a primatas não humanos, como os gorilas e os chimpanzés.

O caso levou a empresa a investigar as causas da recomendação e a desactivar nesta sexta-feira a ferramenta de inteligência artificial que fez com que a mensagem fosse difundida. “Pedimos desculpa a quem quer que tenha visto essas recomendações ofensivas”, respondeu o Facebook, depois de contactado pela agência de notícias AFP.

Darci Groves, antiga directora de design de conteúdo do Facebook, partilhou no Twitter uma captura de ecrã relativa à recomendação em questão, alertando também a empresa com uma publicação num fórum para funcionários actuais e ex-funcionários do Facebook. Em resposta, um director de produto do Facebook Watch, o serviço de vídeo da rede social, disse que a empresa estava “a analisar as causas” da recomendação “inaceitável”.

Esta não é a primeira vez que são levantadas questões raciais no Facebook, as quais também causaram conflitos internos na empresa. Em 2016, Mark Zuckerberg, o presidente executivo do Facebook, pediu aos funcionários que parassem de riscar a frase “Black Lives Matter” de um espaço comum na sede da empresa em Menlo Park, Califórnia. Alguns deles estavam a substituí-la por “All Lives Matter”.

Além disso, dezenas de funcionários do Facebook decidiram também, em 2020, faltar ao trabalho e fazer greve, deixando uma breve mensagem automática no e-mail a explicar que estavam “ausentes” para apoiar os protestos contra a violência policial e o racismo desencadeados pela morte do afro-americano George Floyd, em Mineápolis, nos EUA, contestando a atitude da empresa face a Donald Trump. 

Falha no algoritmo não é exclusiva do Facebook

Os erros de algoritmos não são exclusivos desta rede social. Um algoritmo do Twitter, por exemplo, dá preferência a caras mais novas, mais magras e com pele mais clara. A conclusão foi de um estudo levado a cabo por Bogdan Kulynych, um estudante da universidade suíça EFPL.

 A empresa, que já tinha estado envolvida numa polémica devido ao enviesamento do algoritmo, pagou 3500 dólares a Bogdan para estudá-lo. Para isso, o investigador gerou rostos artificiais com características distintas, e deixou-as correr no algoritmo do Twitter para perceber em quais ele se focava.

Já em Maio, na Conferência Internacional de Representações da Aprendizagem, um evento anual para falar sobre inteligência artificial, foi discutido o Fawkes  uma ferramenta gratuita, desenvolvida por investigadores nos EUA, que usa algoritmos para alterar ligeiramente uma fotografia e impedir outros algoritmos de saber quem aparece na imagem. O objectivo é não deixar que as pessoas com fotografias online sejam identificadas, sem autorização, por sistemas de inteligência artificial.