Twitter e Zoom investigam algoritmos que ignoram pessoas negras

As queixas começaram a chegar durante o fim-de-semana. A ferramenta de fundos virtuais do Zoom apaga as cabeças e a ferramenta de corte do Twitter não foca os rostos.

Foto
Não é a primeira vez que os algoritmos dos serviços online são acusados de racismo ou revelam viés Hello Lightbulb/Unsplash

Os algoritmos do Twitter e do Zoom estão a ser acusados de terem funcionalidades racistas. As queixas começaram este fim-de-semana: no caso do Zoom, a ferramenta de fundos virtuais do sistema de videoconferências elimina a cara de pessoas negras; no caso do Twitter, a ferramenta de corte automático (usada para destacar as partes mais importantes de uma fotografia, como caras) não funciona sempre em negros.

A verdade faz-nos mais fortes

Das guerras aos desastres ambientais, da economia às ameaças epidémicas, quando os dias são de incerteza, o jornalismo do Público torna-se o porto de abrigo para os portugueses que querem pensar melhor. Juntos vemos melhor. Dê força à informação responsável que o ajuda entender o mundo, a pensar e decidir.

Os algoritmos do Twitter e do Zoom estão a ser acusados de terem funcionalidades racistas. As queixas começaram este fim-de-semana: no caso do Zoom, a ferramenta de fundos virtuais do sistema de videoconferências elimina a cara de pessoas negras; no caso do Twitter, a ferramenta de corte automático (usada para destacar as partes mais importantes de uma fotografia, como caras) não funciona sempre em negros.

Colin Madland, um estudante de doutoramento na Universidade de Virginia, no Canadá, foi o primeiro a detectar os problemas. Quando Madland, que é branco, publicou imagens de uma videoconferência recente com um colega negro para se queixar dos problemas do Zoom, o Twitter editou a fotografia para se focar apenas na cara de Madland. Rapidamente várias pessoas partilharam outros exemplos de falhas dos algoritmos das duas empresas.

As empresas dizem que já estão a trabalhar para perceber e resolver os problemas. “A nossa equipa testa [os modelos de algoritmos] para casos de viés antes de os lançar e não encontrou provas de preconceito racial ou de género. Mas é claro pelos exemplos que temos mais análises a fazer”, explicou um porta-voz do Twitter em declarações à imprensa.

O director de design do Twitter, Dantley Davis, acredita que o problema original se deve à barba de Colin Madland, mas reconhece que esses detalhes não deveriam afectar o sistema.“Estou tão irritado com isto como toda a gente”, admitiu numa publicação no Twitter. “Contudo, estou numa posição para corrigir isto e é o que vou fazer”, frisou.

O Zoom também confirma estar a par do problema.“Já contactamos directamente o utilizador para perceber o problema”, lê-se num comunicado da empresa. “Estamos dedicados a fornecer uma plataforma que é inclusiva para todos.”

Um problema antigo

Não é a primeira vez que os algoritmos dos serviços online são acusados de racismo ou revelam viés. Há livros inteiros sobre o tema: pesquisar “gorilas” já foi sinónimo de encontrar imagens de negros no Google e “meninas negras” era equivalente a pornografia.

A solução não é fácil. Por exemplo, numa tentativa de ver todas as pessoas como iguais, a plataforma Yelp, que permite encontrar restaurantes e outros estabelecimentos comerciais​, dificultou o trabalho de uma cabeleireira negra em Nova Iorque que tentava promover o seu serviço junto de outras mulheres negras.

E o viés não é sempre introduzido por humanos: um estudo de 2018 da Universidade de Cardiff e do MIT mostra que a inteligência artificial pode aprender a ser preconceituosa e a discriminar algoritmos diferentes de forma autónoma.

Por agora, o Twitter defende que lidar com algoritmos acidentalmente preconceituosos é uma área que requer atenção contínua. “[Perceber o viés dos algoritmos] é uma questão muito importante. Para dar resposta, analisámos o nosso modelo antes de o lançar, mas é algo que precisa de melhorias constantes”, escreveu Parag Agrawal, responsável pela tecnologia do Twitter, numa publicação na rede social.