Facebook tem duas novas equipas para encontrar algoritmos racistas

O objectivo é perceber se os sistemas automáticos usados pelo Instagram e pelo Facebook estão a barrar conteúdo de minorias, ou a promover linguagem problemática.

Foto
Reuters/Dado Ruvic

O Facebook diz que quer menos racismo nas suas plataformas. Esta quarta-feira, a rede social (dona do Instagram, WhatsApp e Messenger) anunciou a criação de dois grupos dedicados a estudar o comportamento dos seus algoritmos.

Para já, a nova “Equipa de Equidade e Inclusão” vai-se focar nas publicações do Instagram, enquanto o “Conselho de Produtos Inclusivos” vai trabalhar com o Facebook. O objectivo é perceber se os sistemas automáticos usados pelas plataformas estão a barrar conteúdo de minorias ou a promover linguagem problemática.

Nas últimas semanas, a empresa de Mark Zuckerberg perdeu o apoio de grandes marcas como a Disney, Ford, Microsoft, Pepsi, Coca-Cola, Unilever, Ford, Adidas e HP, que suspenderam temporariamente campanhas publicitárias que tinham no Facebook com base na lentidão da empresa a remover conteúdo problemático do site — particularmente linguagem de ódio ou racista.

De acordo com o jornal norte-americano Wall Street Journal, que foi o primeiro a noticiar as novas equipas de equidade do Facebook, um estudo interno do Instagram concluiu que utilizadores negros tinham 50% mais de hipóteses de ficar com a conta bloqueada. Na altura, a investigação não avançou mais por falta de apoio da direcção do Instagram, mas agora a equipa diz que é importante perceber a forma como os algoritmos trabalham.

“Qualquer viés nos nossos sistemas e políticas é contraprodutivo à ideia de oferecer plataformas onde todos se podem expressar”, justificou Vishal Shah, vice-presidente de produto do Instagram, num comunicado enviado à imprensa sobre as novidades.

O PÚBLICO tentou contactar o Facebook sobre a iniciativa, mas a empresa nota que ainda é cedo para avançar detalhes específicos.

Um problema antigo

A existência de sistemas informáticos racistas não é novidade. Em 2016, a Microsoft criou um programa de inteligência artificial que aprendia ao falar com pessoas nas redes sociais, mas apenas aguentou 24 horas antes de se transformar num clone de pessoas mal-intencionadas na Internet (os chamados “trolls”, na gíria da Internet) que repetia comentários preconceituosos.

Em 2017, o próprio Facebook decidiu aumentar o controlo humano das ferramentas de publicidade depois de uma investigação ter mostrado que era possível criar automaticamente anúncios destinados a utilizadores assumidamente anti-semitas. Termos ofensivos (por exemplo, “como queimar judeus”) apareciam como sugestões no sistema de publicidade segmentada do Facebook, porque a rede social utilizava um algoritmo para gerar opções a partir da informação no perfil dos utilizadores. 

Só que o preconceito das máquinas não se deve apenas aos humanos. Um estudo de 2018 realizado pela Universidade de Cardiff, no Reino Unido, e o MIT, o conceituado instituto de tecnologia em Massachusetts, notou que as máquinas podiam aprender a ser preconceituosas sozinhas. Ao estudar agentes virtuais programados para trocar bens (codificados com um número aleatório específico), percebeu-se que era mais comum os agentes virtuais “ajudarem” algoritmos com bens semelhantes, e ignorarem os que tinham poucos bens.

O Facebook espera poder partilhar mais novidades sobre o trabalho das novas equipas ao longo dos próximos meses.

Sugerir correcção