Algoritmos do Facebook são maus a detectar discurso de ódio

O novo relatório de transparência do Facebook mostra que os sistemas automáticos da rede social encontram e apagam 96% de imagens com contéudo sexual, mas apenas 38% de publicações a promover o ódio.

O spam é o conteúdo que mais tem de ser removido da rede social
Foto
O spam é o conteúdo que mais é removido da rede social Reuters/DADO RUVIC

Os algoritmos do Facebook são bons a detectar e apagar imagens de violência, pornografia, spam e contas falsas, mas o discurso de ódio ainda é um problema.

Nos primeiros três meses de 2018, os sistemas automáticos da rede social detectaram quase 100% das 837 milhões de publicações de spam apagadas e 96% das 21 milhões de publicações eliminadas por incluírem nudez de adultos ou conteúdo considerado sexual. Depois do spam e das contas falsas, é o tipo de conteúdo que mais é removido pelos moderadores – humanos ou algorítmicos – da rede social. Porém, apenas 38% das 3,5 milhões de publicações com discurso de ódio foram detectadas pela tecnologia de inteligência artificial.

Os dados foram revelados esta terça-feira no primeiro relatório de transparência semestral do Facebook com informação sobre aquilo que a rede social faz para garantir que as suas regras de utilização são respeitadas. A nova secção sobre a “Normas da Comunidade” divide-se em seis áreas: violência gráfica, nudez e actividade sexual, propaganda terrorista, discurso de ódio, spam e contas falsas.

O relatório mostra que as contas falsas são dos maiores focos na estratégia do Facebook: é ao atacá-las que a rede social elimina, em simultâneo, o spam e a informação falsa que produzem. Há três anos que são dos maiores problemas no site. No ano passado, o Facebook admitiu ter encontrado milhares de anúncios facciosos com origem em contas falsas da Rússia a circular na rede social desde Junho de 2015, altura em que Donald Trump anunciou a sua candidatura à presidência dos EUA.

Apesar de os sistemas automáticos detectarem quase 100% deste tipo de conteúdo sozinhos, a rede social estima que entre 3% a 4% das duas mil milhões de contas activas no site não pertençam a pessoas reais. Os algoritmos não conseguem fazer tudo. As publicações que incluem discurso de ódio (contra outros utilizadores ou grupos da sociedade) são as que mais dependem da moderação humana.

“A inteligência artificial, embora promissora, ainda está a anos-luz de ser eficaz a detectar grande parte do conteúdo problemático, em parte porque o contexto tem um papel fundamental”, explica o vice-director de produtos do Facebook, Guy Rosen, em comunicado. A maior falha é ao nível das publicações que querem promover o ódio contra determinados grupos. “A inteligência artificial ainda não é boa o suficiente para determinar se alguém está a semear ódio ou a descrever algo que lhes aconteceu para alertar as pessoas sobre um problema.”

Pedidos do governo

À semelhança de anos anteriores, o relatório do Facebook também inclui uma secção sobre os pedidos de informação dos governos de vários países sobre conteúdo na rede social. Em Portugal, por exemplo, foram feitos 679 pedidos de informação, sobre 904 contas diferentes nos últimos seis meses. O Facebook "produziu algum tipo de dados" para cerca de metade (52%).

A rede social explica que aceita pedidos para “preservar informação das contas” enquanto as entidades governamentais esperam pelo início de um processo legal. Isto quer dizer que a rede social guarda uma imagem com a informação que é pedida, mas não a envia até ser legalmente obrigada.

Nos EUA, os pedidos de informação da Administração nos últimos seis meses ultrapassam os 30 mil.