Melhorias nos algoritmos do Facebook permitiram detectar 80% mais de assédio

Entre Outubro e Dezembro de 2020, o Facebook apagou 6,3 milhões de publicações com assédio. Melhorias na capacidade do algoritmo perceber português ajudaram.

Foto
O removeu mais de um milhão de publicações com informação falsa sobre a covid-19 Reuters/DADO RUVIC

Nos últimos três meses de 2020, o Facebook apagou 6,3 milhões de publicações (imagens, textos ou vídeos) de utilizadores a assediar ou intimidar outros na rede social. É um aumento de 80% face ao terceiro trimestre de 2020. 

Em causa estão melhorias nos algoritmos da rede social — mais capazes de detectar nuances, contexto e perceber publicações que não estão escritas em inglês. Particularmente textos em português, árabe e espanhol.

Os moderadores do Instagram (outra rede social do Facebook) também eliminaram cinco milhões de publicações com assédio nos últimos três meses de 2020 (mais 2,4 milhões de publicações do que no trimestre anterior).

A informação foi partilhada esta quinta-feira, 11 de Fevereiro, no mais recente relatório de transparência semestral do Facebook que compreende informação de Outubro a Dezembro de 2020. É o primeiro relatório publicado desde que o comité de moderação independente do Facebook, criado para monitorizar o trabalho da equipa, começou a exercer funções e a aconselhar a rede social.

Melhorias de inteligência artificial

Para o Facebook, porém, são os algoritmos que estão por detrás das melhorias na detecção de conteúdo problemático. “Melhorias em inteligência artificial em áreas em que nuances e contexto é essencial, como o discurso de ódio, assédio e bullying, ajudaram-nos a ampliar os nossos esforços para manter as pessoas seguras”, resumiu Guy Rosen, vice-presidente do Facebook para a integridade, na divulgação dos resultados.

O aumento do número de revisores humanos e as melhorias na análise de publicações que não estão em inglês são outros factores que contribuíram para os números.

"Estamos lentamente a reconquistar a nossa mão-de-obra de moderadores de conteúdos, mas antecipamos que a nossa capacidade de rever conteúdo [com a ajuda de humanos] continue a ser afectada pela covid-19 até que exista uma vacina amplamente disponível”, admitiu Rosen. “Com capacidades limitadas, só enviamos para as nossas equipas o conteúdo mais prejudicial, como conteúdo sobre suicídio e automutilação.”

O relatório do Facebook revela ainda que a rede social removeu mais de um milhão de publicações com informação falsa sobre a covid-19 — incluindo curas e medidas de prevenção falsas — nos últimos meses de 2020 das suas redes sociais. Com a pandemia da covid-19, a rede social começou a dedicar-se mais à eliminação de conteúdo dúbio na área da saúde. Em Outubro, o Facebook anunciou que ia começar a proibir publicações que desencorajassem os utilizadores a serem vacinados, destacando a “importância de medidas preventivas na saúde.”

É algo que a empresa quer manter. “Quando a pandemia terminar, vamos continuar a falar com autoridades de saúde para garantir que estamos a atingir o equilíbrio certo com as nossas políticas de desinformação”, explicou Monika Bickert, responsável pela gestão de políticas globais do Faceboook, numa apresentação dos dados a jornalistas. 

Decisões de saúde contestadas

Recentemente, o comité de moderação independente do Facebook — que inclui antigos políticos, jornalistas, activistas, advogados e professores universitários de todo o mundo — contestou a decisão do Facebook em remover uma publicação de um utilizador a criticar a abordagem do governo francês à pandemia da covid-19 e a falar de medicamentos que podiam ajudar com o vírus. Apesar de o utilizador mencionar a hidroxicloroquina, não recomendava o seu uso. 

Para o comité, as regras do Facebook sobre saúde eram “vagas de uma forma inapropriada”. 

A equipa do Facebook diz que já está a clarificar as regras. Um dos maiores desafios apresentado pelo comité é criar uma forma de avisar o utilizador sempre que o seu conteúdo foi revisto por uma máquina ou por um ser humano. 

“O comité está a fazer aquilo que queríamos”, sublinhou, no entanto, Monika Bickert, questionada pelos jornalistas sobre o impacto do grupo no trabalho da rede social.

O painel de especialistas começou a ser criado em 2018 para actuar como um tribunal de última instância quando os utilizadores já tentaram resolver um determinado problema directamente com a equipa do Facebook. A ideia é ajudar a empresa a resolver as controvérsias associadas à liberdade de expressão.

Sugerir correcção
Comentar