Falha mostrou identidade de moderadores do Facebook a potenciais terroristas

Cerca de 1000 funcionários foram afectados. Seis casos acabaram por ser considerados de alto risco após investigação interna.

Os moderadores trabalham a remover conteúdo impróprio
Foto
Os moderadores trabalham a remover conteúdo impróprio Reuters/DADO RUVIC

Uma falha técnica no Facebook fazia com que o perfil dos funcionários encarregues de eliminar conteúdo impróprio, incluindo conteúdo associado a terrorismo, aparecesse de forma visível para os administradores dos próprios grupos que estes funcionários tinham de monitorizar.

O caso foi revelado pelo jornal britânico The Guardian (que tem vindo a noticiar várias das práticas internas do Facebook para lidar com conteúdo impróprio) e confirmado pela empresa.

A falha, descoberta pelo Facebook no final do ano passado e entretanto corrigida, identificava o perfil de um moderador quando este removia da plataforma um administrador de um grupo. Nesses casos, o perfil surgia no registo de actividade do grupo, a que os restantes administradores tinham acesso.

No Facebook, os grupos (que podem ser abertos ou fechados) funcionam como espaços de conversa e partilha de conteúdos. Vão desde grupos de amigos a grupos temáticos sobre questões profissionais. Os administradores têm privilégios, como determinar a visibilidade daquilo que é comentado.

O problema afectou cerca de 1000 funcionários da empresa, 40 dos quais trabalhavam na equipa monitorização de conteúdo associado a terrorismo, uma unidade que funciona em Dublin, onde o Facebook tem a sede europeia. Houve seis casos que foram considerados pela empresa como sendo prioritários por questões de segurança, depois de uma investigação interna ter concluído que os perfis em causa tinham provavelmente sido vistos por potenciais terroristas.

"Temos uma grande preocupação em que todos os que trabalham para o Facebook estejam seguros. Assim que soubemos da questão, resolvemo-la e começámos uma investigação para perceber tanto quanto possível sobre o que aconteceu", disse ao Guardian um porta-voz da empresa.

Já um dos moderadores afectados – um jovem de origem iraquiana – afirmou ao Guardian ter decidido deixar a Irlanda e passar cinco meses num país no Leste europeu, com medo de represálias. “Estava a tornar-se demasiado perigoso ficar em Dublin”, afirmou.

Para além de contratar pessoas para remover conteúdo associado a terrorismo (muitas das quais são subcontratadas a empresas de trabalho temporário), o Facebook também recorre a automatismos para filtrar aquilo que é publicado na plataforma. Os utilizadores podem também assinalar conteúdo que considerem impróprio. Um relatório recente da Comissão Europeia notou que o Facebook é mais rápido a agir no caso destas denúncias do que o Twitter, o YouTube (que é do Google) e a Microsoft.

Nesta quinta-feira, a empresa decidiu revelar alguns detalhes sobre os automatismos a que recorre para remover conteúdo associado a terrorismo. A rede social analisa, por exemplo, os vídeos e fotografias que os utilizadores pretendem publicar, para ver se aquelas imagens já foram removidas antes. Está também a usar análise de linguagem natural para identificar frases que apoiem grupos como o Estado Islâmico e a Al Qaeda. Esta tecnologia, porém, está ainda a dar os primeiros passos e deverá ficar melhor à medida que o algoritmo for aprendendo, observou o Facebook.