Facebook deixa páginas com muitos likes ignorar regras

Celebridades, políticos e páginas com muitos seguidores seguem regras especiais no Facebook. A rede social diz que o objectivo é garantir que pontos de vista controversos não são eliminados, mas uma investigação do canal britânico Channel 4 apresenta o dinheiro como outro argumento.

Foto
O Facebook diz que é importante permitir que existam diferentes pontos de vista no site Reuters/DADO RUVIC

O Facebook admitiu que as páginas mais populares têm direito a excepções quando partilham conteúdo problemático. Mesmo com várias publicações que violem as regras do site (por exemplo, imagens de violência), estas páginas não podem ser eliminadas directamente pelas pessoas contratadas para rever o conteúdo do site. Em vez disso, passam por aquilo que a empresa chama de shielded review (“revisão à porta fechada”).

O processo é explicado num documentário do canal britânico Channel 4, que enviou um repórter para trabalhar, à paisana, na CPL Resources, em Dublin, uma empresa contratada pelo Facebook para fazer a moderação de conteúdo no Reino Unido. O objectivo era perceber o trabalho das pessoas que têm o poder de decidir sobre o que deve, e não deve, ser publicado na rede social.

Durante o período de formação, um moderador da CPL Resources diz ao repórter que páginas extremistas como a organização ultranacionalista Britain First não são logo eliminadas, mesmo quando partilham várias publicações racistas, porque “têm muitos seguidores, e por isso geram uma grande receita ao Facebook”. Apesar de queixas repetidas, a página só foi removida do site em Março de 2018, depois dos líderes serem detidos por uma série de crimes de ódio contra muçulmanos.

Em teoria, páginas do Facebook com cinco ou mais publicações, vídeos ou imagens apagadas por violar as regras do site são logo eliminadas. As excepções deviam ser reservadas apenas a páginas de agências noticiosas e governos que precisam de ter as publicações avaliadas por uma equipa de revisores adicional para perceber se têm mesmo conteúdo proibido (como nudez e violência) ou estão a relatar acontecimentos. Em Outubro de 2016, por exemplo, a rede social foi criticada por eliminar imagens de Kin-Phuc, a criança a correr nua para fugir de uma bomba de napalm, durante a guerra do Vietname, apesar do seu elevado relevo histórico.

Porém, como o Channel 4 mostra, publicações problemáticas de páginas muito populares como celebridades ou grupos extremistas também são enviadas para uma equipa do próprio Facebook rever à porta fechada. Com 900 mil seguidores, a página ultranacionalista de Tommy Robinson, o antigo líder da organização britânica anti-islão English Defense League (EDL), é outro exemplo de uma página com regras especiais.

"Isto é sobre discurso político"

A rede social confirma o processo, mas diz que não é uma questão de dinheiro. “Isto é sobre discurso político. As pessoas estão a debater coisas muito sensíveis no Facebook, incluindo a imigração. Não querer mais imigração em certas partes do mundo, pode ser um ponto de vista legítimo”, explica Richard Allan, o responsável pelas soluções políticas do Facebook, quando foi contactado pelo Channel 4. “Ter mais pessoas responsáveis pela revisão do conteúdo em páginas onde está a ocorrer debate faz todo o sentido, e acho que as pessoas esperam que nós sejamos cuidadosos antes de remover os seus pontos de vista políticos.” Para Allan, a informação dada pelos moderadores do documentário resulta de rotinas de formação desactualizadas com material incorrecto.

Contactado pelo PÚBLICO, a equipa da rede social remete para a transcrição completa da entrevista entre Richard Allan e o jornalista do canal de televisão. Para o Facebook, a análise apresentada pelo canal de televisão não é correcta.

“Fazemos dinheiro através de anúncios na rede social. Tal como quando se vê televisão, a experiência é interrompida por um breve anúncio. Isso não está associado a qualquer tipo de conteúdo. Conteúdo chocante não nos dá mais dinheiro”, diz Richard Allan, no documento. O responsável pelas soluções políticas do Facebook explica ainda que, por vezes, são os próprios pais de crianças a serem atacadas em vídeos violentos que não querem ver as publicações fora da rede social para que mantenham como um alerta.

Em declarações ao Channel 4, Roger McNamee, um dos primeiros investidores do Facebook, argumenta, porém, que “é desejável ter pessoas a passar mais tempo no site quando se tem um negócio baseado em publicidade” e que, por isso, que “conteúdo extremista pode ser visto como uma fonte de lucro”.

Apesar de discordar com essa visão, o Facebook admite que os erros com o processo de revisão apresentados no documentário são uma fraqueza. Outro dos problemas foi a forma como os moderadores eram treinados para ignorar provas de que utilizadores com menos de 13 anos usavam o site. “A pessoa tem de admitir, ela mesma, que é menor. Caso contrário, fingimos que somos cegos”, disse um dos responsáveis pela formação, ao jornalista. 

De acordo com a rede social, desde as filmagens a equipa de moderadores da CPL Resources, em Dublin, já teve acesso a novas formações. A controvérsia com o documentário, chega numa altura em que várias redes sociais estão a ser alvo de escrutínio nos EUA sobre a forma como não impedem conteúdo problemático e ofensivo de circular nos seus sites. Esta terça-feira, executivos do Facebook, Twitter e Youtube vão prestar declarações à Comissão de Assuntos Judiciários da Câmara dos Representantes, nos EUA, sobre como estão a tentar resolver o problema.

Sugerir correcção
Ler 1 comentários