Facebook suprimiu manualmente notícias sobre o filho de Joe Biden

Regra geral, “discurso político” não é submetido a verificação de factos e os cinco mil sites mais visitados da Internet não podem ser barrados por algoritmos.

Foto
Joe Biden e o filho Hunter Biden Reuters/Jonathan Ernst

Foram moderadores humanos e não algoritmos que impediram a investigação do jornal norte-americano New York Post sobre o filho do candidato do Partido Democrata Joe Biden, de ser massivamente partilhada no Facebook. A informação foi avançada esta sexta-feira pelo jornal britânico The Guardian, que obteve documentos internos do Facebook a detalhar as políticas de moderação da rede social (dona do WhatsApp, Messenger e Instagram) e a forma como alguns sites e artigos escapam a limites pré-definidos. Por exemplo, regra geral, “discurso político” não é submetido a verificação de factos e os cinco mil sites mais visitados da Internet não podem ser barrados por algoritmos.

A verdade faz-nos mais fortes

Das guerras aos desastres ambientais, da economia às ameaças epidémicas, quando os dias são de incerteza, o jornalismo do Público torna-se o porto de abrigo para os portugueses que querem pensar melhor. Juntos vemos melhor. Dê força à informação responsável que o ajuda entender o mundo, a pensar e decidir.

Foram moderadores humanos e não algoritmos que impediram a investigação do jornal norte-americano New York Post sobre o filho do candidato do Partido Democrata Joe Biden, de ser massivamente partilhada no Facebook. A informação foi avançada esta sexta-feira pelo jornal britânico The Guardian, que obteve documentos internos do Facebook a detalhar as políticas de moderação da rede social (dona do WhatsApp, Messenger e Instagram) e a forma como alguns sites e artigos escapam a limites pré-definidos. Por exemplo, regra geral, “discurso político” não é submetido a verificação de factos e os cinco mil sites mais visitados da Internet não podem ser barrados por algoritmos.

Há semanas que o Facebook e o Twitter estão a ser alvo de críticas por limitar a distribuição de uma peça do tablóide nova-iorquino New York Post sobre alegados negócios de Hunter Biden, filho de Joe Biden, na Ucrânia e na China. De acordo com as empresas, a peça foi suprimida para evitar a possível propagação de informação falsa enquanto verificadores de factos independentes reviam o trabalho do New York Post.

Por norma, as publicações partilhadas no Facebook são enviadas para revisão depois de algoritmos do site detectarem sinais da comunidade como “muitos comentários incrédulos” que podem indicar que o conteúdo é falso. Quando isto acontece, a partilha das publicações é limitada temporariamente enquanto o conteúdo é avaliado.

Só que não foi isso que aconteceu com a peça do New York Post. Os documentos internos do Facebook notam que o jornal faz parte de uma lista de sites que não podem ser automaticamente despromovidos porque são muito populares e, como tal, não serão os mais usados para espalhar desinformação. Ou seja, foram moderadores humanos que sinalizaram o conteúdo do New York Post como dúbio e impediram-no de ser tão partilhado.

“Podemos escalar publicações [para verificação de factos] com base no facto de o conteúdo ser elegível para verificação de factos, devido à sua importância ou por ter um sinal externo de falsidade”, lê-se nos documentos obtidos pelo Guardian. A eleição nos EUA é uma “questão de importância”.

Facebook diz que recebeu alerta do FBI

Contactado pelo PÚBLICO, o Facebook explica que a decisão de limitar a notícia do New York Post veio depois de um alerta do FBI. A rede social não confirma o conteúdo dos documentos. “Como o nosso presidente executivo, Mark Zuckerberg, disse em Congresso no começo desta semana, temos estado em alerta acrescido devido às informações do FBI sobre o potencial para operações de intrusão e fuga de informação destinadas a espalhar desinformação”, explica um porta-voz do Facebook, repetindo esclarecimentos dados ao Guardian. “Com base nesse risco, e em conformidade com as nossas políticas e procedimentos existentes, tomámos a decisão de limitar temporariamente a distribuição do conteúdo enquanto os nossos verificadores de factos o reviam.” Quando os revisores não encontram problemas, o Facebook diz que elimina as barreiras à distribuição de alguns conteúdos.

Por vezes, porém, o Facebook elimina conteúdo sem pedir opinião aos verificadores de factos. Alguns exemplos são desinformação sobre o sistema eleitoral, “deepfakes” (imagens criadas artificialmente) e conteúdo que pode levar a perigo iminente. Publicações com desinformação sobre vacinas ou informação repetidamente desmentida também devem ser automaticamente apagadas, mesmo que sejam partilhadas por políticos.

Uma das grandes críticas a Mark Zuckerberg, quando foi questionado esta semana por senadores democratas e republicanos, foi a falta de transparência das políticas de moderação de conteúdo da plataforma.