Redes sociais lutam para travar imagens online do ataque na Nova Zelândia

As imagens do terror na Nova Zelândia continuam a circular nas redes sociais. Não é a primeira vez que tiroteios, assassínios e crimes são transmitidos em directo nas redes sociais.

Fotogaleria

O Facebook, o YouTube, e o Twitter estão a ter dificuldades em impedir a circulação na Internet das imagens do ataque desta sexta-feira em duas mesquitas na cidade de Christchurch, na Nova Zelândia. Horas depois, imagens detalhadas continuam a circular nas redes sociais.

A verdade faz-nos mais fortes

Das guerras aos desastres ambientais, da economia às ameaças epidémicas, quando os dias são de incerteza, o jornalismo do Público torna-se o porto de abrigo para os portugueses que querem pensar melhor. Juntos vemos melhor. Dê força à informação responsável que o ajuda entender o mundo, a pensar e decidir.

O Facebook, o YouTube, e o Twitter estão a ter dificuldades em impedir a circulação na Internet das imagens do ataque desta sexta-feira em duas mesquitas na cidade de Christchurch, na Nova Zelândia. Horas depois, imagens detalhadas continuam a circular nas redes sociais.

As autoridades estão preocupadas. O ataque, que matou pelo menos 49 pessoas, foi transmitido em directo durante 17 minutos no Facebook. Nas imagens originais, entretanto removidas pela rede social, vê-se o atirador a entrar numa mesquita com uma arma semiautomática e a disparar sobre os que estavam em oração. Também no Twitter circularam imagens do ataque. 

“Infelizmente, ainda não existe tecnologia para remover este tipo de conteúdo horrendo de forma precisa e automática de serviços de livestreaming”, explica Hany Farid, professor de ciência da computação na faculdade de Dartmouth, nos EUA. Há anos que colabora com o Counter Extremism Project (CEP), uma organização não-governamental que combate grupos extremistas e condena a proliferação de imagens violentas nas redes sociais.

Num email enviado ao PÚBLICO, Farid nota, no entanto, que “existe tecnologia para encontrar e remover conteúdo depois de ter sido identificado por moderadores humanos e, nesta altura, não há razão pela qual este vídeo deva continuar a surgir em sites como o Facebook e YouTube.” E acrescenta: “Apesar das promessas de Zuckerberg de inteligência artificial que nos vai salvar a todos, estes sistemas não conseguem lidar com as enormes quantidades de conteúdo que são publicadas diariamente.”

O Facebook apenas detectou as imagens do ataque em directo depois de ser contactado pelas autoridades do país. “A polícia da Nova Zelândia alertou-nos para o vídeo no Facebook pouco depois de o livestream começar e rapidamente removemos as contas do atirador do Facebook e do Instagram, bem como o vídeo”, disse a directora do Facebook para a região da Austrália e Nova Zelândia, Mia Garlick, num comunicado que também foi enviado ao PÚBLICO. A empresa nota que tem estado a colaborar com as autoridades desde o começo e vai “apagar qualquer conteúdo a elogiar ou apoiar o atirador e o ataque mal seja detectado”.

Não é a primeira vez que o Facebook enfrenta problemas com violência nos seus vídeos em directo. Em 2017, um homem do Ohio, EUA, foi morto em directo por outro homem que segurava um telemóvel numa mão e uma arma na outra. Na altura, a rede social decidiu contratar mais três mil pessoas para combater a disseminação de vídeos de crimes violentos e de homicídios. 

Escapar aos algoritmos

Mesmo após o Facebook remover o vídeo do tiroteio desta sexta-feira, várias cópias têm sido submetidas a outras plataformas, como é o caso do YouTube. Muitos utilizadores estão a cortar porções dos vídeos originais, ou a colar cópias do manifesto anti-imigrante partilhado por um dos atiradores como imagens, para evitar serem detectados pelos sistemas automáticos das plataformas.

Os moderadores de redes sociais como o YouTube e o Facebook são capazes de criar uma espécie de impressão digital de vídeos problemáticos (conhecida como “hash”), a que são comparados todos os novos vídeos colocados na plataforma. A tecnologia foi inicialmente desenvolvida para combater conteúdo com direitos de autor de circular nestas plataformas. Porém, se estes vídeos são alterados (por exemplo, ao mudar o ritmo ou a filmar ecrãs com as imagens) é mais difícil serem detectados pelos sistemas automáticos.

Num comunicado enviado ao PÚBLICO, um porta-voz do YouTube frisa que “conteúdo chocante, violento, e gráfico não tem qualquer lugar na plataforma” e que a empresa está a usar “todos os recursos tecnológicos e humanos que têm para remover e rever todo e qualquer conteúdo” relacionado aos ataques de Christchurch.

Desejo de fama e “Columbiners”

A polícia neozelandesa emitiu um comunicado a pedir que os meios de comunicação não divulguem as imagens do ataque com “cenas chocantes”.

O desejo de atingir a notoriedade através da violência não é novo e os casos estão bem documentados. Em 1979, uma atiradora de 16 anos em San Diego, nos EUA, que disparou sobre uma escola em Cleveland e matou duas pessoas, perguntou à policia se ia aparecer na televisão quando foi informado de que havia jornalistas na área. Em 1997, o atirador da secundária de Bethel Regional, nos EUA, disse que orquestrou o ataque depois de um amigo lhe ter dito que o seu nome e cara iam correr o mundo. A 16 de Abril de 2007, o responsável pelo massacre de 32 estudantes americanos da Universidade de Virgínia Tech, tinha enviado fotografias e vídeos a explicar o sucedido ao canal de notícias NBC News, antes de se suicidar.

Mais recentemente, em 2015, a polícia canadiana impediu um ataque de ocorrer na cidade de Hallifax, depois de encontrar publicações a idolatrar o massacre de 1999 na escola secundária de Columbine, nos EUA, na rede social Tumblr. Os autores apelidavam-se de “Columbiners”.

Para evitar este tipo de situações, a Comissão Europeia quer obrigar plataformas online, como o Facebook e o YouTube, a remover no espaço de uma hora conteúdos que sejam identificados como terroristas pelas autoridades nacionais. Neste caso, o Facebook respeitou os limites. A proposta defende, no entanto, que em caso de falhas sistemáticas em remover os conteúdos, as empresas poderão ter de pagar multas até 4% da facturação anual em todo o mundo.

O outro lado

Apesar da polémica, a remoção de vídeos violentos é uma área cinzenta para o Facebook. Há casos em que vídeos transmitidos em directos podem ajudar as autoridades a prevenir a ocorrência de crimes. Em Dezembro, um jogador de Fortnite foi detido em Sidney, na Austrália, depois de transmitir um vídeo em directo no site Twitch, em que se podia ouvi-lo a agredir a mulher.

Em 2016, após a transmissão em directo dos últimos momentos de um homem morto a tiro pela polícia dos Estados Unidos, numa operação stop, o Facebook passou a remover apenas os vídeos da morte de alguém se fossem utilizados para celebrar o acontecimento. “Se uma pessoa testemunhar um tiroteio e usar o Facebook Live para alertar sobre o problema ou ajudar a encontrar o atirador, será permitido”, lê-se num comunicado publicado na altura.

O problema é que a tecnologia para distinguir os dois formatos ainda não foi desenvolvida.

Nas últimas horas, alguns políticos têm usado o Twitter para apelar que empresas de tecnologia – como o Google (dono do YouTube), o Facebook e o próprio Twitter – invistam em tecnologia para detectar mais precisamente conteúdo violento nos seus sistemas.

Para tal, os algoritmos das redes sociais teriam de incorporar conceitos da psicologia e da linguística para categorizar diferentes tipos de conteúdo violento. “Por outro lado, isto pode dar origem a conteúdo que é censurado antes de sequer ser publicado”, alertou Honglei Li, professora em Ciências da Computação, na universidade de Northumbria, na Inglaterra, num texto publicado no site The Conversation.

Para o Counter Extremism Project (CEP), porém, as redes sociais não se podem continuar a esconder atrás de pretextos sobre liberdade de expressão. “Mais uma vez, [um ataque] foi cometido por um extremista que foi apoiado por conteúdo presente nas redes sociais”, criticou o director executivo da CEP, David Ibsen, num comunicado da organização publicado depois dos ataques na Nova Zelândia. “A proliferação de ideologias extremistas online não pode ser continuar a ser ignorada e tem de ser resolvida de raiz. Não nos podemos esconder atrás de preocupações descontextualizadas sobre a liberdade de expressão para não lidar com conteúdo que motiva o ódio e a violência.”