Não apagar, por favor

As ferramentas automáticas de moderação de conteúdos na Internet estão a apagar provas fulcrais de crimes de guerra, alertam organizações não-governamentais.

Foto
Crianças sírias durante um bombardeamento das forças governamentais a Douma, um subúrbio de Damasco, em Maio de 2015 Reuters/Bassam Khabieh

Pelo menos 200 mil vídeos de graves violações de direitos humanos identificados e guardados pelo Arquivo Sírio, uma organização não-governamental que documenta crimes cometidos na guerra civil, foram apagados pelo YouTube. A perda corresponde a cerca de 10% do arquivo da organização de Hadi al-Khatib, mas o impacto é imensurável. “Todas estas remoções significam apagar história e apagar provas cruciais que podem ser usadas para julgar crimes de guerra”, declarou o activista sírio, em Outubro, ao New York Times

Em causa estão, por exemplo, inúmeros vídeos de bombardeamentos de alvos civis na Síria, bem como imagens dos efeitos de ataques com armas químicas que têm sido negados ao longo dos anos pelo regime de Damasco. Mas também de abusos cometidos por forças da oposição e pelos terroristas do Daesh. Na maioria dos casos, estas provas de crimes são recolhidas no terreno por activistas que correm um considerável perigo de vida. No entanto, muitas destas imagens acabam por ser apagadas das plataformas online devido à forma como os gigantes da Internet moderam conteúdos.

Historicamente, a remoção de conteúdos acontecia por via humana: um utilizador detectava um conteúdo que julgava ser impróprio (propaganda extremista, pornografia infantil, etc.) e sinalizava-o como tal. Essa denúncia era depois revista por uma equipa de moderadores de conteúdos, que decidiam validar ou não a queixa, e apagar o conteúdo em caso de violação das regras da plataforma. Em Junho de 2017, no entanto, deu-se uma importante mudança no funcionamento dos sistemas de moderação de conteúdos no YouTube, tal como aconteceu noutras plataformas: entrou em campo a inteligência artificial. Apesar de ainda haver equipas humanas de moderadores, o YouTube deposita cada vez mais responsabilidade em máquinas que “podem ser boas a detectar violência, mas que não têm a capacidade de detectar subtilezas como as pessoas”, como também afirmou ao NYT Dia Kayyali, responsável da organização Witness.

As máquinas “não são tão boas a perceber se um vídeo é propaganda do Daesh ou um documento vital sobre direitos humanos”, sublinha a norte-americana de origem síria.

Activistas como Kayyali e al-Khatib defendem por isso uma reorganização dos sistemas de moderação de conteúdos dos gigantes online, com mais moderadores humanos com conhecimento da história, cultura e idiomas locais, de modo a compreenderem o contexto de cada conteúdo, e com revisores altamente qualificados que possam validar ou reverter as decisões tomadas.

Algo parecido está a ser montado pelo Facebook até 2020: um conselho de supervisão independente que se assemelha a uma espécie de Supremo Tribunal daquela rede social, e que contará com 40 peritos externos que irão analisar casos difíceis de moderação em que não há certeza de se estar perante conteúdo extremista ou um documento histórico, uma peça de desinformação pura ou um simples conteúdo de propaganda política.

Sugerir correcção
Ler 5 comentários