Quem vê o que não queremos ver

É um trabalho sujo mas alguém tem de o fazer: ver e apagar imagens de actos hediondos, incluindo pedofilia, para manter a Internet limpa. Só que os efeitos psicológicos podem ser severos. Nos Estados Unidos, dois funcionários levaram a Microsoft a tribunal.

Foto
KACPER PEMPEL/REUTERS

É fácil deparar-nos com conteúdo impróprio na Internet: imagens de sexo que não deveriam estar acessíveis a menores, insultos racistas, propaganda extremista, vídeos de crimes e atentados. Mas muito mais fica por ver porque é eliminado antes de chegar aos nossos feeds sociais ou de aparecer nos resultados das nossas pesquisas. Ao contrário do que se possa pensar, na maior parte das vezes não é um software sofisticado que detecta e apaga conteúdos impróprios. A tarefa é executada diligentemente por pessoas que trabalham para gigantes como a Google ou o Facebook. E que vêem o pior da Internet para que nós não o façamos: desde vídeos de tortura publicados por grupos terroristas até imagens de abuso, violação e morte de crianças.

Esta semana, o anonimato terminou para mais dois destes guardiões invisíveis e ficámos a saber um pouco mais do preço que pagamos para ter uma Internet mais limpa. Henry Soto e Greg Blauert, dois cidadãos norte-americanos, apresentaram uma queixa num tribunal do estado de Washington contra o antigo empregador, a Microsoft, que responsabilizam pelo stress pós-traumático que alegam sofrer. Os funcionários, cuja queixa é citada pelo Guardian, dizem não ter sido alertados sobre o elevado grau de violência das imagens vistas no desempenho das suas funções. O impacto psicológico da tarefa será tão grave que se tornou impossível utilizar um computador ou estar ao pé de uma criança sem sofrer ataques de pânico. Depressão, ansiedade, insónias, pesadelos, choro compulsivo e a memória persistente das imagens dos abusos são alguns dos efeitos apontados.

“É horrendo. É suficientemente mau ver uma criança ser sexualmente abusada. Mas depois há assassínios. Fazem coisas indescritíveis a estas crianças”, disse ao Guardian Ben Wells, um dos advogados no processo. Soto, que sofreu um esgotamento em 2013, acusa a empresa de não ter facilitado a transferência para outro departamento, o que só terá acontecido no ano seguinte.

A Microsoft nega a ausência de protecção para os membros das equipas de moderação de conteúdos e afirma que disponibiliza apoio psicológico mensal e que limita o tempo de exposição dos trabalhadores a imagens impróprias. Outro mecanismo de segurança passa pela desfocagem de fotografias e vídeos e a eliminação do cor e do som, de modo a reduzir o impacto visual.

Wells, no entanto, diz que a Microsoft e outras empresas do sector têm de fazer um esforço maior para proteger “pessoas que fazem um trabalho heróico” e que “salvam vidas de crianças” e “colocam pessoas na prisão”.

O processo poderá ter implicações para toda a indústria. Até lá, permanecerá uma área de negócio pouco regulada que, segundo o New York Times, gera “milhões” para uma rede infindável de empresas subcontratadas pelos principais gigantes da Internet, dos Estados Unidos às Filipinas, onde um número desconhecido de trabalhadores anónimos continuará a ver e a ocultar o pior da humanidade. Guardando-o na memória.

Sugerir correcção
Comentar