Amnistia Internacional descreve Twitter como "lugar tóxico para mulheres" jornalistas e políticas

Insultos e ameaças contra mulheres na política ou no jornalismo político ameaça a sua liberdade de expressão na Internet, afirma a Amnistia Internacional.

Foto
Foi analisado um conjunto de 1,1 milhões de mensagens Fabrizio Bensch/Reuters

A cada 30 segundos, uma mulher na área da política ou do jornalismo a usar o Twitter recebe uma ameaça de morte, ou é alvo de insultos com base no género, orientação sexual, raça ou etnia. Os dados foram publicados esta terça-feira pela Amnistia Internacional, que este ano recrutou mais de 6500 voluntários para analisar milhares de comentários enviados durante 2017, naquela rede social, a mulheres activas na política ou a escrever sobre esta. E concluiu que o problema afecta todo o espectro político, da esquerda à direita.

“Preferia bater-te na cara com um martelo gigante, sua racista que odeia brancos” ou “és burra, burra e burríssima, volta para Cuba!” são alguns dos exemplos de mensagens abusivas referidos no relatório.

E entre as mulheres, as negras têm uma probabilidade 84% superior à média de ser alvo de comentários considerados “abusivos” (ofensas e ameaças de morte) ou “problemáticos” (por exemplo, com insultos assentes em estereótipos raciais ou de género). 

Para realizar esta análise, um conjunto de 1,1 milhões de mensagens abusivas foi recolhido com a ajuda da Element AI, uma startup de inteligência artificial. Foram analisadas por uma larga equipa de voluntários. A conclusão é que 7% dos tweets enviados a um grupo de 778 mulheres que incluem deputadas britânicas, congressistas norte-americanas e jornalistas de várias publicações anglófonas (desde os jornais britânicos The Guardian e Daily Mail, ao site conservador norte-americano Breitbart) têm teor abusivo ou problemático.

“Esta escala de abuso online não devia e não tem de existir em plataformas sociais”, lê-se nas conclusões do relatório da Amnistia Internacional, que defende que é importante que as pessoas não tenham medo de se “exprimir livremente na Internet” sem serem alvo de ameaças e ofensas. Para a organização, “estes dados são fundamentais para levar qualquer pessoa a procurar compreender e combater estes ataques e estes obstáculos aos direitos das mulheres na Internet”.

Apesar de a Amnistia Original descrever o Twitter neste relatório como um "lugar tóxico para mulheres", a organização explica que o objectivo não é levar as pessoas a abandonar a plataforma, mas antes pressionar os responsáveis daquela rede social a investir mais em métodos de moderação de conteúdo.

A existência deste problema no Twitter não é propriamente uma novidade. Tal como outras redes sociais, esta plataforma tem admitido nos últimos anos que tem tido um seu papel na difusão de teorias da conspiração, notícias falsas e mensagens ofensivas. Recentemente, a plataforma também actualizou as suas regras relativas a discursos de ódio, reconhecendo que há grupos que são alvo preferencial de ataques, incluindo “mulheres não brancas, lésbicas, bissexuais, pessoas trangénero, queer, intersexo, indivíduos assexuais, e comunidades historicamente marginalizadas”.

Em reacção a este relatório, e numa resposta enviada ao PÚBLICO, o Twitter considera que a metodologia empregue pela Amnistia Internacional é pouco clara.

“Sobre o relatório, quero sublinhar que o conceito de conteúdo ‘problemático’ requer mais discussão. É pouco claro. Não se percebe como definiram ou classificaram esse tipo de conteúdo”, declarou Vijayta Gadde, responsável do Twitter para assuntos legais e políticos.

Para Gadde, aumentar o nível de moderação do site é um assunto complexo, sendo fundamental assegurar a “liberdade de expressão.” O Twitter nota ainda que as contas denunciadas ao site por enviarem mensagens abusivas correspondem a apenas 1% do total de contas do site e que a empresa está focada em utilizar tecnologia para as combater e remover.

A inteligência artificial é vista como uma das soluções para a plataforma combater o abuso online. Em Março de 2018, por exemplo, o Twitter contratou vários investigadores para criar algoritmos que detectassem detectar casos de xenofobia, racismo ou, simplesmente, de linguagem imprópria.

Para a Amnistia Internacional, a solução não pode ser meramente tecnológica e requer acção humana. “Testámos métodos de inteligência artificial para verificar o papel que pode ter na moderação de conteúdo – o nosso modelo tinha 50% de precisão, o que mostra como moderadores [humanos] treinados são essenciais para proteger o equilíbrio entre a luta contra o abuso online e a necessidade de evitar a censura”, explicou Milena Marin, uma das investigadoras da Amnistia Internacional, numa publicação no Twitter.

Sugerir correcção
Ler 1 comentários