Torne-se perito

Google cria inteligência artificial para moderar comentários em sites noticiosos

A tecnologia analisa os comentários e classifica-os com base na sua semelhança com comentários que as pessoas consideraram "tóxicos".

A empresa-irmã do Google quer utilizar um programa de inteligência artificial para acabar com a toxicidade na Internet
Foto
Ferramenta ainda só está disponível em inglês DARREN STAPLES

“E se a tecnologia ajudasse a melhorar as conversas na Internet?” A Jigsaw, uma empresa da Alphabet, a dona do Google, fez a pergunta e propõe uma resposta através de uma tecnologia chamada Perspective, destinada a resolver o problema dos comentários nos sites noticiosos.

Depois de a Wikipédia anunciar a missão de “desintoxicar a Internet de insultos” ao unir as qualidades de revisores humanos à inteligência artificial no início deste mês, o projecto da Jigsaw – uma empresa criada para encontrar soluções tecnológicas para problemas globais – também passa por criar um programa informático para ajudar a moderar grandes comunidades na Internet. “O Perspective revê os comentários e classifica-os com base na sua semelhança com comentários que as pessoas consideraram 'tóxicos' ou que tenham levado alguém a abandonar a conversação”, explica o director do Jigsaw, Jared Cohen, na apresentação do projecto.

Para perceber o que é linguagem “potencialmente tóxica”, o Perspective examinou milhares de comentários previamente revistos por humanos. À medida que o Perspective encontra mais comentários do tipo, são incluídos numa base de dados em actualização que ensina o programa a trabalhar melhor. Por agora, a tecnologia ainda só está disponível em inglês.

Uma versão inicial já foi testada no site do The New York Times. Para Jared Cohen, um dos objectivos da nova tecnologia é reduzir os ataques de cyberbullying a jornalistas e comentadores online. Cohen dá o exemplo da jornalista freelancer Rose Eveleth, que foi atacada na Internet – com comentários ofensivos e ameaças – após entrevistar um cientista que usava uma T-shirt com imagens de mulheres pouco vestidas e em poses provocadoras. É fácil encontrar outros exemplos na Internet: a jornalista australiana Georgina Dent, que trabalha como comentadora para o Sky News, conta numa entrevista ao jornal The Australian que o seu telemóvel não parava de tocar após a sua estreia no canal. “Nem sequer conseguia ligá-lo depois do programa. Quando finalmente consegui, as mensagens [online] estavam recheadas de ofensas que me eram destinadas.” Ofendiam Dent, comentavam a sua “falta de beleza”, mas não falavam do que tinha sido discutido no programa.

A generalidade dos sites noticiosos aceita comentários dos leitores, tendo diferentes abordagens para os filtrar ou tratar. No PÚBLICO, por exemplo, utilizadores que tenham um registo de bom comportamento vão subindo de nível até, eventualmente, poderem moderar o comentário de outros utilizadores. 

O problema, porém, transcende os sites noticiosos. Uma investigação do instituto norte-americano Data & Society, publicada este ano, mostra que, numa amostra de três mil cidadãos americanos com pelo menos 15 anos, 47% sofreram ataques na Internet, que incluem perseguição online (através das várias contas nas redes sociais), apropriação de conteúdo (roubo de fotografias e vídeos para publicação em sites de terceiros) e comentários ofensivos. Este tipo de comportamento não afecta apenas as vítimas: 72% dos internautas já testemunharam assédio na Internet.

Para o presidente do Jigsaw, a solução não passa por desligar o computador nem por parar de escrever na Internet: “Quase um terço das pessoas autocensura o que é publicado online, com receios de represálias. Achamos que a tecnologia pode ajudar aqui.”

Além de erradicar comentários tóxicos, o Perspective vai permitir que os sites que usam a sua tecnologia tenham acesso a relatórios sobre o tipo de comentários analisados. A decisão sobre o futuro dessa informação é dos próprios órgãos de informação. Cohen sugere que os sites desenvolvam ferramentas para ajudar a comunidade a perceber o impacto do que é escrito. Uma das possibilidades é um sistema que alerta os utilizadores para a toxicidade dos seus comentários enquanto estão a ser escritos. 

Os sites poderão ainda permitir que os utilizadores ordenem os comentários de acordo com o seu nível de toxicidade. O funcionamento seria semelhante à opção entre “gosto” ou “não gosto” em vigor em muitos sites da Internet, mas permitindo uma escala maior de classificação dos comentários. Os comentários muito tóxicos ficam escondidos.

Texto editado por João Pedro Pereira