YouTube removeu 7,8 milhões de vídeos e 224 milhões de comentários em três meses

A maioria dos conteúdos impróprios foi eliminada sem intervenção humana.

Foto
A empresa emprega tecnologia e equipas humanas para identificar conteúdos impróprios Reuters/DADO RUVIC

Entre Julho e Setembro deste ano, o YouTube removeu 7,8 milhões de vídeos dos seus servidores, 81% dos quais foram identificados automaticamente como conteúdo impróprio e apagados sem intervenção humana. A estes somam-se 50,2 milhões de vídeos removidos porque os respectivos canais foram fechados. No mesmo período, o site retirou ainda 224 milhões de comentários.

Estes e outros dados foram divulgados esta quinta-feira, no relatório trimestral de transparência da empresa do Google, que detalha os esforços da plataforma para responder à pressão de Estados e organizações no sentido de travar a difusão de conteúdos ilícitos.

Em Setembro, a Comissão Europeia tinha anunciado que quer obrigar plataformas online como o YouTube e o Facebook a removerem no espaço de uma hora conteúdos que sejam identificados como terroristas pelas autoridades nacionais. A publicação de relatórios trimestrais por parte das empresas é uma das exigências de Bruxelas.

Agora, o YouTube responde com dados que indicam que, no caso de vídeos com conteúdo violento, extremista ou que ponha em causa a segurança infantil, mais de 90% foram removidos antes de somarem dez visualizações. E em Setembro, detalha a empresa, quase 75% dos vídeos impróprios que foram detectados automaticamente não chegaram sequer a obter uma única visualização antes de serem eliminados.

A empresa justifica o que diz ser um sucesso na moderação de conteúdos com a conciliação entre soluções tecnológicas e equipas de revisores humanos. Em 2017, explica o YouTube em comunicado, foram introduzidas máquinas mais inteligentes que sinalizam conteúdos impróprios e enviam alertas para as equipas de moderação, o que veio permitir uma reacção mais rápida. 

Em Abril, o YouTube actualizou ainda a sua plataforma de denúncias para a sinalização de conteúdos e comportamentos impróprios, e iniciou a publicação dos seus relatórios trimestrais de transparência.

"Detectar todo o conteúdo impróprio no YouTube é um enorme desafio, mas vemo-lo como uma das nossas principais responsabilidades e estamos focados em trabalhar continuamente para o remover antes que ele seja amplamente visualizado", afirma a plataforma em comunicado, recordando o procedimento actual: o vídeo com conteúdo ilícito ou impróprio é removido assim que seja identificado, e é enviado um aviso à conta que o divulgou. No caso de contas que se dediquem reiterada ou exclusivamente a divulgar conteúdos proibidos, ou que cometam uma única infracção grave, o canal é eliminado na totalidade.

Spam é o principal motivo de remoção de comentários 

O relatório relativo ao terceiro trimestre de 2018 é também o primeiro em que o YouTube indica dados sobre a moderação de comentários no site. Nesses três meses, foram removidos 224 milhões de comentários. A maioria por serem sinalizados com spam, mas também por promoverem extremismos ou apelarem à violência. O YouTube assinala que estes 224 milhões de comentários apagados representam uma pequena fracção dos milhares de milhões de comentários que são publicados na plataforma.

Aqui, o esforço de moderação está também nas mãos dos criadores de conteúdos, uma vez que estes têm ao seu dispor ferramentas que permitem, entre outras funcionalidades, rever um comentário recebido antes de permitir a sua publicação. O YouTube indica que mais de um milhão de utilizadores emprega essas ferramentas nos seus canais. 

Artigo actualizado às 19h30: clarificado que foram removidos 7,8 milhões de vídeos individuais, a que se somam 50,2 milhões de outros vídeos devido ao fecho de canais.

Sugerir correcção
Ler 1 comentários