YouTube apagou 8,3 milhões de vídeos em três meses

A maioria dos problemas foi detectada por programas de computador.

Foto
Gande parte dos vídeos nas queixas não desrespeitam as regras do site Reuters/DADO RUVIC

Entre Outubro e Dezembro, a equipa do YouTube eliminou perto de 8,3 milhões de vídeos problemáticos. A maioria dos casos foram encontradas por máquinas.

A verdade faz-nos mais fortes

Das guerras aos desastres ambientais, da economia às ameaças epidémicas, quando os dias são de incerteza, o jornalismo do Público torna-se o porto de abrigo para os portugueses que querem pensar melhor. Juntos vemos melhor. Dê força à informação responsável que o ajuda entender o mundo, a pensar e decidir.

Entre Outubro e Dezembro, a equipa do YouTube eliminou perto de 8,3 milhões de vídeos problemáticos. A maioria dos casos foram encontradas por máquinas.

A informação sobre os últimos três meses de 2017 foi divulgada esta terça-feira numa publicação do site sobre os seus planos para combater o mau uso da  plataforma. Numa pré-apresentação do conteúdo para jornalistas, em que o PÚBLICO participou, a empresa frisou que o objectivo é aumentar a transparência do serviço para aumentar a confiança e segurança dos utilizadores.

Tal como outras tecnológicas, o YouTube tem sido alvo de várias controvérsias devido à presença de conteúdo ofensivo na sua plataforma. Um dos grandes problemas tem sido a falha da empresa em detectar vídeos racistas e permitir que ficassem na plataforma com anúncios de grandes marcas. Em Março de 2017, vários anunciantes (incluindo a McDonalds e a L'Oréal) pediram para retirar os seus anúncios de páginas do Google (o dono do YouTube) por terem sido associados a conteúdos extremistas e racistas. O problema mantém-se: este mês, uma investigação da CNN mostrou que 300 marcas, incluindo a Netflix e a Amazon, ainda tinham anúncios a aparecer em vídeos de defensores do nazismo e de políticas nacionalistas.

Investir na inteligência artificial é visto como uma mais-valia pelo Google: desde Junho de 2017 que os algoritmos utilizados para sinalizar conteúdo impróprio no YouTube estão programados para aprender sozinhos. Quanto mais vídeos detectam correctamente, mais capazes se tornam. Actualmente, a maioria do conteúdo que é removido do YouTube (87%) vem do sistema de detecção automático. É o equivalente a 6,7 milhões de vídeos. Destes, 75% são removidos antes mesmo de serem vistos pelos utilizadores. 

Apesar de as máquinas removerem a maioria do conteúdo problemático, grande parte das queixas vem directamente dos utilizadores com mais de nove milhões de vídeos a serem denunciados ao longo do ano anterior. O YouTube nota, porém, que o número não corresponde ao total de vídeos com conteúdo proibido. No total, as queixas de humanos apenas levam a que cerca de 5% de vídeos sejam removidos do site.

O problema é que muitos utilizadores denunciam vídeos que não violam as regras do YouTube. Por vezes, os utilizadores confundem um vídeo de que não gostam, ou com uma opinião diferente da deles, com um vídeo que desrespeita as normas do site.

Entre os critérios válidos, a existência de conteúdo sexual explícito é a maior razão que leva os utilizadores a denunciar um vídeo. Representa 30% do total de queixas. Segue-se, informação falsa ou enganadora (27%), comentários odiosos contra um grupo de pessoas (por exemplo, racismo e homofobia), e imagens violentas. A promoção do terrorismo, com mais de 460 mil vídeos problemáticos ocupa o final da lista. Menos de 1% de vídeos foram removidos devido a críticas de agências governamentais.

Para aumentar a transparência em torno do que leva um vídeo a ser removido, o site está a actualizar a sua plataforma de denúncia. A partir desta terça-feira, quando um utilizador pede que um vídeo seja removido, passa a conseguir monitorizar o processo de avaliação da equipa para saber se o conteúdo é ou não removido do site. Se a denúncia funcionar, o utilizador recebe uma actualização a explicar porque é que um vídeo foi removido. 

Além disso, o Youtube vai passar a disponibilizar relatórios trimestrais sobre como a empresa aplica as regras da comunidade. Apesar de as máquinas detectarem conteúdo problemático com maior precisão, o YouTube não ignora a importância da equipa de revisores humanos, que são responsáveis por detectar 14% de vídeos efectivamente problemáticos. Em 2017, O YouTube aumentou o número de número de moderadores de conteúdo para dez mil.