Como o YouTube transforma moderados em radicais

Não se sabe ao certo como funciona o algoritmo, mas parece certo que a teoria do “rabbit hole” é verdadeira: o YouTube mantém os utilizadores numa espiral que pode levar à radicalização política.

,Eleições gerais brasileiras de 2018
Foto
O YouTube foi uma plataforma determinante para a eleição de Jair Bolsonaro UESLEI MARCELINO/Reuters

Um estudo apresentado esta semana numa conferência em Barcelona por uma equipa de investigadores da Escola Politécnica de Lausana (Suíça) e da Universidade Federal de Minas Gerais (Brasil) sugere que o YouTube é um veículo de radicalização política no espectro da extrema-direita. A conclusão é sustentada pela análise de mais de 330 mil vídeos publicados em 349 canais e pelo tratamento matemático de mais de 72 milhões de comentários.

Os investigadores demonstraram que os utilizadores da plataforma caracterizados como da direita moderada migram progressiva e consistentemente para a extrema-direita, num processo alimentado pelo sistema de recomendações do YouTube. 

A equipa concluiu que o algoritmo expõe os utilizadores “moderados” a conteúdos sucessivamente mais extremos e que tais vídeos apenas são recomendados a partir da visualização dos mais moderados. Ou seja, que o sistema é responsável, enquanto veículo, pela radicalização política.

Esta tendência foi sustentada por cientistas da Universidade de Harvard (EUA) que estudaram a influência do YouTube na eleição de Jair Bolsonaro como Presidente do Brasil em 2018. Nesse estudo seguiram milhares de recomendações do YouTube no Brasil e demonstraram que a quantidade de vídeos de extrema-direita, pró-Bolsonaro e de teorias da conspiração era desproporcional em comparação com os conteúdos ideologicamente colocados à esquerda.

Isso foi justificado pela existência de mais canais ligados à extrema-direita — com conteúdos xenófobos, homofóbicos e racistas —, mas também pelas características do algoritmo do YouTube, que amplificava esse discurso. A plataforma, que no Brasil rivaliza com as maiores estações de televisão em número de espectadores, acabou por ser determinante na eleição de Bolsonaro.

O The New York Times explorou o fenómeno e recolheu provas de que foi o sistema de recomendações do YouTube que levou muitos brasileiros a descobrir a extrema-direita, nomeadamente através da exposição a youtubers famosos que se radicalizaram e que, num “efeito-dominó”, acabaram por galvanizar, com particular eficácia, as camadas mais jovens e as menos instruídas da população.

Estas ocorrências dão força à teoria — nunca assumida pelo YouTube — de que a plataforma explora deliberadamente os sentimentos de indignação, raiva e medo para manter os utilizadores “agarrados”. Esta estratégia de amplificação emotiva acaba por ser utilizada, em muitos casos, como ferramenta de desinformação e trampolim para teorias da conspiração — fenómenos sociais e políticos como o “Brexit”, a eleição de Trump e o recrutamento de radicais do Daesh estão já bem documentados.

O sistema de recomendações do YouTube, controlado por inteligência artificial desde 2016, tem como único propósito o de manter o utilizador na plataforma a maior quantidade de tempo possível. O derradeiro objectivo é apenas um: gerar lucro com a publicidade.

A técnica utilizada pelo YouTube (e por outras redes, com o Facebook à cabeça) tem sido aprimorada e recebeu a alcunha de “rabbit hole” — “toca do coelho”, aqui no sentido de “labirinto”. Quanto maior é o nosso interesse num determinado assunto, mais sobre ele nos é oferecido. Uma espiral de onde, para muitos, é difícil sair.

Sugerir correcção