Número de deepfakes duplica em nove meses

A grande maioria dos vídeos são denatureza pornográfica, com a cara de uma celebridade a substituir a de um actor num filme erótico.

Fotogaleria
A líder democrata da Câmara dos Representantes dos Estados Unidos já foi protagonista de deepfakes Reuters/JOSHUA ROBERTS
Mark Zuckerberg
Fotogaleria
Mark Zuckerberg já teve a sua cara roubada para deepfakes Reuters/Stephen Lam

Desde Dezembro, o número de deepfakes disponíveis na Internet quase duplicou: os vídeos falsos com esta tecnologia passaram de quase oito mil para 14.696. Os dados são da Deeptrace, uma empresa de cibersegurança de Amsterdão criada em 2018 para combater conteúdo falso criado através da tecnologia de inteligência artificial. A grande maioria – 96% – são vídeos de natureza pornográfica, com a cara de uma celebridade a substituir a de um actor num filme erótico.

Os números reflectem o aumento da popularidade dos deepfakes que são vídeos que usam algoritmos programados para aprender a fabricar imagens credíveis de situações que nunca aconteceram, ao fundir fotografias e vídeos reais. Apesar do potencial para criar paródias, a tecnologia dos deepfakes – que junta as expressões inglesas fake (falso) e deep learning (aprendizagem profunda, uma técnica de inteligência artificial)– acarreta riscos políticos e sociais.

“O fenómeno das deepfakes tem-se desenvolvido rapidamente, tanto em termos da tecnologia utilizada como do impacto para a sociedade”, resume a equipa da Deeptrace, num relatório sobre os vídeos encontrados. Os resultados da empresa baseiam-se em vídeos encontrados entre 1 de Junho a 31 de Julho em sites de partilha de vídeos como o YouTube, o Vimeo, e o DailyMotion e os dez sites de pornografia com maior trafego. A última recolha tinha sido feita em Dezembro de 2018.

Os dados mais recentes mostram que a tecnologia de deepfakes é principalmente usada para vídeos eróticos com mulheres oriundas da América do Norte ou do Reino Unido, embora celebridades de k-pop (um estilo musical da Coreia do Sul) representem 15% dos protagonistas dos vídeos. Das imagens recolhidas, 81% das vítimas de deepfakes eram profissionais da indústria de entretenimento (principalmente, músicos e actores) , 12% eram políticos, 5% desempenhavam cargos na área dos media e 2% eram donos de negócios.

Foi em 2017 que começaram a surgir os primeiros exemplos destes vídeos com filmes eróticos editados com os rostos de actrizes como Gal Gadot e Scarlett Johansson a sobreporem-se aos actores originais. Agora, porém, começam também a ser utilizados para difundir vídeos falsos com figuras políticas: em Maio, por exemplo, surgiram imagens da líder democrata da Câmara dos Representantes dos Estados Unidos, Nancy Pelosi, que foram manipuladas para que parecesse embriagada. Mark Zuckerberg, fundador e presidente executivo do Facebook, também já foi vitima de deepfakes, num vídeo onde se descreve como “um homem, com total controlo de milhares de milhões de dados roubados.”

É cada vez mais fácil criar este tipo de vídeos. Em Junho, um relatório da Witness Media Lab – que é uma colaboração entre o Google e a Witness, uma organização não-governamental que apoia a documentação de violações dos direitos humanos – nota que é cada vez mais fácil editar, apagar ou modificar elementos específicos de um vídeo. Dão o exemplo do Adobe Cloak, uma ferramenta para apagar elementos indesejados de filmagens (por exemplo, um poste de electricidade de frente de um monumento).

No relatório recente, a Deeptrace também detalha casos da tecnologia usada para espionagem política: a imagem e conta de “Katie Jones”, uma suposta investigadora de um tink tank norte-americano, foi gerada artificialmente para obter informação sobre o governo dos EUA. Jones conseguiu fazer 52 conexões no site antes de ser identificada, algumas das quais trabalhavam para instituições governamentais de todo o mundo.  

“As deepfakes fornecem aos cibercriminosos ferramentas sofisticadas para potenciar exemplos de fraude e engenharia social”, lê-se nas conclusões da equipa.

Começam, no entanto, a surgir parcerias para combater os avanços da tecnologia. Em Setembro, o Facebook anunciou que vai começar a criar deepfakes para aprender a combater a tecnologia. As manipulações (criadas com imagens de actores pagos) farão parte de um concurso para desenvolver técnicas e ferramentas de detecção de deepfakes que conta com o apoio da Microsoft e de universidades reputadas como Berkeley, MIT e Oxford.