Facebook vai criar deepfakes para lutar contra a tecnologia

Os vídeos serão utilizados num desafio para desenvolver ferramentas que combatam a proliferação de vídeos falsos nas redes sociais. A Microsoft, o MIT e a Universidade de Oxford fazem parte dos parceiros.

A tecnologia funciona ao fundir imagens reais para criar vídeos falsos
Foto
A tecnologia funciona ao fundir imagens reais para criar vídeos falsos Facebook

O Facebook anunciou que vai começar a criar deepfakes – vídeos falsos que recorrem a tecnologia de inteligência artificial para fabricar imagens credíveis de situações que nunca aconteceram, ao fundir fotografias e vídeos reais. Farão parte de uma base de dados de vídeos forjados com imagens de actores pagos e serão parte de uma competição internacional para aprender a combater a tecnologia.

O novo projecto do Facebook foi apresentado, esta quinta-feira, na página do departamento de inteligência artificial da empresa. Os vídeos criados farão parte do Deep Fake Competition Challenge, um novo desafio que irá premiar os criadores de novas técnicas e ferramentas de detecção de deepfakes. Conta com o apoio da Microsoft e de universidades reputadas como Berkeley, MIT e Oxford. Além de contribuir para a base de dados, que deve estar pronta até Dezembro, o Facebook também vai dedicar dez milhões de dólares ao projecto.

“Há implicações significativas para a legitimidade da informação partilhada online de ter vídeos gerados por inteligência artificial de pessoais reais a dizerem coisas ficcionais”, justifica o director de tecnologia do Facebook, Mike Schroepfer, em comunicado. “Mas a indústria não tem uma boa base de dados ou referências para os detectar. Queremos catalisar mais investigação e desenvolvimento para esta área.”

O processo será supervisionado pelo comité de Inteligência Artificial e Integridade dos Media da Partnership on AI, um consórcio de tecnologia que junta mais de 90 empresas de tecnologia e organizações noticiosas em todo o mundo.

Apesar do potencial lúdico, a tecnologia dos deepfakes – uma amálgama das expressões inglesas deep learning (aprendizagem profunda, uma técnica de inteligência artificial) e fake (falso) – acarreta riscos políticos e sociais. Em Junho, a Câmara dos Representantes dos Estados Unidos admitiu que está a receber alertas de especialistas para a possibilidade de as próximas eleições, em 2020, poderem ser influenciadas por deepfakes partilhados nas redes sociais. O próprio fundador do Facebook, Mark Zuckerberg, já foi vitima de deepfakes, num vídeo fabricado onde se descreve como “um homem, com total controlo de milhares de milhões de dados roubados, todos os seus segredos, as suas vidas, o seu futuro.”

O Facebook espera que a competição resulte num sistema inteligente autónomo capaz de detectar, automaticamente, se um vídeo foi alterado ou não. “Este é um problema que está constantemente a evoluir, tal como o spam ou outros desafios”, resume Schroepfer. “A nossa esperança é que, ao ajudarmos a indústria e a comunidade de inteligência artificial a unirem-se, consigamos avançar mais rapidamente.” 

A missão também se enquadra nos esforços da rede social para mostrar que está a lutar contra conteúdo fabricado. Nos últimos dois anos, o site descobriu que uma operação com origem russa gastou cerca de 100 mil dólares em milhares de anúncios que divulgavam informação falsa sobre temas como os direitos humanos. Terão sido vistos por cerca de 126 milhões de americanos. O problema não se limita aos EUA, com provas de que ataques de ódio a minorias na Birmânia resultaram de desinformação difundida na rede social.

O Facebook pretende apresentar e testar uma versão inicial da nova base de dados durante a Conferência Internacional sobre Visão Computacional, que terá lugar em Seoul, na Coreia do Sul, em Outubro.