Deepfake.
A mentira que se esconde
à frente dos nossos olhos.

Falar de vídeos falsos numa altura em que ainda estamos a aprender a lidar com as chamadas fake news é acrescentar um ingrediente explosivo. E já não “apenas” pela falsidade das imagens em causa, mas pela facilidade com que se difundem estes conteúdos.

O perigo dos textos e vídeos falsos está na intenção com que são criados. “Eles são criados para ser polémicos, ou para provocar qualquer coisa como espanto ou irritação. E é por isso que se espalham mais facilmente”, explica Mário Figueiredo, professor do Instituto Superior Técnico, em conversa com o PÚBLICO. “Se eu souber mexer nos mecanismos que tornam as coisas virais, dois dias depois posso ter um milhão de visualizações”.

Uma tecnologia recente permite criar vídeos falsos sem grandes conhecimentos técnicos de manipulação de imagem ou computadores potentes. A chave está na aprendizagem automática — o sistema deepfake aprende a detectar as nossas expressões, os nossos jeitos, aprende como se move um rosto e o que distingue a nossa voz. E vai-se aperfeiçoando sozinho.

Até agora, não há registo de utilização de deepfakes na manipulação da opinião pública, mas a ameaça é real. Nos Estados Unidos, um grupo do Pentágono está a tentar desenvolver um mecanismo de detecção automática destas manipulações. No seu Plano de Acção contra a Desinformação, lançado em Dezembro, a Comissão Europeia reconhece o uso de técnicas de manipulação de vídeo para espalhar a desinformação.

Uma nova dimensão

Com uma simples pesquisa na Internet, a australiana Noelle Martin descobriu, por acaso, que a sua imagem estava a ser manipulada e partilhada em sites de pornografia. Um dia, por curiosidade, fez uma pesquisa utilizando uma ferramenta do Google que permite procurar o rasto de uma imagem na internet. Enviou uma fotografia sua e ficou à espera do resultado. O que encontrou mudou a vida dela.

Num instante, descobriu que imagens que ela tinha partilhado nas redes sociais estavam a ser editadas e publicadas em páginas de pornografia. A cara dela estava a ser colada, de forma realista, utilizando a tecnologia deepfake, em corpos nus de outras mulheres e no meio de actos sexuais.

Os grandes planos de seios e de outras partes íntimas não mostravam o seu corpo, mas o rosto das outras mulheres estava tão bem escondido por trás do dela que a manipulação passava despercebida. Ao ponto de ela própria se sentir violentada ao ver aquelas imagens. Aquela não era ela, mas parecia mesmo ser ela.

“Para as pessoas que me são próximas, [ver aquelas imagens] é muito confrangedor, elas são muito explícitas. E mesmo que um amigo meu consiga ver que aquela pessoa não sou eu, outra pessoa pode não conseguir distinguir”, descreve Noelle Martin numa vídeo-chamada com o PÚBLICO. “É uma violação extrema [da minha imagem]”.

Noelle começou por tentar apagar as imagens, contactando as páginas onde elas estavam alojadas. Explicava que eram falsas e que utilizavam o seu rosto sem autorização.

Na maior parte dos casos, não foi bem-sucedida — as páginas eram geridas por anónimos que ignoravam os seus pedidos. Pelas mesmas razões, uma batalha legal para processar os autores das fotografias tornou-se impossível.

Começou a falar publicamente sobre o seu caso e assumiu a missão de sensibilizar as pessoas para este tipo de crimes, de que nunca tinha ouvido falar. Quando descobriu as primeiras imagens suas manipuladas tinha 18 anos. Passaram seis anos e continua a ser alvo de novos ataques.

As manipulações foram-se tornando mais sofisticadas até incluírem vídeos tão realistas que se tornaram “assustadores”, confessa. “As imagens começaram por progredir para cenas sexuais mais explícitas. O nível foi subindo ao longo do tempo porque eu comecei a falar sobre isto. Há um vídeo meu a ter relações sexuais e outro onde estou a praticar sexo oral”.

O confronto com as imagens manipuladas foi um choque para Noelle, mas os vídeos abriram uma nova dimensão. “Agora, consegue-se pegar no rosto de alguém e na sua postura e movimentos, e mostrá-los numa posição em que eles nunca estiveram, ou a dizer algo que eles nunca disseram”.

A batalha de Noelle é agora pela informação. “Cheguei a um ponto em que eu já nem vou tentar que esses ficheiros sejam apagados. Se eu continuasse por esse caminho, teria que gastar anos e anos, se não o resto da minha vida a tentar fazer isso. É uma batalha que nunca acaba”.

Estado de alerta

A manipulação de imagens e vídeos não é nova. O que é novo é a utilização de sistemas computacionais que utilizam redes neuronais profundas (deep networks) para criar imagens e vídeos falsos (deepfake).

Estas redes trabalham com algoritmos de aprendizagem automática e tiveram “uma explosão muito grande nos últimos anos”, explica Mário Figueiredo, professor catedrático do Instituto Superior Técnico e investigador do Instituto de Telecomunicações, especialista em machine learning e manipulação de imagem.

“Antigamente, era preciso um especialista que soubesse manipular as imagens. Hoje em dia qualquer pessoa pode fazer isso, e em vídeo, o que é mais difícil”. Nestas redes, a “intervenção do utilizador é limitada”, uma vez que o objectivo é os sistemas aprenderem sozinhos a realizar a tarefa pedida e “os resultados são muito bons.”

Verdadeiro ou Falso? Consegue detectar quando uma imagem é criada digitalmente?

V F

Esta imagem não foi manipulada.

Fonte: Rössler, A., Cozzolino, D., Verdoliva, L., Riess, C., Thies, J. e Nießner, M. (2019).
Face Forensics++: Learning to Detect Manipulated Facial Images

V F

Manipulação “deepfake” utilizando a aplicação faceswap, que está disponível online. O rosto de um indivíduo (origem) é embebido na cara de um outro (alvo), podendo criar a ilusão de que o primeiro indivíduo esteve na situação do segundo.

Imagem sem manipulação:

 

Origem da manipulação:

 

Fonte: Rössler, A., Cozzolino, D., Verdoliva, L., Riess, C., Thies, J. e Nießner, M. (2019).
Face Forensics++: Learning to Detect Manipulated Facial Images

V F

Este vídeo foi criado pelo BuzzFeed em conjunto com o actor Jordan Peele. Foi feito em dois passos: primeiro, um editor de vídeo colocou a boca do actor sobre o rosto do antigo presidente norte-americano; depois colocaram a imagem numa aplicação chamada FakeApp, que ficou 56 horas a processar a imagem até ao resultado final.

Fonte: Buzzfeed/MonkeyPaw Productions

V F

Mark Zuckerberg foi de facto alvo de um deepfake, criado por dois artistas para uma instalação onde se pretendia demonstrar o poder da propaganda criada artificialmente. A voz de um actor foi utilizada sobre a imagem original do fundador do Facebook, e, com recurso à inteligência artificial, o computador estudou o rosto de Zuckerberg e adaptou-o ao áudio final.

Manipulação:

 

Fonte: Bill Posters/Instagram/@bill_posters_uk

V F

Publicado em Maio, este “deepfake” tornou-se viral, tendo neste momento mais de oito milhões de visualizações. O autor, que não quer revelar a sua identidade, disse que utilizou um software open-source chamado DeepFaceLab e aprendeu a fazer estas transformações em tutoriais online.

Fonte: Ctrl Shift Face/YouTube

V F

A manipulação aqui é mais difícil de detectar. Utilizando uma técnica chamada “Face2Face”, o sistema lê as expressões em dois vídeos diferentes e tenta reconstruir o primeiro com as expressões do segundo, mantendo a identidade da pessoa. A alteração é menor - a pessoa está num sítio onde foi mesmo filmada, mas o que ela diz e as suas expressões é que são falsas.

Imagem sem manipulação:

 

Fonte: Rössler, A., Cozzolino, D., Verdoliva, L., Riess, C., Thies, J. e Nießner, M. (2019).
Face Forensics++: Learning to Detect Manipulated Facial Images

V F

Este vídeo foi manipulado utilizando uma técnica mais simples do que os “deepfakes”, mas também mais falível. O FaceSwap identifica o rosto de uma pessoa, e recorta-o sinalizando alguns pontos de referência. Sobre este rosto é projectado um outro, fazendo coincidir os pontos de referência. Por fim, fazem-se ajustes de cor.

Imagem sem manipulação:

 

Fonte: Rössler, A., Cozzolino, D., Verdoliva, L., Riess, C., Thies, J. e Nießner, M. (2019).
Face Forensics++: Learning to Detect Manipulated Facial Images

V F

Esta imagem não foi manipulada. A pose de Marcelo Rebelo de Sousa no vídeo dificulta a manipulação automática. Os algoritmos e as fórmulas mais utilizadas funcionam melhor quando a face do interlocutor está posicionada de frente para a câmara. Uma das formas de detectar uma manipulação é estar atento à orientação dos olhos e nariz quando a cara se vira para os lados.

Fonte: Presidência da República

V F

Esta imagem não foi manipulada.

Fonte: Rössler, A., Cozzolino, D., Verdoliva, L., Riess, C., Thies, J. e Nießner, M. (2019).
Face Forensics++: Learning to Detect Manipulated Facial Images

V F

Esta imagem não foi manipulada.

Fonte: Rössler, A., Cozzolino, D., Verdoliva, L., Riess, C., Thies, J. e Nießner, M. (2019).
Face Forensics++: Learning to Detect Manipulated Facial Images

A diferença com as manipulações deepfake está precisamente na aprendizagem automática do sistema, que, de acordo com Mário Figueiredo, não pode ser explicada passo a passo. “É como estar a perguntar como é que eu reconheço a cara de uma pessoa. Eu não sei explicar. São tantas coisas pequeninas que estão embebidas nessa rede neuronal. As imagens são pixéis, e é possível fazer uma conta com os números todos da imagem original que dão outros números que são a imagem final, e é uma conta muito complicada que a máquina aprendeu a fazer vendo muitos exemplos”.

A qualidade dos resultados abre muitas possibilidades — e nem todas são negativas. Se é verdade que é mais fácil criar vídeos falsos, não se pode culpar a tecnologia. Mário Figueiredo sublinha que ela “tem sempre as utilizações que as pessoas lhe derem”. “Isto é o sonho de um realizador de cinema que queira substituir numa cena um actor”, exemplifica, ou de um videógrafo amador que queira fazer imagens “engraçadas de família”.

Um vídeo que se tornou viral no YouTube e que foi publicado num canal chamado “Ctrl Shift Face” coloca a cara de Arnold Schwarzenegger no corpo do comediante Bill Hader quando ele conta como a filha dele às vezes parece o actor de origem austríaca.

Nos primeiros segundos do vídeo, vemos a cara de Bill Hader transformar-se na de Schwarzenegger, mas a transição é tão subtil que o criador do vídeo contava, numa entrevista ao canal norte-americano NBC em Junho, que “metade das pessoas que comentaram o vídeo não percebeu a alteração”. O vídeo tem mais de oito milhões de visualizações e 15 mil comentários.

Contactado pelo PÚBLICO, o autor, um ilustrador gráfico checo que prefere não ser identificado e revela apenas o nome Tom, conta que deixou de dar entrevistas porque os artigos em que apareceu tinham como objectivo “criar medo” à volta desta tecnologia.

À NBC, Tom compara os sistemas de deepfake ao programa de edição de imagem Photoshop. “Nós não proibimos o Photoshop porque se podem fazer conteúdos maliciosos com ele. Ele é usado sobretudo de forma positiva. O que é importante é as pessoas estarem mais atentas, tal como acontece com algumas imagens mais sensacionalistas que passam nas notícias”.

Portugal sem casos

O uso de redes neuronais profundas para criar imagens pornográficas falsas é um fenómeno “sem expressão” em Portugal, assegura-nos Carlos Cabreiro, director da Unidade de Combate ao Cibercrime (UNC3T) da Polícia Judiciária.

A PJ já detectou casos de “manipulação de imagem”, mas “são casos grosseiros”, facilmente detectáveis, em que a intenção não era atingir as pessoas, mas esconder os intervenientes.

Contactada pelo PÚBLICO, também a PSP afirma não ter registo de ocorrências envolvendo deepfakes. As autoridades reconhecem que os jovens conhecem esta tecnologia, chegando a usá-la como forma de bullying, embora não tenham conhecimento de qualquer queixa.

Já o Centro Nacional de Cibersegurança (CNC) chama a atenção para a existência de “campanhas falsas por e-mail a fazer ameaças utilizando o pretenso conhecimento desse tipo de vídeos”. São ameaças sem fundamento, sublinha Lino Santos, coordenador do CNC.

A realidade é diferente do outro lado do Atlântico. “Não estamos a falar de noções abstractas”, alertou Hany Farid, professor na Universidade de Berkeley, na Califórnia, e especialista em deepfakes em declarações recentes à Hill.tv. “Nós vemos como esta tecnologia tem sido utilizada com frequência como uma arma contra as mulheres”, disse, sublinhando que as vítimas não são apenas figuras públicas.

Numa pesquisa simples pela internet é possível encontrar vídeos pornográficos falsos envolvendo actrizes famosas. Há também fóruns online onde se aceitam pedidos para criar novas imagens. Um deles, que o PÚBLICO encontrou, definia assim as regras para os pedidos: “devem ser de celebridades com mais de 18 anos”, “devem incluir o nome de estrelas porno que julgam que vão combinar”.

No final de Junho, uma aplicação chamada DeepNude foi lançada oficialmente online. O software prometia “despir” qualquer mulher ao pegar numa fotografia dela e, através de um algoritmo de aprendizagem automática, substituir a roupa de alguém por um corpo nu. A versão gratuita da aplicação devolvia imagens parcialmente cobertas por uma marca de água, mas por cinquenta dólares estas marcas desapareciam.

A aplicação foi criada por “divertimento”, inspirada em anúncios dos anos 60 e 70 de óculos raio-x, como contou o criador ao site norte-americano Vice (“Esta aplicação horripilante despe a fotografia de qualquer mulher com um simples clique”). “Eu penso que o que se pode fazer com a DeepNude, se pode muito bem fazer utilizando o Photoshop, passando algumas horas a fazer tutoriais”, disse na altura para salientar que a DeepNude não trazia nada de novo. “Se eu não disponibilizar [este software], alguém o fará no próximo ano”.

Um dia depois de a reportagem ser publicada, o mesmo criador anunciou no Twitter que ia deixar de partilhar e vender a aplicação, argumentando que “o mundo ainda não está preparado para a DeepNude”. No entanto, apesar de já não estar disponível na página oficial, a aplicação continua a ser distribuída em canais informais.

Uma guerra de algoritmos

A utilização de algoritmos de aprendizagem automática para manipulação de imagens e vídeos levanta, entre outras questões, alarmes relacionados com a difusão de imagens e vídeos falsos para manipular a opinião pública em momentos-chave, como são as eleições, por exemplo.

Tendo em conta o perigo que estas formas de comunicação representam, a Comissão Europeia lançou em Dezembro um Plano de Acção contra a Desinformação, aumentando em mais do dobro, de 1,9 milhões de euros para cinco milhões, o orçamento do Grupo de Acção para a Comunicação Estratégica da União Europeia para combater a desinformação e aumentar a sensibilização para o seu impacto.

Nos Estados Unidos, o perigo específico dos deepfakes está a ser estudado pelo Pentágono, através da Agência de Projectos de Investigação Avançados de Defesa (DARPA, na sigla inglesa). Em cooperação com as maiores instituições do país, está a tentar desenvolver um mecanismo de detecção automática destes vídeos manipulados.

Não há, até agora, registo de deepfakes que tenham conseguido enganar um conjunto significativo de pessoas. O exemplo mais bem-sucedido de um vídeo deepfake envolvendo um político foi fabricado para uma reportagem da página norte-americana BuzzFeed e utiliza a imagem de Barack Obama.

O vídeo começa com Barack Obama a falar, parecendo uma comunicação normal do antigo presidente norte-americano. “Estamos a entrar numa era em que os nossos inimigos podem fazer com que qualquer pessoa esteja a dizer o que quiserem onde quiserem”, começa por referir. A imagem é depois dividida em dois planos que colocam lado a lado Obama e o actor norte-americano Jordan Peele. Só aí é que percebemos que quem está realmente a falar é Jordan Peele. A imagem de Obama imita os movimentos do actor. “Vivemos tempos difíceis. A partir de agora, temos de estar mais alerta com aquilo em que confiamos na Internet”, rematam ambos.

Apesar de os deepfakes serem visualmente realistas, “eles não são perfeitos”, escreve-nos Siwei Lyu, professor de Ciências da Computação na Universidade de Albany. Lyu é investigador forense na área dos media há mais de 20 anos e uma das prioridades da sua equipa é encontrar mecanismos de detecção automática de deepfakes. Na lista de financiadores do seu trabalho estão a DARPA e a Google. Pedimos-lhe para nos identificar alguns pontos de referência a que as pessoas podem estar atentas para detectar se um vídeo é falso.

Em Maio do ano passado, o partido belga sp.a terá sido o primeiro partido político a partilhar um deepfake. Publicado nas redes sociais, o vídeo mostra Donald Trump a convencer os belgas a seguirem o exemplo dos Estados Unidos e deixarem o Acordo de Paris. “Todos sabemos que as alterações climáticas são falsas, tal como este vídeo”, vemos o presidente norte-americano dizer.

Se alargarmos a pesquisa para o terreno dos vídeos falsos, encontramos mais exemplos recentes, como o do vídeo distribuído pela Casa Branca em Novembro para justificar as sanções impostas ao jornalista da CNN Jim Acosta. Os movimentos do jornalista foram deliberadamente manipulados para fazê-lo parecer mais agressivo.

Neste caso, a manipulação nem precisou de recorrer à inteligência artificial e foi bem mais simples do que a necessária para fazer um deepfake.

As redes neuronais profundas utilizadas para gerar deepfakes trabalham em sistemas paralelos que competem entre si chamados “redes generativas adversariais” (GAN, na sigla inglesa), explica Mário Figueiredo. Um tenta gerar imagens falsas, o outro tenta descobrir se elas são falsas.

Torna-se, assim, numa “espécie de jogo”, em que “o que gera as imagens falsas vai conseguindo enganar melhor o que as detecta. Quando aquilo está perfeito, o detector deixa de conseguir distinguir”.

É uma espécie de “corrida ao armamento” sem fim. Se um detector deixa de conseguir detectar as imagens falsas, isso não impede que seja possível construir um outro mais sofisticado. “Mas é uma questão de tempo. Melhora-se de um lado, melhora-se do outro”.

Como estar preparado então para esta nova fase de manipulação da informação? O especialista em aprendizagem automática, Mário Figueiredo, deposita a confiança num outro sistema de aprendizagem, apesar de tudo menos falível: “A única forma é olhar e ver se aquilo faz sentido para um humano. A chave para a luta contra os vídeos e textos falsos é as pessoas terem espírito crítico e saberem olhar para as coisas com olhos abertos. Educação, formação, informação é a chave”.

Esta reportagem integra o projecto World News Day, uma iniciativa que junta mais de trinta redacções em todo o mundo na promoção de um jornalismo credível, que dê às pessoas ferramentas que as ajudem a interpretar um mundo em constante mudança. O World News Day é uma iniciativa do Fórum Mundial de Editores e assinala-se a 28 de Setembro, Dia Internacional do Acesso Universal à Informação.