Deepfake.
A mentira que se esconde
à frente dos nossos olhos.

Falar de vídeos falsos numa altura em que ainda estamos a aprender a lidar com as chamadas fake news é acrescentar um ingrediente explosivo. E já não “apenas” pela falsidade das imagens em causa, mas pela facilidade com que se difundem estes conteúdos.

O perigo dos textos e vídeos falsos está na intenção com que são criados. “Eles são criados para ser polémicos, ou para provocar qualquer coisa como espanto ou irritação. E é por isso que se espalham mais facilmente”, explica Mário Figueiredo, professor do Instituto Superior Técnico, em conversa com o PÚBLICO. “Se eu souber mexer nos mecanismos que tornam as coisas virais, dois dias depois posso ter um milhão de visualizações”.

Uma tecnologia recente permite criar vídeos falsos sem grandes conhecimentos técnicos de manipulação de imagem ou computadores potentes. A chave está na aprendizagem automática — o sistema deepfake aprende a detectar as nossas expressões, os nossos jeitos, aprende como se move um rosto e o que distingue a nossa voz. E vai-se aperfeiçoando sozinho.

Até agora, não há registo de utilização de deepfakes na manipulação da opinião pública, mas a ameaça é real. Nos Estados Unidos, um grupo do Pentágono está a tentar desenvolver um mecanismo de detecção automática destas manipulações. No seu Plano de Acção contra a Desinformação, lançado em Dezembro, a Comissão Europeia reconhece o uso de técnicas de manipulação de vídeo para espalhar a desinformação.

Uma nova dimensão

Com uma simples pesquisa na Internet, a australiana Noelle Martin descobriu, por acaso, que a sua imagem estava a ser manipulada e partilhada em sites de pornografia. Um dia, por curiosidade, fez uma pesquisa utilizando uma ferramenta do Google que permite procurar o rasto de uma imagem na internet. Enviou uma fotografia sua e ficou à espera do resultado. O que encontrou mudou a vida dela.

Num instante, descobriu que imagens que ela tinha partilhado nas redes sociais estavam a ser editadas e publicadas em páginas de pornografia. A cara dela estava a ser colada, de forma realista, utilizando a tecnologia deepfake, em corpos nus de outras mulheres e no meio de actos sexuais.

Os grandes planos de seios e de outras partes íntimas não mostravam o seu corpo, mas o rosto das outras mulheres estava tão bem escondido por trás do dela que a manipulação passava despercebida. Ao ponto de ela própria se sentir violentada ao ver aquelas imagens. Aquela não era ela, mas parecia mesmo ser ela.

“Para as pessoas que me são próximas, [ver aquelas imagens] é muito confrangedor, elas são muito explícitas. E mesmo que um amigo meu consiga ver que aquela pessoa não sou eu, outra pessoa pode não conseguir distinguir”, descreve Noelle Martin numa vídeo-chamada com o PÚBLICO. “É uma violação extrema [da minha imagem]”.

Noelle começou por tentar apagar as imagens, contactando as páginas onde elas estavam alojadas. Explicava que eram falsas e que utilizavam o seu rosto sem autorização.

Na maior parte dos casos, não foi bem-sucedida — as páginas eram geridas por anónimos que ignoravam os seus pedidos. Pelas mesmas razões, uma batalha legal para processar os autores das fotografias tornou-se impossível.

Começou a falar publicamente sobre o seu caso e assumiu a missão de sensibilizar as pessoas para este tipo de crimes, de que nunca tinha ouvido falar. Quando descobriu as primeiras imagens suas manipuladas tinha 18 anos. Passaram seis anos e continua a ser alvo de novos ataques.

As manipulações foram-se tornando mais sofisticadas até incluírem vídeos tão realistas que se tornaram “assustadores”, confessa. “As imagens começaram por progredir para cenas sexuais mais explícitas. O nível foi subindo ao longo do tempo porque eu comecei a falar sobre isto. Há um vídeo meu a ter relações sexuais e outro onde estou a praticar sexo oral”.

O confronto com as imagens manipuladas foi um choque para Noelle, mas os vídeos abriram uma nova dimensão. “Agora, consegue-se pegar no rosto de alguém e na sua postura e movimentos, e mostrá-los numa posição em que eles nunca estiveram, ou a dizer algo que eles nunca disseram”.

A batalha de Noelle é agora pela informação. “Cheguei a um ponto em que eu já nem vou tentar que esses ficheiros sejam apagados. Se eu continuasse por esse caminho, teria que gastar anos e anos, se não o resto da minha vida a tentar fazer isso. É uma batalha que nunca acaba”.

Estado de alerta

A manipulação de imagens e vídeos não é nova. O que é novo é a utilização de sistemas computacionais que utilizam redes neuronais profundas (deep networks) para criar imagens e vídeos falsos (deepfake).

Estas redes trabalham com algoritmos de aprendizagem automática e tiveram “uma explosão muito grande nos últimos anos”, explica Mário Figueiredo, professor catedrático do Instituto Superior Técnico e investigador do Instituto de Telecomunicações, especialista em machine learning e manipulação de imagem.

“Antigamente, era preciso um especialista que soubesse manipular as imagens. Hoje em dia qualquer pessoa pode fazer isso, e em vídeo, o que é mais difícil”. Nestas redes, a “intervenção do utilizador é limitada”, uma vez que o objectivo é os sistemas aprenderem sozinhos a realizar a tarefa pedida e “os resultados são muito bons.”

Verdadeiro ou Falso? Consegue detectar quando uma imagem é criada digitalmente?

V F

Esta imagem não foi manipulada.

Fonte: Rössler, A., Cozzolino, D., Verdoliva, L., Riess, C., Thies, J. e Nießner, M. (2019).
Face Forensics++: Learning to Detect Manipulated Facial Images

V F

Manipulação “deepfake” utilizando a aplicação faceswap, que está disponível online. O rosto de um indivíduo (origem) é embebido na cara de um outro (alvo), podendo criar a ilusão de que o primeiro indivíduo esteve na situação do segundo.

Imagem sem manipulação:

 

Origem da manipulação:

 

Fonte: Rössler, A., Cozzolino, D., Verdoliva, L., Riess, C., Thies, J. e Nießner, M. (2019).
Face Forensics++: Learning to Detect Manipulated Facial Images

V F

Este vídeo foi criado pelo BuzzFeed em conjunto com o actor Jordan Peele. Foi feito em dois passos: primeiro, um editor de vídeo colocou a boca do actor sobre o rosto do antigo presidente norte-americano; depois colocaram a imagem numa aplicação chamada FakeApp, que ficou 56 horas a processar a imagem até ao resultado final.

Fonte: Buzzfeed/MonkeyPaw Productions

V F

Mark Zuckerberg foi de facto alvo de um deepfake, criado por dois artistas para uma instalação onde se pretendia demonstrar o poder da propaganda criada artificialmente. A voz de um actor foi utilizada sobre a imagem original do fundador do Facebook, e, com recurso à inteligência artificial, o computador estudou o rosto de Zuckerberg e adaptou-o ao áudio final.

Manipulação:

 

Fonte: Bill Posters/Instagram/@bill_posters_uk

V F

Publicado em Maio, este “deepfake” tornou-se viral, tendo neste momento mais de oito milhões de visualizações. O autor, que não quer revelar a sua identidade, disse que utilizou um software open-source chamado DeepFaceLab e aprendeu a fazer estas transformações em tutoriais online.

Fonte: Ctrl Shift Face/YouTube

V F

A manipulação aqui é mais difícil de detectar. Utilizando uma técnica chamada “Face2Face”, o sistema lê as expressões em dois vídeos diferentes e tenta reconstruir o primeiro com as expressões do segundo, mantendo a identidade da pessoa. A alteração é menor - a pessoa está num sítio onde foi mesmo filmada, mas o que ela diz e as suas expressões é que são falsas.

Imagem sem manipulação:

 

Fonte: Rössler, A., Cozzolino, D., Verdoliva, L., Riess, C., Thies, J. e Nießner, M. (2019).
Face Forensics++: Learning to Detect Manipulated Facial Images

V F

Este vídeo foi manipulado utilizando uma técnica mais simples do que os “deepfakes”, mas também mais falível. O FaceSwap identifica o rosto de uma pessoa, e recorta-o sinalizando alguns pontos de referência. Sobre este rosto é projectado um outro, fazendo coincidir os pontos de referência. Por fim, fazem-se ajustes de cor.

Imagem sem manipulação:

 

Fonte: Rössler, A., Cozzolino, D., Verdoliva, L., Riess, C., Thies, J. e Nießner, M. (2019).
Face Forensics++: Learning to Detect Manipulated Facial Images

V F

Esta imagem não foi manipulada. A pose de Marcelo Rebelo de Sousa no vídeo dificulta a manipulação automática. Os algoritmos e as fórmulas mais utilizadas funcionam melhor quando a face do interlocutor está posicionada de frente para a câmara. Uma das formas de detectar uma manipulação é estar atento à orientação dos olhos e nariz quando a cara se vira para os lados.

Fonte: Presidência da República

V F

Esta imagem não foi manipulada.

Fonte: Rössler, A., Cozzolino, D., Verdoliva, L., Riess, C., Thies, J. e Nießner, M. (2019).
Face Forensics++: Learning to Detect Manipulated Facial Images

V F

Esta imagem não foi manipulada.

Fonte: Rössler, A., Cozzolino, D., Verdoliva, L., Riess, C., Thies, J. e Nießner, M. (2019).
Face Forensics++: Learning to Detect Manipulated Facial Images

A diferença com as manipulações deepfake está precisamente na aprendizagem automática do sistema, que, de acordo com Mário Figueiredo, não pode ser explicada passo a passo. “É como estar a perguntar como é que eu reconheço a cara de uma pessoa. Eu não sei explicar. São tantas coisas pequeninas que estão embebidas nessa rede neuronal. As imagens são pixéis, e é possível fazer uma conta com os números todos da imagem original que dão outros números que são a imagem final, e é uma conta muito complicada que a máquina aprendeu a fazer vendo muitos exemplos”.

A qualidade dos resultados abre muitas possibilidades — e nem todas são negativas. Se é verdade que é mais fácil criar vídeos falsos, não se pode culpar a tecnologia. Mário Figueiredo sublinha que ela “tem sempre as utilizações que as pessoas lhe derem”. “Isto é o sonho de um realizador de cinema que queira substituir numa cena um actor”, exemplifica, ou de um videógrafo amador que queira fazer imagens “engraçadas de família”.

Um vídeo que se tornou viral no YouTube e que foi publicado num canal chamado “Ctrl Shift Face” coloca a cara de Arnold Schwarzenegger no corpo do comediante Bill Hader quando ele conta como a f