Tecnologia deepfake usada para atacar activistas mostra a nova fronteira da desinformação

Oliver Taylor publicou artigos de opinião em vários jornais em Israel ou ligados à comunidade judaica. O problema: não existe, é uma personagem de ficção muito bem elaborada.

Foto
A fotografia de Oliver Taylor Reuters

Oliver Taylor, um estudante da Universidade de Birmingham, na Inglaterra, tem vinte e poucos anos e olhos castanhos, barba rala e uma ligeira rigidez no sorriso.

Os perfis online descrevem-no como uma pessoa que gosta de café, é viciada em política e que cresceu numa família tradicional judia. A meia dúzia de artigos de opinião que escreveu como freelance revelam interesse em assuntos judaicos e no anti-semitismo, tendo publicado no Jerusalem Post e no Times of Israel.

O problema? Tudo indica que Oliver Taylor é uma personagem de ficção muito bem elaborada.

A sua universidade diz que não tem registo dele. E não tem pegada digital além de uma pergunta feita no site de dúvidas Quora, onde esteve activo durante dois dias em Março. Dois jornais que publicaram o seu trabalho dizem que tentaram confirmar a sua identidade, mas não conseguiram. E os especialistas em imagens falsas usaram os mais avançados programas de análise para determinar que a fotografia no perfil de Taylor é uma falsificação hiper-realista – um deepfake.

A Reuters não sabe quem está por detrás de Taylor. Chamadas feitas para o telefone no Reino Unido que forneceu aos editores foram respondidas pela gravação automática a dizer “erro” e não respondeu às mensagens enviadas para o Gmail que usou para se corresponder.

A Reuters foi alertada para a existência de Taylor pelo académico Mazen Masri, que ganhou projecção internacional em 2018, quando ajudou a lançar uma queixa em Israel contra a empresa de vigilância NSO, em nome das alegadas vítimas mexicanas da tecnologia de escutas telefónicas.

Num artigo no jornal judeu dos Estados Unidos The Algemeiner, Taylor acusa Masri e a mulher, a activista dos direitos palestinianos Ryvka Barnard, de serem “conhecidos simpatizantes do terrorismo”.

Masri e Barnard foram apanhados de surpresa pela acusação, que negam. Mas ficaram perplexos por terem sido alvos de um estudante universitário. Masri disse ter aberto a foto de Taylor. Não podia ter a certeza, mas na cara do jovem homem alguma coisa parecia “não bater certo”.

Seis especialistas ouvidos pela Reuters dizem que a imagem tem as características de uma deepfake.

“A distorção e as inconsistências no fundo dizem-nos que é uma imagem sintetizada, assim como algumas falhas à volta do pescoço”, disse o pioneiro em análise forense digital Hany Farid, que lecciona na Universidade da Califórnia – Berkeley.  

O artista Mario Klingemann, que usa com frequência deepfakes no seu trabalho, diz que a fotografia tem “todas as características” de uma deepfake. “Estou 100% certo.”

Um boneco de ventríloquo

A persona Taylor é um exemplo do fenómeno que se tornou a fonte da ansiedade da era digital: o casamento da deepfake com a desinformação.

A ameaça está a gerar cada vez mais preocupação em Washington e em Silicon Valley. No ano passado, o presidente da Comissão de Serviços Secretos da Câmara de Representantes, Adam Schiff, avisou que vídeos gerados em computador podiam “transformar um líder mundial num boneco de ventríloquo”. No mês passado, o Facebook anunciou a conclusão do seu Desafio para Detectar Deepfake – um concurso que visa ajudar investigadores a identificar automaticamente imagens falsas. Na semana passada, a revista online The Daily Beast revelou uma rede de “jornalistas deepfake” – faziam parte de um grupo de fuguras falsas que disseminava propaganda online.

Deepfakes como Taylor são perigosos, porque podem ajudar a criar “identidades totalmente impossíveis de rastrear”, afirma Dan Brahmy, cuja startup Cyabra, sediada em Israel, se especializou na identificação destas imagens.

Brahmy diz que os investigadores que estão à procura destas fotografias estão “à procura de uma agulha num palheiro, e a agulha não existe”.

Tudo indica que Taylor não teve presença online até ter começado a escrever artigos, em Dezembro do ano passado. A Universidade de Birmingham disse que não encontrava qualquer “registo de um indivíduo” com aquelas características. Os editores do Jerusalem Post e do The Algemeiner dizem que publicaram Taylor porque os artigos lhes chegaram via email. Taylor não pedia para ser pago, explicam, e eles não se esforçaram por verificar a sua identidade.

“Não somos uma operação de contra-informação”, disse o director do Algemeiner, Dovid Efune, sublinhando, porém, que depois deste caso o jornal adoptou medidas de segurança.

Depois de a Reuters ter começado a divulgar o caso Taylor, o Algemeiner e o Times of Israel apagaram os artigos. Taylor enviou-lhes emails a protestar, mas a editora de Opinião do Times of Israel, Miriam Herschlag, disse que Taylor não conseguiu provar a sua identidade e que nem respondeu às suas mensagens.

O Jerusalem Post e o Arutz Sheva mantiveram os artigos online, mas a referência “simpatizantes do terrorismo” foi retirada depois de uma queixa de Masri e Barnard. O director do Post, Yaakov Katz, não respondeu quando questionado sobre se os textos de Taylor iam manter-se. O editor do Arutz Sheva, Yoni Kempinski, disse apenas que “em muitos casos” os media aceitam pseudónimos nas assinaturas das opiniões. Não quis dizer se considera Taylor um pseudónimo.

Os artigos de Oliver Taylor não foram muito populares nas redes sociais, mas Herschlag do Times of Israel disse que ainda são perigosos – não apenas porque podem distorcer o discurso público, mas também porque deixam as pessoas na sua posição com menos vontade de apostar em colaboradores desconhecidos.

“Temos de escrutinar quem são os impostores e reforçar as nossas defesas”, disse. “Mas não quero erguer barreiras que impeçam as novas vozes de serem ouvidas.”

Sugerir correcção