Deepfakes pornográficas de Taylor Swift preocupam Casa Branca

São imagens explícitas falsas, mas convincentes o suficiente para terem sido vistas milhões de vezes durante as poucas horas em que estiveram disponíveis. X fala em “política de tolerância zero”.

Foto
Taylor Swift é a mais recente vítima famosa da divulgação de imagens falsas, deepfakes EPA/ALLISON DINNER
Ouça este artigo
00:00
03:20

As imagens pornográficas falsas de Taylor Swift, geradas por inteligência artificial (IA), estão a preocupar a Casa Branca e a causar indignação entre os fãs da cantora pop.

São imagens explícitas falsas, mas convincentes o suficiente para terem sido vistas milhões de vezes durante as poucas horas em que estiveram disponíveis. Estas imagens (e vídeos) altamente manipuladas chamam-se deepfakes (se tentarmos traduzir para português, será algo como “hiperfalsificação”).

A pornografia falsa, imagens em que um software de edição de fotografias é usado para colocar o rosto de uma pessoa numa imagem pornográfica, é um problema antigo que ganhou um novo impulso graças aos avanços da inteligência artificial, que pode ser usada para gerar imagens inteiramente novas e altamente convincentes, inclusive através de comandos de texto simples.

A Casa Branca disse que está "alarmada" com as imagens falsas e que as empresas de media têm um papel importante a desempenhar na aplicação das suas próprias regras para evitar a propagação deste (e de outros) tipo de desinformação.

"Isto é alarmante e vamos fazer o que pudermos para lidar com esta questão", disse a porta-voz da administração Biden, Karine Jean-Pierre, numa conferência de imprensa, acrescentando que o Congresso devia tomar medidas legislativas sobre esta questão.

Os responsáveis do X também avançaram que tinham várias equipas a tentar remover todas as imagens identificadas e que estavam a tomar "as medidas apropriadas contra as contas responsáveis ​​por publicá-las”, mencionando ainda "uma política de tolerância zero" relativamente à publicação não consensual de imagens de nudez. Antes de chegarem ao antigo Twitter, as imagens também foram divulgadas no Telegram.

O problema das deepfakes tem afectado tanto celebridades — desde Donald Trump a Tom Hanks e Drake — como pessoas anónimas. Mas esta tecnologia é esmagadoramente usada contra mulheres, de uma forma sexualmente exploradora: um estudo de 2019 da DeepTrace Labs, citado numa proposta de legislação dos EUA, descobriu que 96% do conteúdo de vídeo deepfake era material pornográfico produzido sem consentimento.

O facto de tais imagens afectarem desta vez Taylor Swift, segunda entre os artistas mais ouvidos do mundo na plataforma Spotify, poderá, no entanto, ajudar a sensibilizar as autoridades para o problema, perante a indignação dos seus milhões de fãs.

"O único "ponto positivo" de isto acontecer com Taylor Swift é que ela pesa o suficiente para que seja aprovada uma lei para eliminar isto", sublinhou no X Danisha Carter, influenciadora com várias centenas de milhares de seguidores nas redes sociais.

O X é conhecido por ter regras menos rígidas sobre nudez do que o Instagram ou o Facebook. A Apple e a Google têm o direito de controlar o conteúdo que circula nas aplicações através das regras que impõem aos seus sistemas operativos móveis, mas toleraram esta situação no X, até agora. Representantes da cantora norte-americana ainda não comentaram esta situação.

Alguns estados dos EUA têm a sua própria legislação contra deep fakes, mas há cada vez mais pedidos para uma mudança na lei federal. "O que aconteceu a Taylor Swift não é novo, as mulheres têm sido alvo de imagens falsas sem o seu consentimento durante anos", lembrou a congressista democrata Yvette Clarke, que apoiou uma lei para combater o fenómeno. "Com os avanços na IA, criar estas imagens é mais fácil e barato".

A legislação portuguesa ainda não contempla directamente a questão das deepfakes. Mas, como noticiou o PÚBLICO em Novembro, o enquadramento legal actual consegue dar resposta nestes casos.

Sugerir correcção
Ler 1 comentários