actualidade,p3,inteligencia-artificial,redes-sociais,internet,ciberseguranca,
Unsplash

Como um serviço obscuro de inteligência artificial transformou milhares de fotos de mulheres em fake nudes

Serviço acontece através de um chatbot automático na aplicação de mensagens Telegram. Utilizadores submetem uma fotografia de uma qualquer mulher vestida e recebem uma versão alterada sem roupa. Só funciona com fotos de mulheres.

Um serviço de inteligência artificial (AI, sigla em inglês) disponível na Internet tem sido utilizado para transformar mais de 100 mil nudes (fotos nuas) de mulheres, sem o conhecimento ou o consentimento delas, provocando o receio de uma nova vaga de deepfakes (manipulação de imagem ou vídeo para criar conteúdo falso) prejudiciais que podem vir a ser usadas para assédio ou chantagem.

Os utilizadores do serviço podem submeter, anonimamente, uma fotografia de uma mulher vestida e recebem uma versão alterada sem roupa. A tecnologia AI, formada a partir de grandes bases de dados de fotografias nuas reais, pode gerar falsificações semelhantes à realidade, combinando o tom de pele e trocando por seios e genitais o que antes era roupa. Os rostos das mulheres permanecem visíveis e nenhuma legenda marca as imagens como falsas. Algumas das imagens originais correspondem a raparigas com menos de 18 anos.

O serviço, que permite às pessoas fazer novas encomendas através de um chatbot automático na aplicação de mensagens Telegram, foi descoberto pela primeira vez por investigadores da Sensity, uma empresa de cibersegurança sediada em Amesterdão que partilhou as suas conclusões com o The Washington Post.

O chatbot e outros canais afiliados foram utilizados por mais de 100 mil membros em todo o mundo, descobriram os investigadores. Numa sondagem interna, os utilizadores disseram que cerca de 63% das pessoas que queriam despir eram raparigas ou mulheres que conheciam da vida real.

Giorgio Patrini, o director executivo do grupo, disse que o chatbot marca uma mudança sombria na forma como a tecnologia é utilizada, desde falsificar imagens de celebridades e figuras conhecidas até visar mulheres que estão longe dos olhos do público.

“O facto é que, hoje em dia, todos nós, apenas por termos uma conta nas redes sociais e publicarmos fotos nossas e das nossas vidas, estamos sob ameaça”, disse Patrini numa entrevista. “O simples facto de termos uma persona online torna-nos vulneráveis a este tipo de ataque.”

O crescimento do chatbot sinaliza a rapidez com que a tecnologia por detrás das imagens falsas se tornou omnipresente. Há dez anos, a criação de uma falsificação igualmente convincente teria necessitado de ferramentas avançadas de edição de imagem e habilidade considerável. Mesmo há poucos anos, a criação de uma falsa nudez real usando tecnologia de AI (tal como os vídeos porno “profundamente falsos” nos quais celebridades femininas, jornalistas e outras mulheres foram sobrepostos em cenas de sexo) exigia grandes quantidades de dados de imagem e recursos informáticos para terminar o trabalho.

A australiana Noelle Martin descobriu, por acaso, que a sua imagem estava a ser manipulada e partilhada em sites de pornografia. O PÚBLICO falou com ela em 2019

Mas com o chatbot, criar uma representação nua do corpo de alguém é tão fácil como enviar uma imagem a partir do smartphone. O serviço também reúne todos os novos nus falsos em galerias de fotos actualizadas diariamente. Mais de 25 mil contas já subscreveram para actualizações diárias. A maioria dos utilizadores encontra-se na Rússia, segundo inquéritos internos, mas também há membros dos Estados Unidos e de toda a Europa, Ásia e América do Sul.

Os novos utilizadores podem pedir os primeiros nus falsos gratuitamente, mas são estimulados a pagar por mais fotos. O preço para iniciantes é de 100 rublos (cerca de 1,11 euros) e oferece 100 fotos falsas durante sete dias. Os membros premium podem ainda pedir que as fotos falsas sejam criadas sem marca de água e escondidas da galeria pública.

O administrador do chatbot, que o The Washington Post entrevistou através de mensagens no Telegram, recusou-se a dar o seu nome, mas defendeu a ferramenta como uma forma inofensiva de “voyeurismo” sexual e disse que os seus operadores não assumem qualquer responsabilidade pelas mulheres visadas pela base de utilizadores. Aludindo à postura boys-will-be-boys (“rapazes vão ser rapazes”), os logótipos do serviço apresentam um homem sorridente e uma mulher a ser observada com óculos de raio-X.

Porém, especialistas em tecnologia e jurídicos argumentam que o software está a usar as fotografias das mulheres como armas contra elas próprias, objectificando-as para um grupo de estranhos anónimos, prevendo uma nova era de pornografia de vingança.

Alguns gigantes da tecnologia tomaram uma posição contra os deepfakes e outros “meios manipulados”. Mas como o código do sistema já foi amplamente partilhado por imitadores, os peritos não vêem uma forma clara de impedir que software semelhante seja criado e hospedado na dark web.

Quem são estas mulheres?

Algumas das mulheres visadas são artistas populares ou influencers nas redes sociais com muitos seguidores. Mas muitas das que são vistas nas fotos publicamente disponíveis pelo bot são trabalhadoras do dia-a-dia, estudantes universitárias e outras mulheres, cujas imagens são frequentemente retiradas das suas redes sociais, como TikTok ou Instagram.

Danielle Citron, uma professora de Direito da Universidade de Boston que investiga a degradação online da “privacidade íntima”, disse ter entrevistado dezenas de mulheres sobre a experiência de ter nudes reais ou fabricadas partilhadas online. Muitas disseram sentir angústia sobre a forma como as imagens tinham sido vistas e guardadas por estranhos - e, potencialmente, por colegas de trabalho ou de turma.

“Tiraste a minha identidade e transformaste-a em pornografia… Isso parece tão visceral, prejudicial, errado”, disse uma mulher a Citron. “O teu corpo está a ser levado e despido sem a tua permissão e há provas disso. Mas tu sabes que isso não aconteceu. Quando o vês, contudo, parece que sim, e sabes que os outros nem sempre saberão”, respondeu a investigadora. “A vulnerabilidade que [esta situação] cria na forma como vemos a nossa segurança no mundo: uma vez que se tira isso de alguém, é muito difícil de devolver”, acrescentou.

O bot dá conselhos aos utilizadores sobre como submeter os pedidos, recomendando que as fotos originais sejam centradas nos seios das mulheres, em roupa interior ou fato de banho para melhores resultados. Mas muitas das imagens mostram mulheres em trajes escolares não reveladores ou roupas do dia-a-dia. Pelo menos uma mulher tinha um vestido de noiva. Uma jovem tinha várias fotografias suas submetidas no serviço, algumas das quais incluíam um biquíni falso inserido por cima da sua roupa normal - provavelmente uma tentativa de melhorar o desempenho do bot.

Este serviço, contudo, só funciona em mulheres. Ao submeter a imagem de um homem (ou até de um objecto), a foto será transformada para incluir seios e órgãos genitais femininos. Por exemplo, numa foto de um gato, os olhos do animal foram trocados pelo que pareciam ser mamilos.

O administrador do bot disse ao The Washington Post, numa conversa privada, que não se responsabilizava pela forma como as pessoas utilizavam o software, que, de qualquer forma, estaria disponível gratuitamente. “Se uma pessoa quiser envenenar outra, fá-lo-á sem nós, e será ele o responsável pelas suas acções”, escreveu o administrador.

Os investigadores da Sensity contaram mais de 104 mil imagens de mulheres alteradas para aparecerem nuas e partilhadas em público. Mas outro site que trabalha para a Sensity sugere que o número é muito superior, com 687.322 “raparigas nuas” e 83.364 “homens apreciaram”. O administrador do bot indicou que o número era aleatório, apenas para publicidade, pois não mantêm estatísticas das fotos processadas.

Apesar de os deepfakes serem visualmente realistas, “eles não são perfeitos”. Os conselhos de Siwei Lyu, professor de Ciências da Computação na Universidade de Albany, para detectar um vídeo falso

As regras do bot dizem que o mesmo não permite que os nus sejam feitos a partir de raparigas menores de idade. Mas as colecções visíveis publicamente apresentam adolescentes, incluindo uma personalidade popular do TikTok com 16 anos.

O administrador disse que o sistema foi concebido apenas para satisfazer as fantasias dos utilizadores e que todos os que vissem as imagens perceberiam que eram falsas. “Exagera muito a realidade”, afirmou o administrador. “Cada foto mostra muitos píxeis quando se faz zoom. Tudo o que lhe permite fazer é tornar a fantasia numa realidade.”

O administrador referiu ainda que o serviço não recebeu “uma única queixa de uma rapariga durante todo o período” de funcionamento, tentando ainda transferir a culpa para as vítimas dos deepfakes por publicarem as suas imagens online. Para o bot trabalhar, “é necessária uma fotografia em fato de banho ou com uma quantidade mínima de roupa”, explicou. “Uma rapariga que coloca uma foto em fato de banho na Internet para que todos possam ver – qual o objectivo? (…) 90% destas raparigas partilha tais imagens para atrair a atenção, concentrando-se na sexualidade.”

Contudo, na sequência de perguntas do The Washington Post, o administrador admitiu que tinham desactivado o chat e as características da galeria pública devido a várias queixas. Todavia, o serviço de produção de novas imagens e as fotos já criadas permaneceram online.

Os representantes do Telegram, que oferece funções de encriptação e conversação privada, não responderam ao The Post.

O software

Britt Paris, professora na norte-americana Universidade Rutgers que investigou deepfakes, disse que os manipuladores têm vindo a caracterizar o seu trabalho como experimentação de novas tecnologias. Mas esse argumento ignora quão misóginas e agressivas as fotos podem ser. “Estas comunidades amadoras online falam sempre sobre isso em termos de: ‘Estamos apenas a brincar com imagens para nos divertirmos'”, afirmou. “Mas isso encobre todo este problema que, para as vítimas, pode perturbar as suas vidas de muitas formas.”

O bot foi construído em software de “tradução de imagem para imagem” de código aberto, conhecido como pix2pix, revelado pela primeira vez em 2018 por investigadores de AI da Universidade Berkeley, na Califórnia. Ao alimentar o sistema com muitas imagens reais, ele reconhece padrões visuais e, por sua vez, cria as próprias falsificações, transformando fotografias de paisagens de dia para noite, ou a cores o que era a preto e branco.

O software baseia-se numa descoberta de AI conhecida como redes adversas generativas (GAN, na sigla em inglês), que ficou popular nos últimos anos pela capacidade de processar vários dados e criar vídeos, imagens e passagens de texto realistas.

Excerto de deepfake fabricado para uma reportagem do site norte-americano BuzzFeed, em que um actor dá voz à figura de Barack Obama

Os investigadores por detrás da pix2pix celebraram os potenciais benefícios para artistas e criadores visuais. Todavia, em 2019, um programador anónimo treinou o software com milhares de fotos de mulheres nuas, ensinando-o a transformar as mulheres vestidas em nuas.

Depois da Motherboard ter escrito, em 2019, sobre a aplicação, chamada DeepNude, o programador reagiu colocando a aplicação offline e dizendo que “a probabilidade de as pessoas a utilizarem indevidamente é demasiado elevada”. O pioneiro de deep-learning, Andrew Ng, chamou ao DeepNude “uma das aplicações mais repugnantes da AI”, apelando ainda à comunidade de AI para que usasse os seus “poderes em projectos dignos que fazem avançar o mundo”.

Mas a existência do chatbot mostra como será virtualmente impossível erradicar completamente o software. O código original da aplicação foi guardado e amplamente distribuído online, incluindo em sites com fins lucrativos que se oferecem para gerar imagens em troca de uma pequeno preço.

Hany Farid, cientista informático da Universidade de Berkeley especializado em investigação forense de imagens digitais e que não estava envolvido na pesquisa original de pix2pix, afirmou que este sistema realça como a homogeneidade masculina dentro das equipas de AI deixa frequentemente as mulheres a lidar com o seu lado mais obscuro.

Os investigadores de AI, disse, abraçaram durante muito tempo uma visão utópica da tecnologia, publicando abertamente ferramentas não regulamentadas sem considerar como estas poderiam ser mal utilizadas no mundo real. “É apenas mais uma forma que as pessoas encontraram para usar a tecnologia contra as mulheres. A partir do momento em que este material [as fotos] está online (…), cada potencial namorado ou namorada, o seu empregador, a sua família, pode acabar por vê-lo”, lamentou. “É horrível e as mulheres estão a sofrer as consequências disso. Será que um laboratório não dominado por homens teria sido tão arrogante e tão descuidado? Teriam [os investigadores de AI] feito o mesmo se lhes estivesse a acontecer a eles, ao invés de alguma mulher ao fundo da rua?”

Esse problema já é uma realidade para muitas mulheres em todo o mundo. Uma mulher visada pelo bot, estudante de arte na Rússia que pediu para permanecer anónima porque não queria envolver-se com estas “pessoas estúpidas”, teve uma foto sua, em top de alças, retirada do Instagram e transformada num falso nu. Numa entrevista, indicou que seria alguém a manchar o seu nome, mas disse estar grata por haver pessoas suficientes que a conheciam para perceber que provavelmente não era real.

“Os vigaristas que fazem este tipo de imundice não terão sucesso”, disse ela. “Acredito no karma, e o que lhes aparecerá não será mais limpo do que as suas próprias acções.”

Exclusivo PÚBLICO/The Washington Post

Sugerir correcção