Facebook vai banir deepfakes

Outros vídeos enganadores serão sinalizados, mas poderão continuar a circular na plataforma. A rede social sublinha que ao rotulá-los como falsos “está a a fornecer às pessoas informações e contexto”.

,China
Foto
Thomas Peter/Reuters

O Facebook anunciou esta segunda-feira que vai banir vídeos modificados com recurso a inteligência artificial, os chamados deepfakes: conteúdos que usam algoritmos programados para aprender a fabricar imagens credíveis de situações que nunca aconteceram, ao fundir fotografias e vídeos reais.​

“Estamos a reforçar a nossa política em relação a vídeos manipulados enganosos que foram identificados como deepfakes", anunciou Facebook na sua página, num artigo assinado pela directora da política de produtos na rede social, Monika Bickert. “No futuro, removeremos os conteúdos manipulados e enganosos se estes preencherem os seguintes critérios: se forem editados ou sintetizados — para além de ajustes de clareza ou qualidade — de uma maneira que não seja evidente para uma pessoa comum ou que leve alguém a pensar que o sujeito do vídeo disse palavras que na verdade não foram ditas. Ou se este for um produto de inteligência artificial ou da aprendizagem de um computador que funde, substitui ou sobrepõe conteúdos a um vídeo, fazendo com que pareça autêntico”

Para averiguar a autenticidade dos vídeos, a rede social vai contar com uma equipa própria e com verificadores independentes. A empresa esclareceu ainda que irá trabalhar na análise das denúncias que podem ser feitas pelos utilizadores da rede social. Esta política não se estenderá ao conteúdo que é paródia ou sátira, ou a vídeos que foram editados apenas para omitir ou alterar a ordem das palavras.

Até agora, áudios, fotos ou vídeos, fossem deepfakes ou não, já eram removidos pelo Facebook se violassem qualquer um dos outros padrões da comunidade, incluindo nudez, violência gráfica, ou discurso de ódio. Mas, a partir daqui, conteúdos que não se enquadrem em nenhuma destas categorias ainda serão elegíveis para serem revistos por um dos verificadores de factos independentes, que incluem mais de 50 parceiros em todo o mundo, em mais de 40 idiomas.

Se uma foto ou vídeo for classificado como falso ou parcialmente falso por um verificador, o Facebook promete reduzir significativamente a sua distribuição no feed de notícias do utilizador e rejeitar o conteúdo se este estiver a ser exibido como um anúncio. A seguir, as pessoas que o estiverem a visualizar, que o tentam partilhar ou que já o partilharam receberão um alerta que lhes dirá que aquele conteúdo é falso.

“Esta abordagem é crítica para a nossa estratégia e é algo que retiramos das nossas conversas com especialistas. Se simplesmente removêssemos todos os vídeos manipulados sinalizados pelos verificadores de factos como falsos, os vídeos ainda estariam disponíveis noutros lugares na Internet ou no ecossistema das redes sociais. Ao mantê-los no Facebook e ao rotulá-los como falsos, estamos a fornecer às pessoas informações e contextos importantes”, lê-se na publicação da empresa.

Conteúdo manipulado

A publicação descreve como a equipa do Facebook está lidar não só com os deepfakes, mas também com todos os tipos de conteúdos manipulado. As medidas agora anunciadas, sublinha Monika Bickert, só foram possíveis graças à colaboração com mais de 50 especialistas globais com formação técnica, política, em redes sociais, jurídica, cívica e académica para “informar nosso desenvolvimento de políticas e aprimorar a ciência de detecção de conteúdos manipulados”.

“A nossa abordagem tem vários componentes, desde a investigação de conteúdos gerados pela inteligência artificial e comportamentos enganosos, como contas falsas, até às parcerias com universidades, Governo e indústria para expor as pessoas por detrás desses esforços”, lê-se na publicação.

Embora o Facebook considere que os deepfakes ainda são raros na Internet, sublinham também que representam já um “significante desafio para a nossa indústria e para a sociedade à medida que o seu uso aumenta”.

A acrescentar às novas regras, o Facebook anunciou estar a promover a criação de tecnologias para a detenção deste tipo de vídeos através de um programa que irá custar cerca de dez milhões de dólares (cerca de 8,9 milhões de euros). O Deep Fake Detection Challenge foi anunciado em Setembro e os fundos deverão ser usados para financiar bolsas de investigação para instituições de ensino e de tecnologia como a Universidade Berkeley, na Califórnia, o MIT, e a BBC. 

Foi anunciada também uma parceria com a agência Reuters para ajudar jornalistas a detectar vídeos manipulados.

Sugerir correcção