"Ver para crer" deixou há muito de ser sabedoria popular válida.

Por estes dias, circulou pelas redes sociais uma adulteração de um artigo do PÚBLICO que é um exemplo clássico da desinformação a que nos habituámos a chamar fake news.

Uma imagem mostrava um suposto artigo de opinião da deputada Isabel Moreira sobre as duas morte no Centro Ismaili, em Lisboa. O título era "O refugiado afegão merece toda a nossa compaixão"; a – muito inverosímil – "entrada"  (termo que na gíria da imprensa designa o pequeno texto abaixo do título e antes do artigo) era: "Apesar deste pequeno incidente com as vítimas, as manchas de sangue serão lavadas no Centro Ismaeli [sic] mas jamais o trauma irá sair da cabeça deste pobre refugiado afegão".

 
           
          Conteúdo patrocinado          
          Green Cloud: a sustentabilidade mora aqui

Mais do que uma mera tendência, a Green Cloud é a resposta para as organizações que querem adoptar a cloud, mas com o mínimo impacto ambiental possível. Pedro Miguel Cruz, da NTT DATA, explica como.

         
           
 

A imagem foi partilhada no Twitter e noutras plataformas.

Trata-se de um exemplo básico de fake news, com indícios evidentes de manipulação, mas que facilmente engana utilizadores na Internet, em particular aqueles com menor literacia. Para além da inverosimilhança e fraca qualidade do texto, a palavra "Entrevista" em letras vermelhas no que seria um artigo de opinião era outro sinal óbvio da fraude.

Este é o artigo a partir do qual a mentira foi produzida e que é, de facto, uma entrevista a Isabel Moreira, feita em Novembro.

Deixando de lado vieses cognitivos, tempos de atenção curtos, reforço de preconceitos, lacunas de literacia digital e outras questões desse foro, há duas vertentes bem identificadas que facilitam a desinformação: a facilidade de propagação (das redes sociais aos sites inteiros montados para o efeito); e a facilidade de criação. 

É argumentável que as plataformas online já foram um Oeste mais selvagem e que fazem hoje um esforço mínimo para mitigar a primeira vertente do problema. Mas as novas ferramentas da chamada inteligência artificial generativa prometem agravar a segunda.

Da inteligência artificial generativa fazem parte os "grandes modelos de linguagem", como os GTP-3 e GPT-4, que alimentam o famoso ChatGPT. Mas é uma categoria em que também se inserem os sistemas que permitem a criação de imagens a partir de texto simples, como o Dall-e (da mesma OpenAi que criou o ChatGPT) e o Stable Diffusion. Pede-se uma chávena de café numa varanda com a Torre Eiffel ao fundo, e a máquina gera a imagem em segundos. Pedidos mais sofisticados permitem resultados mais convincentes ou mais "artísticos", consoante a intenção.

A criação de imagens, incluindo imagens com um realismo fotográfico, a partir de uma ou duas frases é uma ferramenta poderosa. Existe todo um ecossistema de serviços em torno desta tecnologia. Há blogues que explicam como obter os resultados pretendidos. Há sites que vendem imagens geradas por inteligência artificial e outros que vendem as instruções específicas para se obterem determinados resultados. Arte gerada por inteligência artificial é hoje um dos muitos mundos da Internet (e fora dela), com sites e fóruns que agregam utilizadores entusiasmados. 

Foi graças a este género de técnicas que há poucos dias correu pela Internet uma imagem do Papa vestido com um improvável casaco almofadado, num caso que começou como uma brincadeira. Também não faltou quem, na sequência de notícias recentes, gerasse múltiplas imagens de Donald Trump a ser preso pela polícia

Nem a tecnologia, nem o problema são novos.

Em 2019, ainda a inteligência artificial generativa não era um tema da moda, foi notícia que uma organização de inteligência artificial financiada por Elon Musk tinha algoritmos capazes de escrever notícias falsas. Os próprios investigadores diziam estar preocupados com isso e não queriam revelar como o tinham feito. Os algoritmos eram o modelo de linguagem GPT-2, precursor dos actuais GPT. Desde então, o salto na tecnologia foi enorme. 

Não é fácil distinguir o que é entusiasmo passageiro em torno da inteligência artificial generativa e o que é tecnologia a trilhar caminho com uma rapidez estonteante. Na semana passada, vários especialistas (e personalidades como Musk ou o co-fundador da Apple Steve Wozniak) assinaram um pedido para que seja feita uma pausa no desenvolvimento daqueles sistemas, e para que sejam montadas balizas que orientem e escrutinem a tecnologia. (Em Itália, o ChatGPT foi bloqueado pelas autoridades, mas essa decisão deveu-se a preocupações com a privacidade dos dados.)

Na sua coluna aqui no PÚBLICO, o académico Arlindo Oliveira explica por que não quis assinar o documento e, entre outras considerações que merecem leitura, argumenta que os grandes modelos de linguagem não vêm acrescentar muito às ferramentas de produção de desinformação que já tínhamos. Talvez assim seja no que diz respeito a texto; mas, no caso da produção de imagens, a história parece ser outra: a fasquia de criação digital de imagens fotorrealistas nunca esteve tão baixa; e ainda tem margem para baixar. A criação de vídeos está a ir pelo mesmo caminho.

Há um duplo efeito pernicioso num mundo em que produzir desinformação é progressivamente mais fácil: não apenas proliferam mentiras, como aquilo que é verdadeiro passa a ser visto com desconfiança, podendo ser descartado como fake news. Corremos todos os dias o duplo risco de acreditar em falsidades e de não acreditar em factos. A solução não é pôr a tecnologia em suspenso, um tipo de medida que tende a ser quixotesco. É dotar as pessoas das ferramentas que lhes permitam fazer a destrinça.