Como detectar textos e imagens criados por algoritmos

Há vários programas criados para detectar imagens e textos produzidos por sistemas de inteligência artificial como o ChatGPT. O PÚBLICO compilou uma lista.

Foto
Detalhe de uma imagem criade com o Image Generator, da Microsoft, sobre máquinas que escrevem Image Generator/Microsoft

O desenvolvimento de sistemas de inteligência artificial, como o ChatGPT e o Dall-e, que são capazes de produzir conteúdo original a partir de enormes bases de dados, tem desencadeado preocupações sobre a difusão de notícias falsas, fraude e a perda de valor do trabalho de escritores e artistas visuais. Nas redes sociais, circulam relatos de professores desconfiados de textos enviados por alunos. Editoras de milhares de revistas científicas já restringiram o uso do ChatGPT como co-autor de textos e estudos académicos (a Springer Nature é um exemplo). E o relatório mais recente do banco de investimento Goldman Sachs alerta que tecnologia como o ChatGPT põe em causa 300 milhões de postos de trabalho.

Em 2023, no entanto, já há várias ferramentas para detectar textos e imagens produzidos por algoritmos. O PÚBLICO compilou uma lista de ferramentas disponíveis gratuitamente.

AI Text Classifier

Em Janeiro, a criadora do ChatGPT lançou o AI Text Classifier. Trata-se de uma ferramenta gratuita, disponível online, que analisa textos com pelo menos 1000 caracteres (entre 142 e 250 palavras). A empresa diz que o sistema funciona melhor em inglês, mas o Classifier identificou correctamente excertos criados pelo ChatGPT e por jornalistas do PÚBLICO. O modelo foi treinado com pares de textos, escritos por humanos e por algoritmos, sobre os mesmos temas.

“O nosso classificador não é totalmente fiável”, sublinha, no entanto, a equipa do ChatGPT. Por exemplo, o classificador rotula texto escrito por humanos como escrito com inteligência artificial 9% do tempo (falsos positivos). Como tal, a ferramenta não dá respostas definitivas e usa uma escala de cinco graus (provável, possível, incerto, pouco provável e muito pouco provável).

GPTZero

Quem não quer usar uma ferramenta desenvolvida pela OpenAI, pode experimentar o GPTZero. O sistema foi criado por Edward Tian, um estudante de 22 anos da Universidade de Princeton, durante as suas férias de Inverno. O GPTZero utiliza dois indicadores: perplexidade e ruptura (burstiness, em inglês). A perplexidade relaciona-se com a complexidade do texto: quanto mais complexo é um texto, maior é a probabilidade de ter origem humana. A ruptura está relacionada com a diversidade das frases. Os seres humanos tendem a escrever com uma mistura de frases complexas e simples, maiores e menores. Um texto escrito por algoritmos tende a ser mais uniforme.

Nos testes do PÚBLICO, o sistema falha em identificar correctamente textos escritos em português. Em inglês, funciona bem. Tal como a OpenAI, Edward Tian alerta que o sistema é falível. “A natureza do conteúdo gerado por IA está em constante mudança”, lê-se no site do GPTZero.

Hive

Se está com dúvidas sobre imagens, pode testar a ferramenta online da Hive, uma empresa que organiza e rotula dados para treinar sistemas de inteligência artificial. O sistema de detecção de imagens foi treinado para identificar imagens desenvolvidas por ferramentas de inteligência artificial como o Dall-e (da OpenAI), a Midjourney e a Stable Diffusion. Nos testes feitos pelo PÚBLICO, o sistema foi capaz de identificar correctamente imagens de fotógrafos humanos e imagens da Image Creator, uma ferramenta desenvolvida pela Microsoft com a tecnologia da OpenAI.

A Hive também é capaz de avaliar excertos de textos.

TurnitIn

O TurnitIn, um programa online usado por universidades para detectar plágio, lançou recentemente uma ferramenta de detecção de ensaios escritos por algoritmos. O sistema, disponível para instituições de ensino, identifica quando determinadas frases podem ter sido “geradas por inteligência artificial”.

Segundo uma análise do Washington Post, que teve acesso a uma versão inicial da ferramenta, o sistema é bom a identificar texto escrito por inteligência artificial, mas revela dificuldades quando o texto inclui porções escritas por humanos e por algoritmos. O sistema também disse que um dos textos escritos por humanos tinha sido escrito por ferramentas de inteligência artificial.

A equipa da TurnitIn diz que a análise deve ser vista como uma indicação e não como uma acusação. "O nosso trabalho é indicar informação na direcção correcta para que o professor inicie uma conversa [com o aluno]", justificou Annie Chechitelli, líder de produto do TurnitIn, em declarações ao Washington Post.

Sugerir correcção
Ler 1 comentários