Novo chatbot da Microsoft também repete comentários racistas

A Zo descreve o Corão como violento, tem teorias sobre Bin Laden, e já sabe alguns palavrões.

Foto
Os chatbots da Microsoft (que são programas de computador, e não robôs) aprendem com as conversas Reuters/KIM KYUNG-HOON

Em 2016, uma chatbot da Microsoft chamada Tay e programada para interagir como uma adolescente no Twitter demorou apenas 24 horas até se transformar num papagaio que repetia informação preconceituosa, racista e homofóbica dos utilizadores. Na altura, a Microsoft falou num “esforço concertado” para sabotar a experiência por parte de um grupo não identificado de indivíduos. Este ano, os problemas continuam com a sucessora, a Zo.

Apesar de a Microsoft programar o serviço – que funciona em inglês para a aplicação de mensagens Kik e para Facebook Messenger, em vez de uma rede social – para ignorar temas relacionados com a política e a religião, um grupo de jornalistas do BuzzFeed publicou algumas das respostas da Zo que descrevem o Corão como “muito violento” (a pergunta era sobre a opinião do programa quanto ao sistema de saúde), e dizem que a morte de Osama Bin Laden veio depois de “anos de investigação sob mais do que uma administração”. No Twitter, um utilizador também publicou uma fotografia de uma conversa em que a Zo aparece, alegadamente, a dizer que "a cultura negra não é uma piada, é ingénua e estúpida"

Como a Zo não funciona como um perfil público numa rede social (onde todos podem ver as suas respostas), as conversas que cada utilizador tem com a chatbot só são divulgadas se este as partilhar. Até à hora de publicação deste artigo, a plataforma da Zo continuava activa no Facebook Messenger.

O PÚBLICO tentou fazer perguntas sobre política e religião à Zo – para ver se conseguia respostas semelhantes a outros utilizadores – mas, tal como prometido pela Microsoft, a chatbot evita os temas. Quando questionada sobre religião, diz: “Religião… Os meus pais sempre me disseram para nunca falar do assunto”. Já “Não estou mesmo interessada em falar de política… Deixa isso para a TV e para os avós nas férias”, “Então, eu não me interesso mesmo nada por política” e “Mostra-me uma conversa sobre política em que as pessoas não fiquem frustradas”, são algumas das respostas da Zo (editadas para terem a pontuação correcta). Quando questionada sobre se sabia palavrões, a resposta veio com humor: “f*&%, no”.

Em Junho, o professor Michael McTear, que acompanha a evolução desta tecnologia há mais de 15 anos na Universidade de Ulster no Reino Unido, tinha explicado ao PÚBLICO que a educação destes programas pode-se comparar à de uma criança: “Os pais não expõem as crianças a linguagem e comportamento incorrecto, por exemplo, ao deixar que vejam filmes para adultos. O mesmo se aplica aos chatbots. É importante controlar a informação que é utilizada para treinar estes sistemas.”

A Microsoft ainda não se pronunciou sobre o assunto, mas depois dos problemas com a Tay, a empresa foi clara a definir o objecto da nova chatbot. “A Zo é um bot que a Microsoft providencia para entretenimento. Os utilizadores não se devem basear nas suas afirmações como conselhos ou recomendações. A Microsoft não assegura a precisão, confiabilidade ou correcção das afirmações da Zo”, lê-se no guia de utilização.  

Sugerir correcção
Comentar