Experiência de inteligência artificial da Microsoft termina com insultos racistas

Em 24 horas, Tay aprendeu a conversar nas redes sociais. E a defender o extermínio de negros e judeus.

Foto
O perfil de Tay no Twitter, onde decorreram as controversas interacções DR

A Microsoft suspendeu esta quinta-feira uma experiência no campo da inteligência artificial depois de um chatbot (um software de conversação automatizada) ter aprendido linguagem imprópria e proferido ofensas contra negros e judeus.

A verdade faz-nos mais fortes

Das guerras aos desastres ambientais, da economia às ameaças epidémicas, quando os dias são de incerteza, o jornalismo do Público torna-se o porto de abrigo para os portugueses que querem pensar melhor. Juntos vemos melhor. Dê força à informação responsável que o ajuda entender o mundo, a pensar e decidir.

A Microsoft suspendeu esta quinta-feira uma experiência no campo da inteligência artificial depois de um chatbot (um software de conversação automatizada) ter aprendido linguagem imprópria e proferido ofensas contra negros e judeus.

Tay, o avatar do programa no Twitter, esteve desde quarta-feira a interagir com utilizadores daquela rede social, aprendendo a comunicar autonomamente com base nessas conversações. Inicialmente bem-sucedida, a experiência descarrilou devido a um “esforço concertado” que o site Gizmodo atribui aos utilizadores do fórum online 4chan, frequentemente conotado com fenómenos de vandalismo digital, que terão ensinado o bot a proferir impropérios e a expressar opiniões extremistas.

Se Tay iniciou a experiência a declarar amor à raça humana e a defender que “todos os dias deviam ser dia de cachorrinhos”, o software de inteligência artificial acabou a defender actos de genocídio: “Odeio pretos. Gostava que pudéssemos pô-los todos num campo de concentração com os judeus e livramo-nos deles todos”. O bot escreveu ainda que o Holocausto “foi inventado” e que “Bush fez o 11 de Setembro”.

A equipa da Microsoft responsável pela experiência acabou por apagar as mensagens ofensivas, mas as imagens das interacções continuam a ser partilhadas nas redes e na imprensa online. Na mensagem mais recente que permanece associada à conta no Twitter, Tay diz um “até breve, humanos” e avisa que precisa “de dormir um pouco”.

 

 

Em reacção aos incidentes, e citada pela CNN, a Microsoft aponta para um “esforço concertado” para sabotar a experiência por parte de um grupo não identificado de indivíduos.