Experiência de inteligência artificial da Microsoft termina com insultos racistas

Em 24 horas, Tay aprendeu a conversar nas redes sociais. E a defender o extermínio de negros e judeus.

Foto
O perfil de Tay no Twitter, onde decorreram as controversas interacções DR

A Microsoft suspendeu esta quinta-feira uma experiência no campo da inteligência artificial depois de um chatbot (um software de conversação automatizada) ter aprendido linguagem imprópria e proferido ofensas contra negros e judeus.

Tay, o avatar do programa no Twitter, esteve desde quarta-feira a interagir com utilizadores daquela rede social, aprendendo a comunicar autonomamente com base nessas conversações. Inicialmente bem-sucedida, a experiência descarrilou devido a um “esforço concertado” que o site Gizmodo atribui aos utilizadores do fórum online 4chan, frequentemente conotado com fenómenos de vandalismo digital, que terão ensinado o bot a proferir impropérios e a expressar opiniões extremistas.

Se Tay iniciou a experiência a declarar amor à raça humana e a defender que “todos os dias deviam ser dia de cachorrinhos”, o software de inteligência artificial acabou a defender actos de genocídio: “Odeio pretos. Gostava que pudéssemos pô-los todos num campo de concentração com os judeus e livramo-nos deles todos”. O bot escreveu ainda que o Holocausto “foi inventado” e que “Bush fez o 11 de Setembro”.

A equipa da Microsoft responsável pela experiência acabou por apagar as mensagens ofensivas, mas as imagens das interacções continuam a ser partilhadas nas redes e na imprensa online. Na mensagem mais recente que permanece associada à conta no Twitter, Tay diz um “até breve, humanos” e avisa que precisa “de dormir um pouco”.

 

 

Em reacção aos incidentes, e citada pela CNN, a Microsoft aponta para um “esforço concertado” para sabotar a experiência por parte de um grupo não identificado de indivíduos.  

Sugerir correcção
Ler 5 comentários