“O governo chinês acredita que criou um sistema que consegue prever crimes”

A China está a usar um sistema de inteligência artificial que alegadamente detecta “pensamentos terroristas” para vigiar as minorias muçulmanas no país. A tecnologia é descrita, em detalhe, no mais recente livro do repórter de investigação Geoffrey Cain. “O sistema funciona porque toda a gente tem medo”, diz ao PÚBLICO.

Foto
Aly Song

Há cerca de cinco anos que a população de Xinjiang, no nordeste da China, vive com medo de fazer a coisa errada sem saber — especialmente, se fizerem parte de uma das minorias muçulmanas a viver na região. Desde 2017, pelo menos 1,8 milhões de uigures e membros de outras minorias étnicas naquela região foram enviados para campos de detenção por pensarem da forma errada (o governo acusa-os de possuir “pensamentos terroristas” e “vírus ideológicos"). A decisão é feita por um sistema de inteligência artificial que combina dados das centenas de câmaras nas ruas e programas que analisam o que os cidadãos fazem no telemóvel. Ser apanhado com uma app do Corão é motivo para detenção, mas na maioria das vezes não se sabe o que desencadeia um alerta.

Os leitores são a força e a vida do jornal

O contributo do PÚBLICO para a vida democrática e cívica do país reside na força da relação que estabelece com os seus leitores.Para continuar a ler este artigo assine o PÚBLICO.Ligue - nos através do 808 200 095 ou envie-nos um email para assinaturas.online@publico.pt.
Sugerir correcção
Ler 22 comentários