Calvin D. Lawrence: “A inteligência artificial tende a falhar porque há preconceitos na nossa cultura”

A inteligência artificial pode ter efeitos perniciosos, com viés racista, por exemplo. Calvin D. Lawrence pede maior consciencialização das empresas e a aprovação de regulação para a tecnologia.

Foto
Calvin D. Lawrence alerta para a forma como a inteligência artificial aprofunda o racismo sistémico DR
Ouça este artigo
00:00
13:01

Ao conduzir até casa, depois de jantar, uma luz no painel do carro acende-se: a pressão do pneu cai abruptamente, é um furo. Calvin D. Lawrence encosta e não tem pneu suplente. Telefona para a assistência em viagem e a ajuda chega ao cabo de 90 minutos. “Não sabia que o meu carro estava estacionado num ‘ponto preditivo’, que é uma área determinada por um algoritmo, e usada pela polícia de Atlanta [nos Estados Unidos], onde é mais provável ocorrer um crime”, conta o engenheiro da IBM, uma das maiores empresas de tecnologia do mundo, no livro Hidden in White Sight: How AI Empowers and Deepens Systemic Racism (Escondido no Olhar Branco: Como a Inteligência Artificial Reforça e Acentua o Racismo Sistémico, numa tradução livre). O polícia parou, pediu os documentos e questionou o motivo de Calvin D. Lawrence estar ali. “O polícia disse que estar naquela zona já era motivo para suspeitas.”

Os leitores são a força e a vida do jornal

O contributo do PÚBLICO para a vida democrática e cívica do país reside na força da relação que estabelece com os seus leitores.Para continuar a ler este artigo assine o PÚBLICO.Ligue - nos através do 808 200 095 ou envie-nos um email para assinaturas.online@publico.pt.
Sugerir correcção
Ler 6 comentários