O preconceito também se aprende entre algoritmos

Um estudo da Universidade de Cardiff e do MIT mostra que a inteligência artificial pode aprender a ser preconceituosa e a discriminar algoritmos diferentes sozinha.

Fotogaleria
O problema pode ser revertido ao obrigar a agentes virtuais a interagir com grupos diferentes Reuters/YUYA SHINO
Fotogaleria
A inteligência artificial programada em máquinas pode aprender a discriminar algoritmos diferentes sozinha LUSA/MIKE NELSON

Ser preconceituoso e olhar de lado para o que é diferente não requer um grande nível de intelecto ou sequer neurónios — um estudo recente sugere que pode ser uma característica que a inteligência artificial desenvolve naturalmente.

Um grupo de investigadores em programação e psicologia da Universidade de Cardiff, no Reino Unido, e do MIT, o conceituado instituto de tecnologia em Massachusetts, EUA, demonstrou que os algoritmos podem aprender, sozinhos, a pôr “o outro” de lado. 

A existência de programas de computador racistas ou sexistas não é novidade. Em 2016, a Microsoft criou um programa de inteligência artificial que aprendia ao falar com pessoas nas redes sociais, mas apenas aguentou 24 horas antes de se transformar num clone de pessoas mal-intencionadas na Internet (os chamados “trolls”, na gíria da Internet) que repetia comentários preconceituosos. Desde então, os programadores têm tido mais cuidado na criação de sistemas inteligentes, mas o estudo de Cardiff e do MIT mostra que o preconceito das máquinas não vem só dos humanos.

Os investigadores organizaram vários agentes virtuais em diferentes comunidades em que se podiam trocar recursos entre si com o objectivo de obter o maior número possível de bens. O objectivo era ver com quem é que os agentes virtuais decidiam partilhar. Surgiram duas tendências: era mais comum agentes virtuais ajudarem algoritmos semelhantes (codificados com um valor numérico aleatório parecido), e quanto menos um agente virtual específico recebia de outros, mais marginalizado este se tornava. Com o avançar do tempo na simulação, o preconceito contra grupos de algoritmos mais isolados era evidente, porque os algoritmos mais bem-sucedidos copiavam comportamentos entre si. 

De acordo com os investigadores, trata-se de uma forma abstracta do preconceito que se vê no mundo real. “Decidimos fazer esta simulação porque a cooperação é um problema complexo que as máquinas autónomas podem ter de decifrar no futuro ao tornarem-se mais comuns”, diz ao PÚBLICO Roger Whitaker, o investigador da Universidade de Cardiff que liderou o estudo. Whitaker admite que a equipa se surpreendeu com a rapidez com que o preconceito aparecia nas comunidades virtuais. 

Os investigadores propõem algumas soluções. Ao obrigar os agentes em estudo a interagir com outros agentes, repararam que estes eram capazes de aprender mais e que a existência de preconceito entre diferentes grupos diminuía. “Quando os algoritmos viam que aprender com outros grupos era benéfico, a difusão do preconceito era mais complicada”, explica Whitaker, que diz que se trata de uma táctica semelhante a expor diferentes pessoas a novas perspectivas.

“Os resultados demonstram que o preconceito não está dependente de uma cognição humana sofisticada e que pode ser manifestado em agentes com uma inteligência limitada”, ressalva, no entanto, a equipa de investigadores no relatório. “Isto traz implicações complicadas para o futuro dos sistemas autónomos e para a interacção entre humanos e máquinas.”

Sugerir correcção
Ler 3 comentários