Os algoritmos não vêem tudo

Uma inocente sugestão de compras na Amazon transformou-se numa receita para bombas caseiras.

Foto
Reuters/KACPER PEMPEL

A inteligência artificial desenvolvida por pessoas brilhantes que trabalham para as multinacionais tecnológicas pode ser muito eficaz em algumas tarefas. Mas ainda há coisas que escapam completamente aos algoritmos. Recentemente, uma recomendação de compras da Amazon ilustrou-o de forma caricata.

Um trabalho jornalístico do britânico Channel 4 descobriu que os ingredientes para se fazer uma bomba caseira são sugeridos pela Amazon na lista de “comprados frequentemente em conjunto” (tradução livre). Posto de forma simplista, o site analisa o que milhões de pessoas compram e consegue perceber que quando alguém compra um determinado item (como, por exemplo, uma tenda) tende a comprar um outro produto específico (como um saco-cama). Sugerir um saco-cama a todos os que compram uma tenda (e vice-versa) ajuda a aumentar as vendas. O problema surge quando alguém compra um produto químico e as sugestões são os produtos químicos e demais materiais necessários para fazer bombas ou dispositivos incendiários. Para os algoritmos, bolas de metal (que postas numa bomba aumentam o potencial de danos) são apenas um item que frequentemente é comprado em conjunto com pólvora.

Aquelas associações emanam de comportamentos de utilizadores humanos. Mas o caso mostra como mesmo os sistemas sofisticados e aparentemente inofensivos podem tornar-se perigosos de formas inusitadas.

Quando cada vez mais aspectos da vida quotidiana são determinados por algoritmos, há potencial para estas situações se multiplicarem. Não foi à toa que a Alemanha decidiu determinar como devem os carros autónomos ser programados para as situações de acidente (obrigando-os a poupar o máximo de vidas possível, sem discriminações) e que o Facebook combina inteligência artificial e humana para gerir a torrente de conteúdos que passa pelos seus servidores. Ainda assim, nem sempre com bons resultados, como se viu esta semana, quando foi descoberto que a rede social considerava perigosa e apagava a actividade online de activistas rohynga, uma minoria étnica perseguida pelas autoridades da Birmânia.

A rubrica Tecnologia encontra-se publicada no P2, caderno de Domingo do PÚBLICO

Sugerir correcção
Ler 4 comentários