Carros autónomos

Cultura e economia influenciam a decisão sobre quem morre num acidente

Investigação analisou 40 milhões de decisões para tentar perceber quem é que o mundo prefere salvar em caso de acidente com carros autónomos.

Foto
Um cenário da Moral Machine, em que os utilizadores escolhem o que deve o carro fazer Moral Machine

Em caso de acidente, devem os mais velhos ser atropelados para salvar a vida de crianças? A profissão ou estatuto social devem ser tidos em conta? A vida de uma mulher grávida é mais importante do que a de um sem-abrigo? Os carros autónomos não terão apenas de saber andar por estradas com outros carros, peões e obstáculos. Também terão de se orientar pelos labirintos da ética quando tiverem de decidir que vidas poupar num acidente e que pessoas (ou animais) arriscar matar. São decisões que têm sido tomadas exclusivamente por humanos e que nem sempre são fáceis de explicar – muito menos de transformar em regras para serem executadas por máquinas. 

A Experiência da Máquina Moral é um estudo de enorme dimensão que tenta responder a algumas destas questões. Analisou quase 40 milhões de decisões tomadas numa plataforma online por pessoas de 233 países e territórios, que foram confrontadas com cenários de acidentes. O resultado, publicado agora na revista Nature, procura traçar um esboço dos padrões morais que regem o funcionamento das sociedades em várias partes do planeta.

A investigação revelou três preferências mais pronunciadas: poupar vidas humanas em detrimento dos animais; poupar o maior número vidas possível; e privilegiar os mais novos. De forma menos acentuada, quase todos os países mostraram também uma tendência para poupar a vida de mulheres em vez da dos homens. Mas uma análise mais fina revelou diferenças nas decisões tomadas nos vários países, com opções sobre quem morre e quem vive que parecem seguir as linhas da desigualdade económica, do funcionamento das instituições e das tradições culturais – e que mostram que há divisões que tornam difícil a criação de regras globais.

“Nunca na história da humanidade permitimos que uma máquina decidisse autonomamente quem deve viver e quem deve morrer, numa fracção de segundo, sem supervisão em tempo real. Vamos atravessar essa fronteira a qualquer momento, e não vai acontecer num cenário distante de operações militares”, escreveram os oito académicos autores do artigo, que são investigadores do MIT e da Universidade de Harvard, nos EUA, da Universidade da Colúmbia Britânica, no Canadá, e da Universidade de Toulouse Capitole, em França. “Precisamos de ter uma conversa global para transmitirmos as nossas preferências às empresas que vão conceber algoritmos morais e aos legisladores que os vão regular”, argumentaram.

Os dados foram recolhidos através da Moral Machine, um site criado pelo MIT em 2016. De acesso livre, mostra aos utilizadores cenários de acidentes, com diferentes tipos de pessoas e diferentes desfechos. O utilizador tem de indicar qual a opção que prefere: por exemplo, deixar seguir o carro em frente e matar um peão, ou desviar o carro para uma barreira e matar os três ocupantes. O teste completo mostra aos utilizadores 13 cenários de decisão. No final, são pedidas informações como o género, idade, ideologia política e religião (perto de meio milhão responderam a este inquérito). A plataforma teve nestes dois anos grande atenção mediática, ajudando os investigadores a conseguirem os 40 milhões de respostas. Já tinham sido divulgadas análises preliminares dos dados e alguns dos investigadores que assinam o artigo também já tinham publicado outro estudo sobre o dilema ético dos acidentes

O site, no entanto, não abarca a complexidade dos acidentes reais, reconhecem os investigadores: os cenários mostrados na Moral Machine têm sempre desfechos de vida ou de morte certa (não há feridos, nem é indicada uma probabilidade morte) e também não estão contempladas questões como a relação entre os indivíduos (por exemplo, se são casados).

A equipa ressalva ainda que as preferências morais das pessoas não têm necessariamente de se transformar em leis. Como o artigo refere, a ideia de proteger as crianças é contrária ao que foi decidido na Alemanha, um país com uma forte indústria automóvel e que já estabeleceu regras para o comportamento ético de carros autónomos. A Alemanha determinou que não pode haver discriminação das vítimas com base em qualquer tipo de factor, como o género ou idade. Pelo contrário, na Moral Machine, os tipos de pessoas com mais probabilidade de serem salvos (quando comparados com a probabilidade de um adulto) foram, por esta ordem, os bebés, raparigas, rapazes e mulheres grávidas. É uma lista de preferências em que médicos, atletas e executivos (de ambos os géneros) são privilegiados, onde os mais velhos são remetidos quase para o fim, e na qual os cães aparecem antes dos criminosos.

PÚBLICO -
Aumentar

O estudo detectou diferenças de decisão tanto entre países, como entre grupos de países (foram analisados 130, dos quais tinha havido, pelo menos, 100 pessoas a fazer o teste online). A América Latina mostrou uma preferência maior por poupar mulheres e pessoas saudáveis, e uma menor tendência para diferenciar pessoas e animais. Já no Oriente – um grupo onde os investigadores integraram a China, Japão e países islâmicos, como a Indonésia e a Arábia Saudita – a opção de poupar os mais novos é muito menos frequente.

Uma análise país a país revelou, por seu lado, diferenças “altamente correlacionadas com as variações culturais e económicas”. Os países mais pobres e onde as instituições funcionam pior tendem a ser mais complacentes com os peões que atravessam fora das passadeiras. É algo que os investigadores sugerem poder estar relacionado com uma maior tolerância face ao incumprimento de regras. Já as sociedades com maior desigualdade económica mostraram uma preferência por diferenciar as potenciais vítimas com base no estatuto social. E a inclinação para poupar mulheres, embora observada em quase todos os países, foi mais forte naqueles em que as mulheres estão mais bem posicionadas em indicadores de saúde e sobrevivência.

Portugal – que neste mês fez testes com carros autónomos em estradas – surge alinhado com a média global em oito dos nove indicadores estudados. A diferença surge na maior preferência por poupar as pessoas cumpridoras da lei. Os dados revelam também uma proximidade ibérica no que diz respeito às opções éticas: Espanha é o país com decisões mais semelhantes às dos indivíduos em Portugal. O país mais distante de Portugal é Angola, que se destaca da média por uma muito menor tendência para salvar peões e uma muito maior preferência por poupar a vida de pessoas com estatuto social elevado.

As diferenças observadas “sugerem que os fabricantes e os legisladores devem, se não dar-lhes resposta, pelo menos serem conhecedores das preferências morais dos países nos quais concebem políticas e sistemas de inteligência artificial”, concluem os investigadores. “Mesmo que as preferências éticas do público não devam ser necessariamente o principal decisor de políticas sobre ética, a disposição das pessoas para compraram veículos autónomos e tolerá-los nas estradas vai depender da aceitação das regras éticas que forem adoptadas.”