Governo britânico quer seguradoras a cobrir danos em acidentes com carros autónomos

Os automóveis que conduzem sozinhos estão a criar dúvidas sobre quem deve ser responsabilizado quando algo corre mal.

Foto
A Tesla foi ilibada de culpas num acidente nos EUA com um carro em piloto automático George Frey / Reuters

O Governo britânico quer que as seguradoras sejam obrigadas a cobrir danos no caso de acidentes com carros autónomos. Uma proposta de lei avançada nesta quarta-feira pretende que o seguro dos carros que se conduzem sozinhos passe a cobrir tanto os acidentes que acontecem quando o sistema de condução autónomo está activado, como os que acontecem quando o condutor tem o controlo total.

Na proposta do Governo, haverá apenas dois casos em que as seguradoras não têm de compensar os danos (estes incluem a morte, lesão e estrago dos bens de terceiros, mas não os estragos ao veículo em questão): quando o dono tenha feito modificações ilegais ao carro, ou quando não tenha instalado uma actualização requerida pelo software do veículo. Nestes casos, a culpa é do proprietário do carro.

O objectivo da proposta de lei é facilitar o processo de compensação das vítimas deste tipo de acidentes, quer sejam condutores de outros veículos ou peões. Contudo, as seguradoras têm a hipótese de tentar colmatar os custos ao contactar os fabricantes dos veículos em questão. Em declarações à BBC, a Associação de Seguradoras Britânicas comentou que o projecto lei “demonstra o comprometimento do Governo para avançar no sector dos veículos autónomos.”

Mesmo que a proposta de lei passe no Parlamento, continua o debate sobre quem é o responsável pelo acidente quando o condutor é uma máquina e sobre quem deve cobrir os danos. Um dos cenários, que deixaria de fora as seguradoras automóveis, é definir os fabricantes como estritamente responsáveis por quaisquer danos causados pelos seus veículos. A ideia é apoiada por algumas marcas como a Volvo, a Google e a Mercedes. A fabricante sueca Volvo foi das primeiras a anunciar a decisão de assumir a responsabilidade, num comunicado de 2015. Segundo a empresa, o seu sistema de condução autónoma fará com que a intervenção humana não seja necessária e, como tal, a culpa nunca poderá ser de um ocupante do veículo.

Nem todas as fabricantes concordam. Este ano, as autoridades tiveram de intervir após o modelo autónomo da fabricante norte-americana Tesla – O Testla Model S – causar um acidente nos Estados Unidos quando o piloto automático estava activado. No caso norte-americano, a autoridade responsável pela segurança rodoviária no país determinou que o piloto automático não apresentava defeitos e que, como tal, a culpa seria do condutor .Mas, além de questões legais, o tema dos acidentes em carros sem condutor também levanta problemas éticos. Quando não se pode evitar uma colisão, e o condutor não pode intervir, o sistema autónomo do carro tem de ser programado para tomar uma decisão.

Num estudo científico de 2016, a maioria dos inquiridos dizia que os carros deviam ser programados para poupar o maior número de vidas, mesmo que resultasse na morte dos ocupantes do veículo. Porém, não comprariam um carro capaz de agir dessa forma. Os casos ilustram os vários desafios regulatórios do sector, numa altura em que cada vez mais marcas de automóveis incorporam funcionalidades de condução assistida e abrem o caminho para carros totalmente autónomos.

Artigo editado por João Pedro Pereira

Sugerir correcção
Comentar