Topo

Salvar condutor ou pedestre? Como carros autônomos agirão em emergências

Os carros autônomos, em milésimos de segundo, terão informações para prever cenários e evitar riscos - metamorworks/iStock
Os carros autônomos, em milésimos de segundo, terão informações para prever cenários e evitar riscos Imagem: metamorworks/iStock

Paula Gama

Colaboração para o UOL

26/02/2022 04h00

Imagine a cena: duas crianças estão brincando na calçada quando, de repente, saem em disparada para buscar a bola que correu para o meio da rua. Um motorista tem algumas possibilidades de ação nesse momento - como tentar frear bruscamente ou desviar.

A grande questão é que esse condutor não consegue, em fração de segundos, calcular que a freada não seria suficiente para evitar o atropelamento dos pequenos, ou que o desvio de rota abrupto poderia levar o carro a bater em uma árvore e tirar a sua vida. Um carro autônomo, por outro lado, poderia prever todos os cenários.

  • O UOL Carros agora está no TikTok! Acompanhe vídeos divertidos, lançamentos e curiosidades sobre o universo automotivo.

A previsibilidade advinda de cálculos de massa e velocidade, que a inteligência artificial tem acesso em segundos, no entanto, cria um dilema moral. O que o sistema deve fazer? Salvar a vida das crianças reféns da imaturidade ou do condutor que passava inocente pelo caminho? Essa é uma das grandes questões em discussão quando carros que andam sozinhos estão no centro do debate.

O presidente da SAE (Sociedade de Engenheiros da Mobilidade) Brasil, Camilo Adas, explica que a tecnologia para prever cenários e avaliar riscos já existe, portanto o debate do momento é muito mais ético do que técnico.

"O veículo autônomo faz um sensoriamento do ambiente em cima de informações visuais, de radares e por meio da internet das coisas. A proposta é que, em uma cidade autônoma, todas as vias sejam conectadas e passem informações sobre a posição de veículos e pessoas a todo momento. Um cérebro eletrônico tem a habilidade de captar esses sinais em milésimos de segundo e tomar uma decisão. O fato é que o programador do algoritmo tem que decidir qual decisão a máquina deve tomar em milhares de cenários", explica.

O grande dilema atual, além de como proceder em situações de emergência como no cenário apontado no início dessa reportagem, é quem vai responder pelos eventuais danos. Se carro atropela e mata duas crianças, quem será penalizado? A montadora, o proprietário ou o programador que decidiu que, diante de uma situação dessas, a vida do condutor deveria ser privilegiada?

"Esse é o tema em debate nos países em que a discussão sobre carros autônomos está mais avançada, como Alemanha e Estados Unidos. Não é só sobre as decisões que o carro deverá tomar, mas também sobre quem responderá legalmente por elas. A tecnologia existe, mas é a ética e a moral humana que ditam como ela deve ser aplicada. É uma pergunta para a qual ainda não há uma resposta", aponta Adas.

O que é moralmente correto?

Um estudo do Instituto de Tecnologia de Massachusetts (MIT) decidiu consultar a sociedade para entender como a moral humana acredita que as máquinas deveriam agir em situações de emergência. Para isso, aponta situações hipotéticas em que a inteligência artificial precisa escolher entre que vidas salvar, e pede para as pessoas tomarem a decisão.

"A grande autonomia dada à inteligência das máquinas pode resultar em situações onde essas precisam fazer escolhas de maneira autônoma que envolvem a vida das pessoas e sua integridade física. Isso exige não apenas uma compreensão mais clara de como os seres humanos fazem essas escolhas, mas também uma compreensão mais clara de como os seres humanos percebem a inteligência da máquina fazendo tais escolhas", diz a plataforma.

O resultado parcial mostra que a maioria das pessoas acredita que a máquina deve salvar o maior número de vidas em uma situação de emergência, independente se são passageiros do carro ou pedestres. Há uma pequena preferência por salvar pessoas que não seguem as leis de trânsito - como atravessar no sinal vermelho -, além de mulheres, jovens e pessoas com o poder aquisitivo mais alto. A maioria dos participantes preferiu salvar humanos em relação a animais.

Tesla altruísta x Tesla egoísta

Para se livrar da responsabilidade de responder pelas decisões dos carros autônomos, o historiador e filósofo Yuval Harari, autor do livro "21 lições para o século XXI", aponta como uma solução para as montadoras colocar duas opções de veículos à venda: um que privilegia o condutor e os passageiros em caso de acidentes, e outro que privilegia o pedestre. Como exemplo, Harari cita um "Tesla Altruísta" e um "Tesla Egoísta".

"O Altruísta sacrifica seu dono pelo bem maior, enquanto o Egoísta vai fazer tudo que pode para salvar seu dono, mesmo que resulte no atropelamento e morte das duas crianças. Os clientes poderão comprar um modelo que se encaixe em suas visões de mundo. Logo, se modelos Egoístas forem mais vendidos a Tesla não será culpada", propõe em seu livro.

Apesar da questão hipotética, o presidente da SAE afirma que o caminho é que um só parâmetro e legislação sejam aplicados para todos os carros autônomos, com base em discussões e debates multidisciplinares.

Quer ler mais sobre o mundo automotivo e conversar com a gente a respeito? Participe do nosso grupo no Facebook! Um lugar para discussão, informação e troca de experiências entre os amantes de carros. Você também pode acompanhar a nossa cobertura no Instagram de UOL Carros.