Topo

Anda mesmo sozinho? Tesla vira alvo de autoridades após série de acidentes

Carro de polícia é atingido por Tesla com Autopilot ligado - Reprodução/Reuters
Carro de polícia é atingido por Tesla com Autopilot ligado Imagem: Reprodução/Reuters

Hyunjoo Jin, Mike Spector e David Shepardson

Em São Francisco, Nova York e Washington (EUA)

26/09/2021 04h00

Robin Geoulla tinha dúvidas sobre a tecnologia de direção automatizada equipada em seu Tesla Model S quando comprou o carro elétrico em 2017.

"Foi um pouco assustador, sabe, confiar nele somente, sentar e deixar que ele dirigisse", disse a um investigador dos EUA sobre o sistema de Autopilot da Tesla, descrevendo seus sentimentos iniciais sobre a tecnologia.

Geoulla fez os comentários ao investigador em janeiro de 2018, dias depois que seu Tesla, com o Autopilot acionado, bateu na traseira de um caminhão de bombeiros vazio estacionado em uma rodovia interestadual da Califórnia. A Reuters não conseguiu contatá-lo para comentários adicionais.

Com o tempo, as dúvidas iniciais de Geoulla sobre o Autopilot diminuíram e ele o achou confiável ao ver que rastreava um veículo à sua frente. Mas ele percebeu que o sistema às vezes parecia confuso quando confrontado com a luz direta do sol ou um veículo na frente dele mudando de faixa, de acordo com uma transcrição de sua entrevista com um investigador da National Transportation Safety Board (NTSB).

Ele estava dirigindo com sol no horizonte antes de bater na traseira do caminhão de bombeiros, segundo reportou ao investigador.

O Autopilot permitiu que Geoulla não estivesse em contato com a direção durante sua viagem, e suas mãos ficaram fora do volante por quase todo o período de cerca de 30 minutos em que a tecnologia esteve ativada, de acordo com a NTSB.

A agência dos Estados Unidos, que faz recomendações, mas não tem poderes de fiscalização, já havia cobrado reguladores da National Highway Traffic Safety Administration (NHTSA) a investigarem as limitações do Autopilot, o potencial de uso indevido de motoristas e possíveis riscos de segurança após uma série de acidentes envolvendo a tecnologia - alguns deles fatais.

Tesla com Autopilot ligado acertou carro de polícia em cheio no Estado de Washington em maio passado - Reprodução - Reprodução
Tesla com Autopilot ligado acertou carro de polícia em cheio no Estado de Washington em maio passado
Imagem: Reprodução

"O passado mostrou que o foco estava na inovação em relação à segurança, e espero que estejamos em um ponto em que esta maré esteja mudando", disse a nova presidente do NTSB, Jennifer Homendy, à Reuters em entrevista.

A Tesla não respondeu perguntas feitas pela reportagem.

O Autopilot é um recurso avançado de assistência ao motorista cuja versão atual não torna os veículos autônomos, afirma a empresa em seu site. A Tesla diz que os motoristas devem manter as mãos no volante e o controle de seus veículos antes de habilitar o sistema.

Visibilidade limitada

Sistema de condução semiautônoma da Tesla em tese exige atenção total do motorista o tempo todo - Vitor Matsubara/UOL - Vitor Matsubara/UOL
Sistema de condução semiautônoma da Tesla em tese exige atenção total do motorista o tempo todo
Imagem: Vitor Matsubara/UOL

O acidente de Geoulla em 2018 é um dos 12 envolvendo o Autopilot que os funcionários da NHTSA estão examinando como parte da investigação de maior alcance da agência desde que a Tesla introduziu o sistema de direção semiautônomo em 2015.

A maioria dos acidentes sob investigação ocorreu depois do anoitecer ou em condições que criam visibilidade limitada, como com luz do sol forte, de acordo com comunicado da NHTSA, documentos da NTSB e relatórios policiais revisados.

"Agiremos quando detectarmos um risco irracional à segurança pública", disse um porta-voz da NHTSA em comunicado à Reuters.

Desde 2016, os reguladores de segurança automotiva dos EUA enviaram separadamente 33 equipes especiais de investigação para analisar os acidentes da Tesla envolvendo 11 mortes nas quais sistemas avançados de assistência ao motorista eram suspeitos de estar em uso. A NHTSA descartou o uso do Autopilot em três desses acidentes não fatais.

A investigação atual da NHTSA sobre o Autopilot reabre a questão de saber se a tecnologia é segura. Isso representa o mais recente desafio significativo para Elon Musk, o presidente-executivo da Tesla cuja defesa dos carros sem motorista ajudou sua empresa a se tornar a montadora mais valiosa do mundo.

A Tesla cobra dos clientes até US$ 10 mil (R$ 53 mil) por recursos avançados de assistência ao motorista, como mudança de faixa, com a promessa de eventualmente fornecer capacidade de direção autônoma para seus carros usando apenas câmeras e software avançado. Outras montadoras e empresas autônomas usam não apenas câmeras, mas hardware mais caro e radar.

Musk disse que um Tesla com oito câmeras será muito mais seguro do que motoristas humanos. Mas a tecnologia da câmera é afetada pela escuridão e pelo brilho do sol, bem como por condições climáticas adversas, como chuva forte, neve e neblina, dizem especialistas e executivos da indústria.

"A visão computacional de hoje está longe de ser perfeita e será no futuro", disse Raj Rajkumar, professor de engenharia elétrica e de computação na Carnegie Mellon University.

No primeiro acidente fatal nos EUA envolvendo a tecnologia de direção semiautônoma da Tesla, que ocorreu em 2016 a oeste de Williston, Flórida, a empresa disse que tanto o motorista quanto o Autopilot não conseguiram ver o lado branco de um trailer contra um céu fortemente iluminado. Em vez de frear, o Tesla colidiu com o caminhão de 18 rodas.

Mau uso pelo motorista e falha na frenagem

A NHTSA em janeiro de 2017 fechou uma investigação do Autopilot decorrente daquele acidente fatal, não encontrando nenhum defeito no desempenho do sistema após falar com funcionários da Tesla, de acordo com documentos.

Em dezembro de 2016, como parte dessa investigação, a agência pediu à Tesla para fornecer detalhes sobre a resposta da empresa a quaisquer preocupações de segurança internas levantadas sobre o Autopilot, incluindo o potencial uso indevido ou abuso do motorista.

Depois que um advogado da NHTSA não ficou satisfeito com a resposta inicial da Tesla, o então advogado geral de Tesla, Todd Maron, tentou novamente. Ele disse aos reguladores que o pedido era "grosseiramente amplo" e que seria impossível catalogar todas as preocupações levantadas durante o desenvolvimento do Autopilot, de acordo com a mensagem à qual a Reuters teve acesso.

No entanto, a Tesla queria cooperar, Maron disse aos reguladores. Durante o desenvolvimento do Autopilot, funcionários da empresa ou contratados levantaram questões que a Tesla abordou em relação a diversos aspectos como: potencial de frenagem e aceleração não intencionais ou com falha; direção indesejada ou falha; e certos tipos de uso indevido e abuso por parte dos motoristas, disse Maron, sem fornecer mais detalhes.

Maron não respondeu às mensagens solicitando comentários.

Não está claro como os reguladores responderam. Um ex-funcionário do governo dos EUA disse que a Tesla geralmente cooperava e produzia os materiais solicitados prontamente. Os reguladores fecharam a investigação pouco antes da posse do ex-presidente dos Estados Unidos Donald Trump, concluindo que o Autopilot funcionou conforme projetado e que a Tesla tomou medidas para evitar que ele fosse mal utilizado.

Vácuo de liderança na NHTSA

A NHTSA está sem um chefe confirmado pelo Senado há quase cinco anos. O presidente Joe Biden ainda não nomeou ninguém para dirigir a agência.

Os documentos da NHTSA mostram que os reguladores querem saber como os veículos da Tesla veem luzes piscando em veículos de emergência ou detectam a presença de caminhões de bombeiros, ambulâncias e carros de polícia em seu caminho. A agência também buscou informações semelhantes de 12 montadoras rivais.

"A Tesla foi solicitada a produzir e validar dados, bem como sua interpretação desses dados. A NHTSA conduzirá a própria validação e análise independente de todas as informações", disse NHTSA à Reuters.

Musk, o pioneiro dos carros elétricos, tem lutado muito para defender o Autopilot dos críticos e reguladores. A Tesla usou a capacidade do Autopilot para atualizar o software do veículo remotamente e contornar o processo tradicional de recall de veículos.

O executivo tem promovido repetidamente os recursos do Autopilot, às vezes de maneiras que os críticos dizem que induzem os clientes a acreditar que os Teslas podem dirigir sozinhos - apesar dos avisos do contrário nos manuais do proprietário que dizem aos motoristas para permanecerem atentos à direção.

Ele também continuou a lançar o que a Tesla chama de versões beta - ou inacabadas - do sistema "Full Self-Driving" por meio de atualizações de software remotas.

"Alguns fabricantes farão o que quiserem para vender um carro e cabe ao governo controlar isso", disse Homendy, do NTSB.

Quer ler mais sobre o mundo automotivo e conversar com a gente a respeito? Participe do nosso grupo no Facebook! Um lugar para discussão, informação e troca de experiências entre os amantes de carros. Você também pode acompanhar a nossa cobertura no Instagram de UOL Carros.