Topo

Fita adesiva em placa engana carro da Tesla e faz veículo passar do limite

Interior do Tesla Model S -
Interior do Tesla Model S

Letícia Sé

Colaboração para Tilt

25/02/2020 12h12

Sem tempo, irmão

  • Empresa de segurança McAfee testou a câmera dos Tesla S e X em piloto automático
  • Uma placa de limite de velocidade foi levemente alterada com fita adesiva
  • Câmera Eye Q3, que dita velocidade ao piloto automático, leu errado esse dado
  • Isso acende alerta para carros cujo piloto automáticos é ligado a câmeras desse tipo

Parece que os olhos do carro Tesla podem se enganar. A empresa de software de segurança McAfee testou a câmera que guia a velocidade em piloto automático dos modelos S e X, de 2016, e os Teslas caíram na pegadinha.

O sistema de piloto automático desses modelos funciona por meio da câmera Eye Q3, da empresa MobilEye, que consegue ler placas de limite de velocidade durante a condução autônoma.

No experimento de teste de segurança, os cientistas da McAfee alteraram uma placa de limite de velocidade que indicava 35 milhas por hora (o equivalente a 56 km/h), alongando o centro do número três com uma fita adesiva.

A câmera do Tesla S 2016 leu errado, como se o aviso indicasse 85 milhas por hora (aproximadamente 137 km/h). Segundo a McAfee, o teste apresentou esse resultado apenas com câmeras do modelo Eye Q3, que foram instaladas em mais de 40 milhões de veículos de diversas marcas entre 2014 e 2016.

O experimento lançou um alerta sobre a confiança em pilotos automáticos e seus sistemas de leitura de velocidade. Apesar de parecer um teste malicioso, os cientistas da McAfee afirmaram ter como objetivo prever problemas relacionados à inteligência artificial em automóveis.

"Este trabalho é altamente acadêmico e representa um dos mais importantes em que a indústria pode se concentrar para antecipar problemas", escreveram os pesquisadores Steve Povolny e Shivangee Trivedi no blog oficial da McAfee, afirmando que pesquisadores e fornecedores devem colaborar para aumentar a segurança dos usuários da tecnologia.

Os pesquisadores finalizaram a publicação afirmando que é preciso mudar a percepção de segurança que temos dos sistemas de aprendizado de máquina, acelerar as discussões sobre esses problemas e orientar melhor o desenvolvimento das tecnologias da próxima geração.

SIGA TILT NAS REDES SOCIAIS