Tecnologia de piloto automático da Tesla enfrenta novo escrutínio

Os reguladores federais estão investigando 23 acidentes recentes em que os motoristas usaram, ou podem ter usado, direção automática e sistema de freio.

A Tesla enfrentou inúmeras questões sobre sua tecnologia de piloto automático depois que um motorista da Flórida foi morto em 2016, quando o sistema de sensores e câmeras falhou em ver e frear para um trailer cruzando uma estrada.

Agora, a empresa está enfrentando mais escrutínio do que nos últimos cinco anos para o Autopilot, que a Tesla e seu presidente-executivo, Elon Musk, há muito defendem que torna seus carros mais seguros que outros veículos . Oficiais federais estão investigando uma série de acidentes recentes envolvendo Teslas que estavam usando o piloto automático ou poderiam estar usando.

A Administração Nacional de Segurança de Tráfego Rodoviário confirmou na semana passada que estava investigando 23 acidentes desse tipo. Em um acidente neste mês, um Tesla Model Y bateu na traseira de um carro da polícia que parou em uma rodovia perto de Lansing, Michigan. O motorista, que não estava gravemente ferido, estava usando o piloto automático , disse a polícia.

Em fevereiro, em Detroit, em circunstâncias semelhantes às do acidente de 2016 na Flórida , um Tesla passou por baixo de um reboque de trator que cruzava a estrada, arrancando o teto do carro. O motorista e um passageiro ficaram gravemente feridos. As autoridades não disseram se o motorista ligou o piloto automático.

A NHTSA também está investigando um acidente em 27 de fevereiro perto de Houston, no qual um Tesla colidiu com um veículo policial parado em uma rodovia. Não está claro se o motorista estava usando o piloto automático. O carro não pareceu desacelerar antes do impacto, disse a polícia.

O piloto automático é um sistema computadorizado que usa radar e câmeras para detectar marcações de faixa, outros veículos e objetos na estrada. Ele pode dirigir, frear e acelerar automaticamente com pouca intervenção do motorista. A Tesla disse que ele deveria ser usado apenas em rodovias divididas, mas vídeos nas redes sociais mostram motoristas usando o piloto automático em vários tipos de estradas.

“Precisamos ver os resultados das investigações primeiro, mas esses incidentes são os exemplos mais recentes que mostram que esses recursos avançados de controle de cruzeiro que Tesla tem não são muito bons em detectar e, em seguida, parar para um veículo que está parado em uma circunstância de rodovia,” disse Jason Levine, diretor executivo do Center for Auto Safety, um grupo criado na década de 1970 pela Consumers Union e Ralph Nader.

Este escrutínio renovado chega em um momento crítico para Tesla. Após atingir um recorde este ano, o preço de suas ações caiu cerca de 20 por cento em meio a sinais de que os carros elétricos da empresa estão perdendo participação de mercado para as montadoras tradicionais . O Mustang Mach E da Ford Motor e o Volkswagen ID.4 chegaram recentemente aos showrooms e são considerados desafiadores sérios para o Modelo Y.

O resultado das investigações atuais é importante não apenas para a Tesla, mas também para outras empresas de tecnologia e automóveis que estão trabalhando em carros autônomos. Embora Musk tenha frequentemente sugerido que o uso generalizado desses veículos está próximo, a Ford, a General Motors e a Waymo, uma divisão da empresa-mãe do Google, a Alphabet, disseram que esse momento pode levar anos ou mesmo décadas de distância .

Bryant Walker Smith, professor da Universidade da Carolina do Sul que aconselhou o governo federal sobre direção automatizada, disse que era importante desenvolver tecnologias avançadas para reduzir as fatalidades no trânsito, que agora somam cerca de 40.000 por ano. Mas ele disse que estava preocupado com o Autopilot e como o nome e o marketing da Tesla indicam que os motoristas podem desviar com segurança sua atenção da estrada.

“Há uma desconexão incrível entre o que a empresa e seu fundador estão dizendo e permitindo que as pessoas acreditem, e o que seu sistema é realmente capaz de fazer”, disse ele.

A Tesla, que encerrou seu departamento de relações públicas e geralmente não responde às perguntas dos repórteres, não retornou ligações ou e-mails solicitando comentários. E o Sr. Musk não respondeu às perguntas enviadas a ele no Twitter.

A empresa não abordou publicamente os recentes acidentes. Embora possa determinar se o piloto automático estava ligado no momento dos acidentes porque seus carros enviam dados constantemente para a empresa, ele não disse se o sistema estava em uso.

A empresa argumentou que seus carros são muito seguros, alegando que seus próprios dados mostram que o Teslas tem menos acidentes por quilômetro percorrido e ainda menos quando o piloto automático está em uso. Ele também disse que diz aos motoristas que eles devem prestar muita atenção à estrada ao usar o piloto automático e devem estar sempre prontos para retomar o controle de seus carros.

Uma investigação federal do acidente fatal de 2016 na Flórida descobriu que o piloto automático não conseguiu reconhecer um semirreboque branco contra um céu claro e que o motorista foi capaz de usá-lo quando não estava em uma rodovia. O piloto automático continuou operando o carro a 119 quilômetros por hora, mesmo quando o motorista, Joshua Brown, ignorou vários avisos para manter as mãos no volante.

Um segundo incidente fatal ocorreu na Flórida em 2019 em circunstâncias semelhantes – um Tesla bateu em um trailer quando o piloto automático foi acionado. Os investigadores determinaram que o motorista não havia colocado as mãos no volante antes do impacto.

Embora a NHTSA não tenha forçado Tesla a revogar o piloto automático, o National Transportation Safety Board concluiu que o sistema “ desempenhou um papel importante” no acidente de 2016 na Flórida . Ele também disse que a tecnologia carece de salvaguardas para evitar que os motoristas tirem as mãos do volante ou desviem o olhar da estrada. O conselho de segurança chegou a conclusões semelhantes quando investigou um acidente de 2018 na Califórnia.

Em comparação, um sistema semelhante da GM, o Super Cruise, monitora os olhos do motorista e desliga se a pessoa desviar o olhar da estrada por mais de alguns segundos. Esse sistema pode ser usado apenas nas principais rodovias.

Em uma carta de 1º de fevereiro , o presidente do National Transportation Safety Board, Robert Sumwalt, criticou a NHTSA por não fazer mais para avaliar o piloto automático e exigir que a Tesla adicionasse salvaguardas que evitem que os motoristas façam mau uso do sistema.

O novo governo em Washington poderia adotar uma linha mais firme de segurança. O governo Trump não procurou impor muitos regulamentos aos veículos autônomos e procurou amenizar outras regras das quais a indústria automobilística não gostava, incluindo os padrões de economia de combustível. Em contraste, o presidente Biden nomeou um administrador em exercício da NHTSA, Steven Cliff, que trabalhou no California Air Resources Board, que freqüentemente entrava em conflito com a administração Trump sobre os regulamentos.

As preocupações com o Autopilot podem dissuadir alguns compradores de automóveis de pagar a Tesla por uma versão mais avançada, Full Self-Driving, que a empresa vende por US $ 10.000 . Muitos clientes pagaram por ele na expectativa de poder usá-lo no futuro; A Tesla tornou a opção operacional em cerca de 2.000 carros em uma versão “beta” ou de teste a partir do ano passado, e Musk disse recentemente que a empresa logo a disponibilizaria para mais carros . Supõe-se que o Full Self Driving seja capaz de operar carros Tesla em cidades e em estradas locais onde as condições de direção são tornadas mais complexas pelo tráfego em sentido contrário, cruzamentos, semáforos, pedestres e ciclistas.

Apesar de seus nomes, Autopilot e Full Self-Driving têm grandes limitações. Seu software e sensores não podem controlar carros em muitas situações, razão pela qual os motoristas precisam manter os olhos na estrada e as mãos no volante ou perto dele.

Em uma carta de novembro ao Departamento de Veículos Motorizados da Califórnia que recentemente se tornou pública, um advogado da Tesla reconheceu que Full Self-Driving lutou para reagir a uma ampla gama de situações de direção e não deve ser considerado um sistema de direção totalmente autônomo.

O sistema “não é capaz de reconhecer ou responder” a certas “circunstâncias e eventos”, escreveu Eric C. Williams, conselheiro geral associado da Tesla. “Isso inclui objetos estáticos e detritos de estrada, veículos de emergência, zonas de construção, grandes cruzamentos não controlados com múltiplas vias de entrada, oclusões, clima adverso, veículos complicados ou adversários nos caminhos de condução, estradas não mapeadas.”

Levine, do Center for Auto Safety, reclamou aos reguladores federais que os nomes Autopilot e Full Self-Driving são, na melhor das hipóteses, enganosos e podem estar encorajando alguns motoristas a serem imprudentes.

“O piloto automático sugere que o carro pode dirigir sozinho e, mais importante, parar sozinho”, disse ele. “E eles dobraram com o Full Self-Driving, e novamente isso leva os consumidores a acreditarem que o veículo é capaz de fazer coisas que não é”.

 

DEIXE UMA RESPOSTA

Please enter your comment!
Please enter your name here