FOTO DO ARQUIVO: O logotipo da Tesla é visto em Taipei, Taiwan, 11 de agosto de 2017. REUTERS / Tyrone Siu
16 de agosto de 2021
Por David Shepardson e Hyunjoo Jin
WASHINGTON (Reuters) – Os reguladores de segurança automotiva dos EUA disseram na segunda-feira que abriram uma investigação de segurança formal no sistema de assistência ao motorista da Tesla Inc, Autopilot, em 765.000 veículos norte-americanos construídos desde 2014, após uma série de acidentes envolvendo veículos de emergência.
A National Highway Traffic Safety Administration (NHTSA) disse que, desde janeiro de 2018, identificou 11 acidentes em que os modelos da Tesla “encontraram cenas de primeira resposta e, subsequentemente, atingiram um ou mais veículos envolvidos nessas cenas”.
As ações da Tesla caíram 5% com a notícia.
Depois de investigar, a NHTSA poderia optar por não tomar nenhuma ação ou exigir um recall, o que poderia efetivamente impor limites sobre como, quando e onde o piloto automático opera. Quaisquer restrições podem estreitar a lacuna competitiva entre o sistema da Tesla e sistemas de assistência ao motorista avançados semelhantes oferecidos por fabricantes de automóveis estabelecidos.
A agência de segurança automotiva disse que havia relatos de 17 feridos e uma morte nesses acidentes, incluindo a queda de um Tesla Model 3 em dezembro de 2019, que deixou um passageiro morto depois que o veículo colidiu com um caminhão de bombeiros estacionado em Indiana.
A empresa não respondeu imediatamente a um pedido de comentário. O presidente-executivo, Elon Musk, defendeu repetidamente o piloto automático e, em abril, tuitou que “Tesla com piloto automático engajado agora se aproximando de 10 vezes menos chance de acidente do que um veículo comum”.
NHTSA disse que os 11 acidentes incluíram quatro este ano, incluindo um acidente em 10 de julho em San Diego, e abriu uma avaliação preliminar do piloto automático em 765.000 modelos Tesla Y, X, S e 3. 2014-2021. Os acidentes envolveram veículos “todos confirmado ter participado do piloto automático ou do controle de cruzeiro com reconhecimento de tráfego ”, disse a NHTSA.
APÓS O ESCURO
NHTSA disse que a maioria dos 11 acidentes ocorreram após o anoitecer e as cenas de acidentes incluíram medidas como luzes de veículos de emergência, sinalizadores ou cones de estrada.
Musk tuitou no mês passado o sistema avançado de assistência ao motorista apenas com câmera da Tesla, conhecido como “Tesla Vision”, em breve “capturará sinais de mudança, perigos, luzes de ambulância / polícia e até mesmo gestos com as mãos”.
A NHTSA disse que sua investigação avaliará as tecnologias “usadas para monitorar, auxiliar e reforçar o envolvimento do motorista” com a direção ao usar a operação do piloto automático.
Antes que a NHTSA pudesse exigir um recall, ela deve primeiro decidir atualizar uma investigação em uma análise de engenharia. O processo de investigação de duas etapas geralmente leva um ano ou mais.
O piloto automático, que lida com algumas tarefas de direção e permite que os motoristas mantenham as mãos fora do volante por longos períodos, estava operando em pelo menos três acidentes fatais do Tesla nos EUA desde 2016, disse o National Transportation Safety Board (NTSB).
O NTSB criticou a falta de salvaguardas de sistema da Tesla para o piloto automático e a falha da NHTSA em garantir a segurança do piloto automático.
Em fevereiro de 2020, o diretor de tecnologia de direção autônoma da Tesla, Andrej Karpathy, identificou um desafio para seu sistema de piloto automático: como reconhecer quando as luzes piscantes de emergência de um carro de polícia estacionado são acesas.
“Este é um exemplo de uma nova tarefa sobre a qual gostaríamos de saber”, disse Karpathy em uma conferência.
PRINCIPAIS PREOCUPAÇÕES
Bryant Walker Smith, professor de direito da Universidade da Carolina do Sul, disse que os acidentes de emergência estacionados “realmente parecem ilustrar de forma vívida e até trágica algumas das principais preocupações com o sistema de Tesla”.
A NHTSA, sugeriu ele, “tem sido muito deferente e tímida, particularmente com respeito a Tesla”.
Um dos 11 acidentes citados pela NHTSA foi um acidente em janeiro de 2018 contra um caminhão de bombeiros estacionado na Califórnia. O NTSB disse que o projeto do sistema “permitiu ao motorista se desvencilhar da tarefa de dirigir”, no acidente de Culver City, Califórnia.
A NHTSA disse na segunda-feira que enviou equipes para revisar 31 acidentes com a Tesla envolvendo 10 mortes desde 2016, onde suspeitava que sistemas avançados de assistência ao motorista estavam em uso. Ele descartou o piloto automático em três dos acidentes.
Em uma declaração, a NHTSA lembrou aos motoristas “nenhum veículo a motor disponível comercialmente hoje é capaz de dirigir sozinho.” A agência acrescentou que os recursos de assistência ao dirigir podem promover a segurança, mas “os motoristas devem usá-los de maneira correta e responsável”.
Tesla e o CEO Musk discutiram com agências dos EUA sobre várias questões de segurança.
Em fevereiro, a Tesla concordou em fazer o recall de 134.951 veículos com telas sensíveis ao toque que poderiam falhar e aumentar o risco de um acidente após a NHTSA solicitar o recall.
Musk disse no mês passado no Twitter que a montadora realizará o “Dia do Tesla AI” na quinta-feira para “revisar o progresso com o software e hardware Tesla AI, tanto o treinamento quanto a inferência. O objetivo é recrutar. ”
Em janeiro de 2017, a NHTSA fechou uma avaliação preliminar no Autopilot cobrindo 43.000 veículos sem tomar qualquer ação após uma investigação de quase sete meses.
NHTSA disse na época que “não identificou quaisquer defeitos no design ou desempenho” do piloto automático, “nem quaisquer incidentes em que os sistemas não funcionaram conforme projetado.”
NHTSA não teve um administrador confirmado pelo Senado desde janeiro de 2017 e quase sete meses no cargo o presidente Joe Biden não nomeou ninguém para o cargo.
(Reportagem de David Shepardson em Washington e Hyunjoo Jin em Oakland, Califórnia Editando por David Holmes e Nick Zieminski)
.
FOTO DO ARQUIVO: O logotipo da Tesla é visto em Taipei, Taiwan, 11 de agosto de 2017. REUTERS / Tyrone Siu
16 de agosto de 2021
Por David Shepardson e Hyunjoo Jin
WASHINGTON (Reuters) – Os reguladores de segurança automotiva dos EUA disseram na segunda-feira que abriram uma investigação de segurança formal no sistema de assistência ao motorista da Tesla Inc, Autopilot, em 765.000 veículos norte-americanos construídos desde 2014, após uma série de acidentes envolvendo veículos de emergência.
A National Highway Traffic Safety Administration (NHTSA) disse que, desde janeiro de 2018, identificou 11 acidentes em que os modelos da Tesla “encontraram cenas de primeira resposta e, subsequentemente, atingiram um ou mais veículos envolvidos nessas cenas”.
As ações da Tesla caíram 5% com a notícia.
Depois de investigar, a NHTSA poderia optar por não tomar nenhuma ação ou exigir um recall, o que poderia efetivamente impor limites sobre como, quando e onde o piloto automático opera. Quaisquer restrições podem estreitar a lacuna competitiva entre o sistema da Tesla e sistemas de assistência ao motorista avançados semelhantes oferecidos por fabricantes de automóveis estabelecidos.
A agência de segurança automotiva disse que havia relatos de 17 feridos e uma morte nesses acidentes, incluindo a queda de um Tesla Model 3 em dezembro de 2019, que deixou um passageiro morto depois que o veículo colidiu com um caminhão de bombeiros estacionado em Indiana.
A empresa não respondeu imediatamente a um pedido de comentário. O presidente-executivo, Elon Musk, defendeu repetidamente o piloto automático e, em abril, tuitou que “Tesla com piloto automático engajado agora se aproximando de 10 vezes menos chance de acidente do que um veículo comum”.
NHTSA disse que os 11 acidentes incluíram quatro este ano, incluindo um acidente em 10 de julho em San Diego, e abriu uma avaliação preliminar do piloto automático em 765.000 modelos Tesla Y, X, S e 3. 2014-2021. Os acidentes envolveram veículos “todos confirmado ter participado do piloto automático ou do controle de cruzeiro com reconhecimento de tráfego ”, disse a NHTSA.
APÓS O ESCURO
NHTSA disse que a maioria dos 11 acidentes ocorreram após o anoitecer e as cenas de acidentes incluíram medidas como luzes de veículos de emergência, sinalizadores ou cones de estrada.
Musk tuitou no mês passado o sistema avançado de assistência ao motorista apenas com câmera da Tesla, conhecido como “Tesla Vision”, em breve “capturará sinais de mudança, perigos, luzes de ambulância / polícia e até mesmo gestos com as mãos”.
A NHTSA disse que sua investigação avaliará as tecnologias “usadas para monitorar, auxiliar e reforçar o envolvimento do motorista” com a direção ao usar a operação do piloto automático.
Antes que a NHTSA pudesse exigir um recall, ela deve primeiro decidir atualizar uma investigação em uma análise de engenharia. O processo de investigação de duas etapas geralmente leva um ano ou mais.
O piloto automático, que lida com algumas tarefas de direção e permite que os motoristas mantenham as mãos fora do volante por longos períodos, estava operando em pelo menos três acidentes fatais do Tesla nos EUA desde 2016, disse o National Transportation Safety Board (NTSB).
O NTSB criticou a falta de salvaguardas de sistema da Tesla para o piloto automático e a falha da NHTSA em garantir a segurança do piloto automático.
Em fevereiro de 2020, o diretor de tecnologia de direção autônoma da Tesla, Andrej Karpathy, identificou um desafio para seu sistema de piloto automático: como reconhecer quando as luzes piscantes de emergência de um carro de polícia estacionado são acesas.
“Este é um exemplo de uma nova tarefa sobre a qual gostaríamos de saber”, disse Karpathy em uma conferência.
PRINCIPAIS PREOCUPAÇÕES
Bryant Walker Smith, professor de direito da Universidade da Carolina do Sul, disse que os acidentes de emergência estacionados “realmente parecem ilustrar de forma vívida e até trágica algumas das principais preocupações com o sistema de Tesla”.
A NHTSA, sugeriu ele, “tem sido muito deferente e tímida, particularmente com respeito a Tesla”.
Um dos 11 acidentes citados pela NHTSA foi um acidente em janeiro de 2018 contra um caminhão de bombeiros estacionado na Califórnia. O NTSB disse que o projeto do sistema “permitiu ao motorista se desvencilhar da tarefa de dirigir”, no acidente de Culver City, Califórnia.
A NHTSA disse na segunda-feira que enviou equipes para revisar 31 acidentes com a Tesla envolvendo 10 mortes desde 2016, onde suspeitava que sistemas avançados de assistência ao motorista estavam em uso. Ele descartou o piloto automático em três dos acidentes.
Em uma declaração, a NHTSA lembrou aos motoristas “nenhum veículo a motor disponível comercialmente hoje é capaz de dirigir sozinho.” A agência acrescentou que os recursos de assistência ao dirigir podem promover a segurança, mas “os motoristas devem usá-los de maneira correta e responsável”.
Tesla e o CEO Musk discutiram com agências dos EUA sobre várias questões de segurança.
Em fevereiro, a Tesla concordou em fazer o recall de 134.951 veículos com telas sensíveis ao toque que poderiam falhar e aumentar o risco de um acidente após a NHTSA solicitar o recall.
Musk disse no mês passado no Twitter que a montadora realizará o “Dia do Tesla AI” na quinta-feira para “revisar o progresso com o software e hardware Tesla AI, tanto o treinamento quanto a inferência. O objetivo é recrutar. ”
Em janeiro de 2017, a NHTSA fechou uma avaliação preliminar no Autopilot cobrindo 43.000 veículos sem tomar qualquer ação após uma investigação de quase sete meses.
NHTSA disse na época que “não identificou quaisquer defeitos no design ou desempenho” do piloto automático, “nem quaisquer incidentes em que os sistemas não funcionaram conforme projetado.”
NHTSA não teve um administrador confirmado pelo Senado desde janeiro de 2017 e quase sete meses no cargo o presidente Joe Biden não nomeou ninguém para o cargo.
(Reportagem de David Shepardson em Washington e Hyunjoo Jin em Oakland, Califórnia Editando por David Holmes e Nick Zieminski)
.
Discussão sobre isso post