
Um novo relatório baseado em entrevistas com ex-pilotos de testes que faziam parte da equipe interna de direção autônoma da Tesla revela os extremos perigosos que a Tesla está disposta a ir para testar suas tecnologias de direção autônoma.
Embora você possa argumentar que os clientes da Tesla são motoristas de testes autônomos enquanto a montadora está implantando o que chama de sistema de “condução autônoma supervisionada” (FSD), a empresa também opera uma frota interna de testadores.
Anteriormente, informamos que a Tesla está contratando motoristas em todo o país para testar suas últimas atualizações de software ‘FSD’.
Agora, Insider de negócios divulgou um novo relatório depois de entrevistar nove desses pilotos de teste que estão trabalhando em um projeto específico chamado ‘Rodeo’. Eles descrevem o projeto:
Os motoristas de teste disseram que às vezes passavam por cenários perigosos, especialmente os motoristas da equipe de “intervenção crítica” do Projeto Rodeo, que dizem que foram treinados para esperar o máximo possível antes de assumir o controle do carro. Os engenheiros da Tesla dizem que há uma razão para isso: quanto mais tempo o carro continuar dirigindo sozinho, mais dados eles terão para trabalhar. Especialistas em tecnologia e segurança de direção autônoma dizem que esse tipo de abordagem pode acelerar o desenvolvimento do software, mas coloca em risco a segurança dos motoristas de teste e das pessoas nas vias públicas.
Um desses ex-pilotos de testes descreveu-o como “um cowboy em um touro e você está apenas tentando aguentar o máximo que puder” – daí o nome do programa.
Além de às vezes usar uma versão do Tesla FSD que não foi lançada para os clientes, os drivers de teste geralmente usam o FSD como a maioria dos clientes, com a principal diferença é que eles tentam com mais frequência levá-lo ao limite.
Business Insider explica com mais detalhes a “equipe de intervenção crítica” com o projeto Rodeo:
Os motoristas de teste de intervenção crítica, que estão entre os mais experientes do Project Rodeo, permitem que o software continue dirigindo mesmo depois de cometer um erro. Eles são treinados para realizar “intervenções” – assumindo o controle manual do carro – apenas para evitar um acidente, disseram os três pilotos de intervenção crítica e cinco outros pilotos familiarizados com a missão da equipe. Os motoristas da equipe e documentos internos dizem que os carros ultrapassaram o sinal vermelho, desviaram para outras faixas ou não seguiram os limites de velocidade estabelecidos enquanto o FSD estava acionado. Os motoristas disseram que permitiram que o FSD permanecesse no controle durante esses incidentes porque os supervisores os encorajaram a tentar evitar assumir o controle.
Esses são comportamentos que o FSD costuma praticar nos veículos dos clientes, mas os motoristas geralmente assumem o controle antes que isso vá longe demais.
O objetivo desta equipe é ir longe demais.
Um dos pilotos de teste disse:
“Você está praticamente cheio de adrenalina durante todo o turno de oito horas. Há essa sensação de que você está à beira de algo dar muito errado.”
Outro piloto de teste descreveu como o Tesla FSD chegou a poucos metros de atingir um ciclista:
“Lembro-me vividamente desse cara pulando da bicicleta. Ele estava aterrorizado. O carro avançou contra ele e tudo que pude fazer foi pisar no freio.”
A equipe teria ficado satisfeita com o incidente. “Ele me disse: ‘Isso foi perfeito’. Era exatamente isso que eles queriam que eu fizesse”, disse o motorista.
Você pode ler o completo Insider de negócios reporte muitos outros exemplos de equipes fazendo coisas muito perigosas perto de pessoas desavisadas do público, incluindo pedestres e ciclistas.
Como isso se compara a outras empresas que desenvolvem tecnologia de direção autônoma?
A líder de mercado Waymo supostamente tem uma equipe fazendo um trabalho semelhante ao da “equipe de intervenção crítica” Rodeo da Tesla, mas a diferença é que eles fazem os testes em ambientes fechados com manequins.
A opinião de Eletrizados
Isto parece ser um sintoma da abordagem inicial da Tesla de “agir rápido, quebrar as coisas”, mas não acho que seja apropriado.
Para ser justo, nenhum dos nove pilotos de testes entrevistados pela BI disse ter sofrido um acidente, mas todos descreveram algumas situações muito perigosas em que pessoas de fora foram arrastadas para os testes sem o seu conhecimento.
Acho que é uma má ideia e eticamente errada. Elon Musk afirma que Tesla se preocupa com “segurança em primeiro lugar”, mas os exemplos neste relatório parecem tudo menos seguros.
FTC: Usamos links de afiliados automotivos para geração de renda. Mais.