#EEUU: | Los #conductores de #Tesla utilizan el piloto automático donde no está previsto, con consecuencias #mortales | #EstadosUnidos | #AUTOSELECTRICOS | #AUTO | #DRON |

 Después de un largo día de pesca en Key Largo, Florida, Dillon Angulo y Naibel Benavides León se hicieron a un lado de la carretera y saltaron de su Chevy Tahoe para mirar las estrellas. De repente, dijo Angulo, “el mundo entero simplemente se vino abajo”.

Un Tesla que conducía en piloto automático se estrelló en una intersección en forma de T a aproximadamente 70 mph y arrojó a la joven pareja por el aire, matando a Benavides León e hiriendo gravemente a Angulo. En las imágenes de la cámara corporal de la policía obtenidas por The Washington Post, el conductor sacudido dice que estaba “conduciendo en crucero” y apartó la vista de la carretera cuando se le cayó el teléfono.

Pero el accidente de 2019 revela un problema más profundo que la falta de atención del conductor. Ocurrió en un camino rural donde la tecnología Autopilot de Tesla no estaba diseñada para ser utilizada. Las imágenes de la cámara del tablero capturadas por el Tesla y obtenidas exclusivamente por The Post muestran el automóvil pasando por alto una señal de alto, una luz parpadeante y cinco señales amarillas que advierten que la carretera termina y los conductores deben girar a la izquierda o a la derecha.


El accidente es uno de al menos ocho accidentes fatales o graves que involucraron al piloto automático de Tesla en carreteras donde el software de asistencia al conductor no podía operar de manera confiable, según un análisis del Post de dos bases de datos federales, registros legales y otros documentos públicos. El primer accidente ocurrió en 2016, cuando un Tesla chocó contra un camión en una ruta estadounidense en Florida. El más reciente fue en marzo, cuando un Tesla en piloto automático no redujo la velocidad, dijo la policía, y atropelló a un adolescente que se bajaba de un autobús escolar de Carolina del Norte a 45 mph.


En manuales de usuario, documentos legales y comunicaciones con reguladores federales, Tesla ha reconocido que Autosteer, la característica clave de Autopilot, está "destinada a su uso en autopistas de acceso controlado" con "un divisor central, marcas de carril claras y sin tráfico cruzado".


 


Tesla advierte a los conductores que la tecnología también puede fallar en las carreteras si hay colinas o curvas cerradas, según su manual de usuario. Aunque la empresa tiene la capacidad técnica para limitar la disponibilidad de Autopilot por geografía, ha tomado algunas medidas definitivas para restringir el uso del software.

Por qué el piloto automático Tesla no debería usarse en tantos lugares como cree
Los reguladores federales tampoco han tomado medidas. Después del accidente de 2016, en el que murió el conductor de Tesla, Joshua Brown, la Junta Nacional de Seguridad en el Transporte (NTSB) pidió límites sobre dónde se podía activar la tecnología de asistencia al conductor. Pero como agencia puramente de investigación, la NTSB no tiene poder regulatorio sobre Tesla. Su agencia homóloga, la Administración Nacional de Seguridad del Tráfico en las Carreteras (NHTSA), que forma parte del Departamento de Transporte, tiene la autoridad para establecer normas de seguridad automovilísticas aplicables, pero su falta de acción ha dado lugar a una grieta inusual y cada vez más tensa entre las autoridades. dos agencias.

En una entrevista en octubre, la presidenta de la NTSB, Jennifer Homendy, dijo que el accidente de 2016 debería haber estimulado a la NHTSA a crear reglas aplicables sobre dónde podría activarse la tecnología de Tesla. La inacción, afirmó, refleja “un verdadero fallo del sistema”.


"Si el fabricante no va a tomar en serio la seguridad, le corresponde al gobierno federal asegurarse de defender a otros para garantizar la seguridad", dijo Homendy. Pero "la seguridad no parece ser la prioridad cuando se trata de Tesla".

Respecto a la NHTSA, Homendy añadió: "¿Cuántas personas más tienen que morir antes de que usted actúe como agencia?"



En una declaración al Post, la NHTSA dijo que la agencia “siempre da la bienvenida a los aportes de la NTSB y los revisa cuidadosamente, especialmente cuando se consideran posibles acciones regulatorias. Como agencia regulatoria, de seguridad y de salud pública, la seguridad es nuestra principal prioridad”.

La NHTSA dijo que sería demasiado complejo y consumiría muchos recursos verificar que sistemas como el piloto automático de Tesla se utilizan dentro de las condiciones para las que fueron diseñados, y potencialmente no solucionaría el problema.

Homendy se mostró escéptico ante esa explicación, diciendo que las agencias y las industrias con frecuencia responden a las recomendaciones de la NTSB citando la imposibilidad de sus solicitudes, hasta que una carnicería adicional les obliga a actuar.

La NHTSA dijo que, en cambio, se centra en garantizar que los conductores estén plenamente involucrados mientras utilizan sistemas avanzados de asistencia al conductor.

Tesla no respondió a una solicitud de comentarios. En casos judiciales y declaraciones públicas, la compañía ha argumentado repetidamente que no es responsable de los accidentes que involucran al Autopilot, porque el conductor es el responsable en última instancia de la trayectoria del automóvil. Después de un accidente fatal en 2018, Tesla le dijo a la NTSB que los límites de diseño para el piloto automático no serían apropiados porque "el conductor determina el entorno operativo aceptable".


La serie de accidentes del piloto automático revela las consecuencias de permitir que una tecnología en rápida evolución opere en las carreteras del país sin una supervisión gubernamental significativa, dicen los expertos. Si bien la NHTSA tiene varias investigaciones en curso sobre la compañía y accidentes específicos, los críticos argumentan que el enfoque de la agencia es demasiado reactivo y ha permitido que una tecnología defectuosa ponga en riesgo a los conductores de Tesla, y a quienes los rodean.


El enfoque contrasta con la regulación federal de aviones y ferrocarriles, donde los accidentes que involucran nueva tecnología o equipo, como los problemas recurrentes con el 737 Max de Boeing, han resultado en acciones radicales por parte de agencias o el Congreso para dejar en tierra los aviones o exigir nuevos sistemas de seguridad . A diferencia de los aviones, cuya aeronavegabilidad se certifica mediante un proceso llamado “ certificación de tipo ”, los modelos de automóviles de pasajeros no son preseleccionados, sino que están sujetos a un conjunto de regulaciones llamadas Normas Federales de Seguridad de Vehículos Motorizados, que los fabricantes enfrentan la carga de cumplir.


El enfoque de la NHTSA también contrasta con la forma en que algunos estados, localidades e incluso empresas han respondido a incidentes relacionados con vehículos autónomos. Después de un accidente fatal en 2018 , Uber detuvo su programa sin conductor en medio de un escrutinio oficial por parte de la NTSB antes de deshacerse del programa por completo. Y en octubre, el Departamento de Vehículos Motorizados de California suspendió los permisos para la empresa de automóviles sin conductor Cruise después de que uno de sus automóviles arrastrara a una peatona imprudente unos 20 pies después de haber sido atropellada por un automóvil normal. Cruise también dejó en tierra toda su flota estadounidense y emitió un retiro voluntario.

Steven Cliff, exjefe de la NHTSA que dejó la agencia el año pasado, reconoció que el enfoque adoptado por los reguladores puede parecer demasiado cauteloso a veces, pero dijo que la agencia fue agresiva bajo su dirección, obligando a empresas como Tesla a informar sus datos sobre accidentes que involucraban vehículos avanzados. Sistemas de asistencia al conductor.

Pero avanzar desde la etapa de recopilación de datos hasta una regla final, donde se adoptan nuevas regulaciones si es necesario, puede llevar años, dijo.


"La filosofía de Tesla es dejar que el operador determine por sí mismo qué es seguro, pero brindarle mucha flexibilidad para tomar esa determinación", dijo.


Dijo que Tesla podría limitar fácilmente dónde se puede implementar la tecnología. “El Tesla sabe dónde está. Tiene navegación. Sabe si está en una interestatal o en un área donde la tecnología no fue diseñada para ser utilizada”, dijo. "Si no fue diseñado para usarse allí, ¿por qué puedes usarlo allí?"

'Dominio de diseño operativo'

En total, The Post ha identificado alrededor de 40 accidentes fatales o graves desde 2016 que involucraron el software de asistencia al conductor de Tesla; la mayor parte de ellos fueron identificados a través de los datos de la NHTSA y el resto surgió a través de demandas. Muchos ocurrieron en carreteras de acceso controlado. Pero al menos ocho ocurrieron en carreteras para las que el piloto automático no estaba diseñado para su uso.

En otros seis accidentes, no estaba claro si el conductor del Tesla había activado el piloto automático o el modo más sofisticado de conducción autónoma total. La conducción autónoma total está diseñada para reconocer señales de alto, semáforos, tráfico cruzado y otros peligros en las calles.

Después del accidente de Key Largo en 2019, Angulo presentó una demanda argumentando que el marketing de Tesla crea una falsa sensación de complacencia en los conductores, preparando el escenario para el accidente que mató a su novia. La demanda también acusa a Tesla de negligencia, incluso por la capacidad de activar la función fuera de su llamado "Dominio de diseño operativo", que es un término de la industria para las ubicaciones específicas y conjuntos de circunstancias para las que está diseñado Autopilot. Es uno de los 10 casos de este tipo que se espera lleguen a juicio durante el próximo año.

Como resultado del choque, Angulo sufrió un traumatismo craneoencefálico, fractura de mandíbula y fractura de hueso pélvico, entre otras lesiones. Incluso hoy, dijo, ver un Tesla le hace estremecerse.


“¿Cómo pudieron permitir algo así en la carretera?” Angulo dijo en una entrevista. “Es como un arma mortal circulando por todas partes. Y la gente, los peatones como yo, ¿cómo se supone que vamos a saber cosas como esta? No debería permitirse”.

En una declaración jurada del año pasado detallada por primera vez por Reuters y obtenida por The Post, el jefe de piloto automático de Tesla, Ashok Elluswamy, dijo que no tenía conocimiento de ningún documento que describiera limitaciones sobre dónde y bajo qué condiciones podría operar la característica. Dijo que estaba al tanto de algunas condiciones de activación del piloto automático, incluida la presencia de líneas de carril, y que es seguro para "cualquiera que esté usando el sistema de manera adecuada".

Pero dijo que no sabía qué significa el término "Dominio de diseño operativo". "He oído esas palabras antes, pero no recuerdo mucho más que eso", dijo.

El compromiso de Tesla con la independencia y la responsabilidad del conductor es diferente al de algunos competidores, cuyas tecnologías de asistencia al conductor están cargadas con mapas de alta definición con niveles rigurosos de detalle que pueden advertir a los vehículos sobre posibles peligros y obstrucciones en la carretera. Algunos fabricantes, incluidos Ford y General Motors, también permiten que la tecnología funcione sólo en carreteras compatibles que hayan sido meticulosamente mapeadas.

Tesla se basa en mapas más rudimentarios, informó anteriormente The Post. Y se ha descubierto que su software contiene excepciones a las reglas del piloto automático en algunos lugares, según un ex empleado de Tesla, que habló bajo condición de anonimato por temor a represalias. Por ejemplo, el software podría activarse en el Embarcadero de San Francisco, una calle muy transitada y de rápido movimiento a lo largo del agua donde acuden peatones y ciclistas, dijo la persona.

En 2022, un supervisor de la empresa se enteró de que el piloto automático podría activarse en ubicaciones que no eran autopistas de acceso controlado, según el exempleado. El software interpretaba Kato Road en Fremont, California, una vía pública adyacente a la fábrica de Tesla, como una calle privada para que los empleados pudieran probar la función "Summon" de Tesla, que permite a los propietarios llamar sus vehículos desde un lugar de estacionamiento sin nadie en el. asiento del conductor.

Se supone que la convocatoria se limita a la propiedad privada, y el empleado dijo que planteó el asunto a un supervisor. Tesla solucionó el vacío legal poco después, dijo la persona.

'Salvaguardias sensatas'

A lo largo de los años, la NTSB ha pedido repetidamente a la NHTSA que controle el piloto automático. También instó a la compañía a actuar, pero Homendy dijo que ha sido particularmente difícil lidiar con Tesla cuando se trata de recomendaciones de seguridad. El director ejecutivo de Tesla, Elon Musk, una vez colgó al ex presidente de la NTSB, Robert Sumwalt, dijo el exjefe, que se retiró de la agencia en 2021 cuando Homendy asumió el cargo.

Sumwalt dirigió la NTSB cuando la agencia publicó su investigación del primer accidente fatal que involucró al piloto automático, que resultó en un informe de 2017 que pedía a los fabricantes de automóviles, incluido Tesla, que equiparan sus sistemas de asistencia al conductor con “protecciones” que limiten el uso de la tecnología a “condiciones en las que fueron diseñados”. También pidió a la NHTSA que cree reglas vinculantes que limiten el uso de la tecnología.

En 2020, la NTSB emitió un informe sobre otro accidente fatal de Tesla el año anterior que citaba tanto al conductor del camión, que se saltó una señal de alto, como a la "excesiva dependencia" del conductor de Tesla en el piloto automático como causas probables del accidente. La NTSB también citó a la NHTSA por primera vez, diciendo que su fracaso en “desarrollar un método” que “limitara el uso de sistemas automatizados de control de vehículos a las condiciones para las que fueron diseñados” contribuyó al accidente.

En 2021, la NTSB envió otra carta a la NHTSA sobre el piloto automático, pidiendo a la agencia que “incluya salvaguardias, protocolos y estándares mínimos de desempeño sensatos para garantizar la seguridad de los automovilistas y otros usuarios vulnerables de la carretera”.


El año pasado, varios senadores se unieron al coro y dijeron que estaban “profundamente preocupados” por la cantidad de fallas del piloto automático. Pidieron a la NHTSA que "utilice todas sus autoridades reguladoras y de investigación para arrojar la luz necesaria sobre esta industria fuera de control e imponer barreras para evitar más accidentes mortales".


La NHTSA ha implementado algunas de las recomendaciones de la NTSB, incluido un mayor informe de datos sobre accidentes que involucran software autónomo y de asistencia al conductor. Mientras tanto, la NHTSA tiene una "investigación activa" sobre el piloto automático de Tesla y emitió un retiro del mercado de ciertos modelos de Tesla equipados con conducción autónoma total después de determinar que "conducía a un riesgo irrazonable para la seguridad de los vehículos motorizados debido al cumplimiento insuficiente de las leyes de seguridad vial". "

Pero la NHTSA no ha adoptado ninguna regla que limite la tecnología al lugar donde debe usarse, a pesar de explorar cómo podría garantizar que dicho software cumpla con sus límites de diseño.

En uno de sus últimos intentos de impulsar la acción, Homendy envió una carta directamente a Musk en agosto de 2021. Lo instó a implementar salvaguardias para “limitar” la tecnología a las condiciones para las que fue diseñada, entre otras recomendaciones.

"Si realmente quiere poner la seguridad en primer plano en el diseño de vehículos Tesla", escribió, "lo invito a tomar medidas sobre las recomendaciones de seguridad que le emitimos hace cuatro años".

Musk, dijo, nunca respondió.

 
email: laregaderaweb@gmail.com
www.laregaderaweb.com