_
_
_
_

Estados Unidos investiga la conducción autónoma de Tesla tras la muerte de un peatón

Las autoridades regulatorias indagan si el sistema es seguro en casos de mala visibilidad, como niebla o contraluz

Un vehículo Tesla Model 3, utilizando el sistema de conducción autónoma en una carretera de California cerca de Irvine (California),
Un vehículo Tesla Model 3, utilizando el sistema de conducción autónoma en una carretera de California cerca de Irvine (California),Mike Blake (REUTERS)
Miguel Jiménez

Elon Musk considera que el futuro de los coches de Tesla está en la conducción autónoma. Alcanzarla con seguridad, sin embargo, va a ser un camino largo y complicado. En ese recorrido, la empresa se ha encontrado con un nuevo contratiempo. Las autoridades regulatorias estadounidenses investigan si sus actuales modelos de conducción autónoma funcionan bien en condiciones de mala visibilidad tras varios accidentes, uno de los cuales provocó la muerte de un peatón. La apertura del expediente llega a la semana siguiente de que Tesla presentase en sociedad los prototipos de Cybercab, su robotaxi eléctrico de dos plazas sin volante ni pedales.

La Oficina de Investigación de Defectos de la Administración Nacional de Seguridad del Tráfico en las Carreteras (NHTSA, por sus siglas en inglés) ha identificado cuatro casos en los que un vehículo Tesla sufrió un accidente después de entrar en una zona de visibilidad reducida de la calzada mientras se movía con su sistema de conducción autónoma (Fell Self Driving, FSD). “En estos accidentes, la visibilidad reducida de la calzada se debía a condiciones como el resplandor del sol, la niebla o el polvo en suspensión. En uno de los accidentes, el vehículo Tesla atropelló mortalmente a un peatón. Otro accidente en estas condiciones se saldó con un herido”, explica el organismo en la comunicación de la apertura de la investigación.

Tesla informó de los cuatro accidentes a la NHTSA en virtud de una orden que abarca a todos los fabricantes de automóviles. Una base de datos de la agencia dice que el peatón murió en Rimrock, Arizona, en noviembre de 2023, tras ser atropellado por un Tesla Model Y de 2021.

El sistema de Tesla solo utiliza cámaras en su navegación, frente a los de otras empresas, que incorporan sensores de radar y láser para moverse mejor en la oscuridad o en condiciones de poca visibilidad.

En realidad, el sistema ahora en funcionamiento en los modelos de Tesla es de conducción autónoma parcial. El conductor puede retomar el control del coche si es necesario. La NHTSA investiga si cuenta con las precauciones necesarias para requerir a quienes lo manejan que lo hagan cuando el sistema no puede navegar adecuadamente.

Los investigadores estudiarán la capacidad del sistema FSD para “detectar y responder adecuadamente a las condiciones de visibilidad reducida de la carretera”. También quieren averiguar “si se han producido otras colisiones similares en condiciones de visibilidad reducida de la calzada y, en caso afirmativo, las circunstancias que contribuyeron a dichas colisiones”.

Asimismo, la investigación cubrirá cualquier actualización o modificación del sistema FSD por parte de Tesla que pueda afectar a su rendimiento en condiciones de visibilidad reducida. “En particular, esta revisión evaluará el momento, el propósito y las capacidades de dichas actualizaciones, así como la evaluación de Tesla de su impacto en la seguridad”, añade la comunicación.

La investigación se extiende a prácticamente todos los coches de Tesla que cuentan con ese sistema. Son unos 2,4 millones de vehículos producidos entre 2016 y 2024, incluyendo el más reciente, Cybertruck, pero también sus modelos más vendidos: Model 3, Model S, Model X y Model Y.

No es la primera vez que Tesla se encuentra con problemas en el desarrollo de su sistema de conducción autónoma. La compañía llamó a revisión en diciembre de 2023 a sus coches con asistencia al conductor bajo la presión de la NHTSA, después de que un Tesla que utilizaba el sistema atropellara y matara a un motorista cerca de Seattle. Las retiradas se produjeron porque el sistema de entonces, Autopilot, estaba programado para saltarse señales de stop a baja velocidad y porque desobedecía otras leyes de tráfico. La autoridad de seguridad vial revisó 956 choques, en los que se alegó inicialmente que Autopilot había estado en uso, y luego se centró en un conjunto más reducido de 322 choques, incluidos los impactos frontales y los impactos por una posible desactivación involuntaria del sistema.

Tesla ya llamó a revisión en febrero a 362.000 coches porque el programa de conducción autónoma permitía que un vehículo “exceda límites de velocidad o circule [a través de intersecciones] de una manera ilegal o impredecible, lo que aumenta el riesgo de accidentes”.

Sobre la firma

Miguel Jiménez
Corresponsal jefe de EL PAÍS en Estados Unidos. Ha desarrollado su carrera en EL PAÍS, donde ha sido redactor jefe de Economía y Negocios, subdirector y director adjunto y en el diario económico Cinco Días, del que fue director.
Rellena tu nombre y apellido para comentarcompletar datos

Archivado En

_
_