Por primera vez se acusa por delitos graves en un accidente vial mortal con autopiloto

Los fiscales de California han presentado dos cargos de homicidio involuntario contra el conductor de un Tesla con autopiloto que se saltó un semáforo en rojo, chocó contra otro coche y mató a dos personas en 2019.

El acusado parece ser la primera persona acusada de un delito grave en Estados Unidos por un accidente fatal en el que está involucrado un automovilista que estaba utilizando un sistema de conducción parcialmente automatizado. Los fiscales del condado de Los Ángeles presentaron los cargos en octubre, pero no salieron a la luz hasta la semana pasada.

 

El conductor, Kevin George Aziz Riad, de 27 años, se ha declarado inocente. Riad, conductor de un servicio de limusinas, está en libertad bajo fianza mientras el caso está pendiente.

 

El mal uso del autopiloto, que puede controlar la dirección, la velocidad y el frenado, se ha producido en numerosas ocasiones y es objeto de investigaciones por parte de dos agencias federales. La presentación de cargos en el accidente de California podría servir de aviso a los conductores que utilizan sistemas como Autopilot de que no pueden confiar en ellos para controlar los vehículos. 

 

Los cargos penales no son los primeros que implican a un sistema de conducción automatizada, pero sí son los primeros que implican a una tecnología de conducción muy utilizada. Las autoridades del estado de Arizona presentaron una acusación de homicidio por negligencia en 2020 contra un conductor que Uber había contratado para participar en las pruebas de un vehículo totalmente autónomo en la vía pública. El vehículo de Uber, un SUV con un conductor humano de refuerzo a bordo, golpeó y mató a un peatón.

 

En cambio, el autopiloto y otros sistemas de asistencia al conductor se utilizan ampliamente en las rutas de todo el mundo. Se estima que 765.000 vehículos Tesla están equipados con el sistema solo en Estados Unidos. 

 

En el accidente de Tesla, la policía dijo que un Modelo S se movía a gran velocidad cuando salió de una autopista y se saltó un semáforo en rojo en el suburbio de Gardena, en Los Ángeles, y golpeó a un Honda Civic en una intersección el 29 de diciembre de 2019. Las dos personas que estaban en el Civic, Gilberto Alcázar López y María Guadalupe Nieves-López, murieron en la escena. Riad y una mujer en el Tesla fueron hospitalizados con lesiones que no ponían en riesgo su vida. 

 

Los documentos de acusación penal no mencionan el sistema de automanejo, pero la Administración Nacional de Seguridad del Tráfico en las Rutas, NHTSA en inglés, que envió investigadores al accidente, confirmó la semana pasada que el autopiloto estaba en uso en el Tesla en el momento del accidente. 

 

La audiencia preliminar de Riad está prevista para el 23 de febrero.

 

La NHTSA y la Junta Nacional de Seguridad en el Transporte han estado revisando el mal uso generalizado de Autopilot por parte de los conductores, cuyo exceso de confianza y falta de atención han sido culpados de múltiples choques, incluidos los mortales. En un informe de accidentes, la NHTSA se refirió a su mal uso como “complacencia de automatización”. 

 

La agencia dijo que en un accidente de 2018 en Culver City, California, en el que un Tesla chocó con un camión de bomberos, el diseño del sistema autopiloto había “permitido al conductor desentenderse de la tarea de conducción.” Nadie resultó herido en ese accidente.

Anteriormente en Derecho en Zapatillas hemos mencionado los distintos accidentes y problemas legales del manejo autónomo o con piloto automático de este tipo de autos.

La compañía ha dicho que el sistema de autopiloto es un sistema más sofisticado de la categoría “Full Self-Driving”, pero que no pueden conducir por sí mismos y que los conductores deben prestar atención y estar preparados para reaccionar en cualquier momento.

Bryant Walker Smith, profesor de Derecho de la Universidad de Carolina del Sur que estudia los vehículos automatizados, dijo que éste es el primer caso estadounidense, que él conozca, en el que se presentan cargos penales graves en un accidente mortal en el que está implicado un sistema de asistencia al conductor parcialmente automatizado. Tesla, dijo, podría ser “penal, civil o moralmente culpable” si se descubre que ha puesto en la carretera una tecnología peligrosa.

Donald Slavik, un abogado de Colorado que ha actuado como consultor en juicios sobre tecnología automovilística, incluidos muchos contra Tesla, dijo que él también desconocía que se hubieran presentado cargos por delitos graves contra un conductor estadounidense que utilizara una tecnología de conducción parcialmente automatizada implicado en un accidente mortal.

Las familias de López y Nieves-López han demandado a Tesla y a Riad en pleitos separados. Han alegado negligencia por parte de Riad y han acusado a Tesla de vender vehículos defectuosos que pueden acelerar repentinamente y que carecen de un sistema eficaz de frenado automático de emergencia. El juicio conjunto está previsto para mediados de 2023.

La familia de López, en los documentos judiciales, alega que el coche “aceleró repentinamente y sin querer a una velocidad excesiva, insegura e incontrolable”. La familia de Nieves-López afirma además que Riad era un conductor inseguro, con múltiples infracciones de circulación en su historial, y que no podía manejar el Tesla de altas prestaciones.

Por separado, la NHTSA está investigando una docena de choques en los que un Tesla con autopiloto chocó contra varios vehículos de emergencia estacionados. En los choques investigados, al menos 17 personas resultaron heridas y una murió. 

Preguntada por los cargos de homicidio involuntario contra Riad, la agencia emitió un comunicado diciendo que no hay ningún vehículo a la venta que pueda conducirse solo. Y tanto si un coche utiliza un sistema parcialmente automatizado como si no, la agencia dijo que “todo vehículo requiere que el conductor humano tenga el control en todo momento”.

La NHTSA añadió que todas las leyes estatales responsabilizan a los conductores humanos del manejo de sus vehículos. Aunque los sistemas automatizados pueden ayudar a los conductores a evitar choques, la agencia dijo que la tecnología debe utilizarse de forma responsable. 

Rafaela Vásquez, la conductora del vehículo autónomo de pruebas de Uber, fue acusada en 2020 de homicidio por negligencia después de que el todoterreno atropellara mortalmente a un peatón en los suburbios de Phoenix en 2018. Vásquez se ha declarado inocente. Los fiscales de Arizona declinaron presentar cargos penales contra la compañía.

 

accidentesautoautomaticomanejotesla