Quizás lleve ya tiempo sobre la mesa, pero la cuestión no ha perdido interés, ni tampoco actualidad: ¿Quién es el responsable de un accidente cuando el vehículo implicado es autónomo o dispone de cierto grado de conducción automatizada? ¿El piloto? ¿El coche y su fabricante? ¿Ambos? Un jurado de California acaba de pronunciarse —y de forma rotunda, además— sobre un siniestro protagonizado hace casi cuatro años por un Tesla Model S provisto del sistema Autopilot, el software de conducción desarrollado por la compañía de Elon Musk.
La conclusión es interesante. Sus lecturas, también.
De la carretera, al tribunal. Los tres protagonistas del caso en cuestión son el sistema Autopilot, un Model S y Justine Hsu, una conductora de Los Ángeles que en julio de 2019 sufrió un aparatoso accidente mientras manejaba el vehículo en modo semiautónomo. Según la demanda presentada por Hsu hace tres años en el tribunal californiano, el sistema Autopilot de su vehículo no funcionó de forma correcta y provocó que el coche se desviara hacia la mediana central de una carretera a tal velocidad que —asegura— no le permitió reaccionar.
¿Qué dice la conductora? Además de apuntar al sistema Autopilot, Hsu asegura que el airbag tampoco funcionó como debía, con lo que el siniestro acabó con un saldo bastante negativo para ella, siempre según su demanda: la mandíbula fracturada, dientes rotos y múltiples lesiones en las manos, las piernas y el rostro, donde se habrían visto afectados nervios. Por esa razón reclama a la compañía de Musk más de tres millones de dólares por daños. Hsu asegura que ha tenido que someterse a tres cirugías y todavía hoy sigue en tratamiento médico.
¿Y la compañía? La visión de Tesla sobre lo que ocurrió en la carretera aquella jornada veraniega es bastante distinta. Básicamente la multinacional descarga la responsabilidad en Hsu, a la que achaca un manejo incorrecto de su software: uno de sus principales argumentos es que la conductora usó Autopilot en las calles de la ciudad a pesar de que el manual del usuario advierte que no debe hacerse. La empresa insiste en que sus coches no son totalmente autónomos y recalca: los conductores deben estar listos para "tomar el control en cualquier momento".
Para el abogado de la multinacional, Michael Carey, el sistema sí habría dado margen suficiente a Hsu para frenar el coche si hubiese estado atenta a la carretera. "La evidencia que prueba la distracción es bastante sencilla".
La conclusión del jurado. La lectura del jurado de California encargado de analizar el caso —avanzada por Reuters— deja poco margen para la interpretación: la función Autopilot no falló. Tras valorar los hechos han concluido que la empresa advirtió con claridad de que el software de conducción parcialmente automatizada no era un sistema autopilotado, por lo que achacan lo ocurrido con una distracción de la conductora, a la que no le reconoce una compensación por los daños sufridos en el siniestro. El jurado también ha sentenciado que el airbag funcionó bien y considera que Tesla no eludió de forma intencionada revelar los hechos.
¿Por qué es importante? Como comenta Reuters, el juicio es "pionero" para el software de conducción de Tesla, uno de sus grandes reclamos, promocionado por el propio Musk como una pieza crucial para el futuro de la multinacional, pero que a lo largo de los últimos años ha centrado el foco de las autoridades. En 2022, por ejemplo, la propia NHTSA, el organismo de seguridad en las carreteras de EEUU, publicó un análisis exhaustivo sobre Autopilot que no lo dejaba en buen lugar.
El resultado del juicio no es vinculante para otros casos, pero los expertos consultados por la agencia creen que puede convertirse en un referente para juicios futuros. "Este caso debería servir de llamada de atención para los propietarios de Tesla: no pueden confirmar demasiado en Autopilot y necesitan estar listos para tomar el control”, reflexiona Ed Walters, experto en vehículos autónomos.
¿Qué supone para Autopilot? Walters considera la sentencia una "gran victoria" para Tesla, pero lo cierto es que la demanda de Hsu no es el único frente que tiene la multinacional. Hace meses la NHTSA reseñaba una "acumulación de choques" con vehículos de Tesla que tenían en Autopilot activado, centrándose en 16 accidentes, y la compañía tiene pendiente un caso presentado por cinco policías de Texas heridos en 2021 por un incidente con un Model X y Autopilot.
Incluso las autoridades de California acusaron a Tesla de hacer afirmaciones falsas sobre el sistema y las capacidades de conducción autónoma completa, el conocido como FSD (Full Self-Driving), en el que la compañía de Musk sigue trabajando. A mediados de 2022 The Washington Post publicó que a lo largo del año anterior los coches de Tesla con Autopilot se habían visto involucrados en 273 accidentes. Algunos de los incidentes han sido especialmente mediáticos.
Imagen de portada: Mario Duran-Ortiz (Flickr)
En Xataka: En 2016, Tesla lanzó un vídeo promocionando las habilidades de su coche autónomo. Era un montaje
Ver 27 comentarios
27 comentarios
pableras
El autopilot no es un autopilot pero se llama igual (en inglés). Para lo puntillosos que son en los EEUU en este caso parece ser que fueron demasiado indulgentes. Imagino que a Toyota no les permitirían comercializar una función que se llamase autopilot y no fuese un autopilot.....
La culpa, en cualquier caso, de la conductora por no ir prestando atención a la carretera ni al coche.
han1789
"... la conductora usó Autopilot en las calles de la ciudad a pesar de que el manual del usuario advierte que no debe hacerse."
A partir de ahí, mis conclusiones son claras.
Queda reflexionar sobre el hecho de que, siempre que algo pueda utilizarse de forma incorrecta, siempre habrá algún listillo/majadero/despistado que lo hará.
charlize_gt
El Autopilot es un conjunto de asistencias a la conducción de nivel SAE 2. Punto. Más o menos avanzado por la tecnologia que usa, pero de nivel 2.
Eso significa que EN TODO MOMENTO el conductor debe estar atento para hacerse cargo de los mandos del coche.
El manual del usuario lo especifica y lo advierte y esto exime de responaabilidad a Tesla (igual que todo el resto de fabricantes que también usan los mismos términos legales).
Creo que las marcas deberian formar bien a la gente antes de entregarles el coche y explicarles bien como y bajo que circunstancias funciona y si no eres capaz de entender como funciona, dejarlo apagado y conducir tu.
dark_god
Aquí nos falta información. Tesla se puede escudar en que ellos siempre dicen que tienes que estar atento, pues vale, pero no se puede afirmar que el Autopilot "no falló" porque si hubo accidente si que falló. Otra cosa es que no es conducción autónoma y el conductor tiene que ir atento y realmente conducir él, pero que falló, falló.
Lo del airbag me parece raro. ¿Cómo se parte alguien la mandíbula y dientes y el airbag no salta? Estaría bien ver los videos de dentro del coche para saber exactamente que pasó, pero es cuanto menos llamativo.
Hablando de tesla la marca la verdad es que ya llevamos un par de casos así. Se lavan las manos porque el conductor tiene que ir atento, pero luego en toda la publicidad que han hecho durante todos estos años son más zorros insinuando capacidades del autopilot que no son reales. Publicidad engañosa vamos, y ahí están los rumores de una demanda colectiva por la gente que pagó por el sistema de conducción autónoma total y se quedaron sin 10 - 15k dólares sin FSD.
ayrton_senna
"El Autopilot no falló ...la empresa advirtió con claridad que el software de ...no era un sistema autopilotado"
Que podría extenderse a:
"la autonomía de 600kms no falló ... la empresa advirtió con claridad que los 600kms son en realidad 300 kms reales"
"los 12 años de vida de la batería al 80% no falló ... la empres advirtió con claridad que la garantía sólo cubre 2 años".
Es simplemente que en las web que promocionan la venta de Tesla AL ÚLTIMO PARDILLO/A QUE ACABA DE NACER se habla de Autopilot, 600kms y 12 años de vida de la batería y luego, una vez firmado el contrato y apoquiñado el dinero es cuando le entregan el manual donde se advierte que "no es un sistema autopilotado, la autonomía en conducción real es menos 300 kms y la garantía cubre 2 años, excluyendo defectos por colisiones menores que obligen a cambiarla".
celduques.ulrikvonca
Ya está bien para esos inútiles que se escudan en la típica de "falló el sistema" cuando son unos inconscientes que no saben utilizar una tecnología. Darle a un botón y decir/pensar "esto va solo" no es fallo del coche. Es una accidente provocado por no estar informado sobre el producto que usas y punto.
grebleips
Censuráis vuestro propio titular y el comentario que lo aprovechaba, realmente tiene que ser una experiencia visitar esa redacción de jóvenes y temerosos "periodistas".
Cómo os van a tomar en serio si además de no escribir correctamente, de no tener rigor alguno, tampoco tenéis valor de mantener los textos.
Rosonator
Esto por supuesto no sienta jurisprudencial ninguna. Cada caso es y será un mundo. Habrá casos de conductores accidentados intentando descargar su propia responsabilidad sobre el sistema automático de conducción, y habrá conductores legítimamente accidentados por culpa del sistema, sin tiempo de reacción.
Así que de todo un poco: Estos sistemas están lejos de ser perfectos, y la gente en general somos unos listos y un poco jetas.
ypariolabuela
Parece la conclusión lógica teniendo en cuenta que el sistema pide que haya una persona detrás del volante supervisando el proceso. Lo interesante será en un futuro lejano cuando la conducción sea totalmente automática y no se exija una persona capaz supervisando , ¿de quién será la responsabilidad en caso de accidente?
tonialonso
Se han visto todo tipo de burradas con gente conduciendo Teslas. Está claro que una cosa es usar la función para mantener la distancia con el conductor de delante, o poner el autopilot en un atasco para ir moviéndote poco a poco. Y luego gente tumbada durmiendo, en el asiento de detrás viendo una peli, o follando, ...... o lo que se te ocurra que la imaginación humana no tiene límites.... luego la culpa es del coche... en fin.
También me hace gracia que cada día hay miles de accidentes y muchos muertos por gente despistada, borracha, drogada, etc... y esto no es noticia, sólo salen los Teslas en las noticias.
osoverflow
Pues si la señora no leyó o no entendió las instrucciones, es su problema. Son claras, indican que no debe dejarse sin atención. Es la misma situación de cuando un fulano se murió por tomar redbull. Y resulta que se tomó como 10, uno tras otro. Y las instrucciones dicen que máximo 3 al día, así que si no sabe leer las instrucciones, es problema del usuario, no del fabricante
moreorless
moraleja sigan haciendo rico a elon que cuando ocurra un accidente uds seran siempre los culpables.
mlax
Lo de siempre, un sistema mafia que siempre carga contra las personas, que cuando es uno solono es nadie y no tocar a una gran empresa, no vaya a ser que deje de vender.
Tesla son un timo, ahora resulta que autopilot no es autopilot xD