En la segunda mitad de 2022, Tesla confirmó que prescindiría de radares y sensores en sus coches. En una estrategia que pasa por ahorrar costes al máximo, al compañía ha ido eliminando todo tipo de elementos físicos asegurando que el software es capaz de reemplazar a casi todo.
El último ejemplo lo tenemos con las palancas satélites de los intermitentes o los limpiaparabrisas. Incluso de la palanca de transmisión que en la revisión del Tesla Model 3 se ha llevado a la pantalla. Parecen pequeños detalles pero cuando tu objetivo es ahorrar al máximo y quieres vender millones de vehículos, cada pequeña partida de gasto cuenta.
Todas estas decisiones redundan en problemas de ergonomía. Porque a la hora de conducir, especialmente cuando tomamos una rotonda, señalizar la dirección a tomar con el pulgar de la mano izquierda puede ser un verdadero problema. Tampoco es tan rápido hacer una maniobra si tenemos que recurrir a la pantalla. Y, desde luego, no parece la mejor decisión llevar el botón de warning al techo.
Pero todo esto son pelotas que caen del tejado del conductor. Como marca, Tesla lo pone encima de la mesa y, como clientes, lo tomamos o lo dejamos. Son cosas con las que tendremos que lidiar. El problema es cuando la marca se responsabiliza de ofrecer el mejor servicio en materia de conducción autónoma o semiautónoma y ahorra todo el dinero que puede.
Esto mismo ha sucedido con los radares y sensores. Tesla decidió eliminarlos porque los considera prescindibles, asegurando que su trabajo lo puede hacer un software.
Y se está encontrando con problemas, según un informe de The Wall Street Journal.
Accidentes evitables, lo más problemático
El diario estadounidense ha realizado un estudio para repasar todos los accidentes en los que se han visto inmersos los coches de Tesla con el Full Self Driving (FSD, por sus siglas en inglés) activado.
Este sistema de conducción semiautónoma lleva tiempo en el ojo del huracán. En primer lugar porque, según la Insurance Institute for Highway Safety (IIHS, por sus siglas en inglés), el propio nombre del sistema y las promesas exageran las habilidades actuales de sus sistemas de conducción asistida como herramienta de marketing. El toque de atención, eso sí, lo dirigieron a Tesla pero también a Mercedes, aunque los germanos (posteriormente) han conseguido homologar funciones de autonomía de nivel 4 en Estados Unidos.
De hecho, ha sido la cantidad de accidentes con el FSD activado lo que ha preocupado a las autoridades y lo que puso en aprietos la imagen de marca de Tesla quien ha recordado por activa y por pasiva que este sistema de conducción semiautónoma requiere que el conductor mantenga la atención en la carretera y las manos en el volante, aunque recurrentemente vemos vídeos de personas que se graban omitiendo este último detalle.
Para tener una fotografía más completa de qué está sucediendo, The Wall Street Journal ha realizado un informe en el que analiza más de 200 accidentes en los que se vieron implicados conductores con el Autopilot o el FSD activados, sus dos sistemas de ayuda a la conducción.
Esos 222 accidentes entran dentro de los más de 1.200 accidentes notificados por Tesla a la NHTSA (Administración Nacional de Seguridad del Tráfico en Carretera) desde 2021, ya que los fabricantes están obligados a declarar éstos a las autoridades para comprobar cómo evoluciona el comportamiento de estos sistemas, detectar fallos graves y tomar las medidas pertinentes para solucionarlo.
El número de accidentes analizado se corresponde con los datos que la NHTSA ha entregado a los periodistas, quienes aseguran haber realizado múltiples solicitudes sobre los mismos y han cruzado los datos con los análisis de la policía local.
Pese a ello, aseguran haber descubierto que Tesla no ha cumplido su parte en muchos de esos accidentes, ocultando información o disimulando sus datos con una narrativa que no se corresponde exactamente con lo que confirman los datos policiales.
De los accidentes analizados, 44 fueron consecuencia de cambios repentinos en la trayectoria y otros 31 de ellos se produjeron porque los coches no se detuvieron en una intersección o no cedieron el paso correctamente. Los problemas, aseguran, son más habituales en las intersecciones en forma de T, que los coches no parecen leer con claridad. Además, en varios accidentes se vieron involucrados uno o más vehículos de servicios de emergencia.
Pero, sin duda, el mayor problema encontrado tiene que ver con los accidentes evitables. The Wall Street Journal apunta que se registraron choques con "objetos claramente visibles". Esto sería consecuencia directa de la falta de radares o sensores que presten auxilio al software cuando éste se encuentra ante una situación que no ha visto nunca.
Como recogen en Motorpasión, algunos expertos señalaban al diario que si el sistema inteligencia artificial nunca se ha encontrado con una situación como la que le propone la carretera, el coche no sabe lo que es. En el mejor de los casos, devolverá el control al conductor de inmediato pero si no es así, el coche puede hacer caso omiso del objeto y chocar contra él.
El ahorro de costes en elementos físicos, por tanto, puede ser clave en estos accidentes. Al contrario de lo que opina Elon Musk, parece evidente que la falta de sensores o radares empeora la experiencia de uso y que el aprendizaje de un vehículo autónomo, que ya es altamente costoso en tiempo y dinero, puede ser mucho más complicado si se le quitan herramientas de las que poder tirar.
El artículo menciona que esto es "un fallo fundamental" porque, en palabras de uno de los colaboradores en el artículo, "si se encuentra con algo para lo que no tiene un montón de ejemplos, puede que no tenga ni idea de lo que está pasando". Esto es un problema para todo tipo de vehículos autónomos, como Cruise también ha ido descubriendo recientemente, pero es verdaderamente problemático para Tesla, quien aspira a vender su software a terceros y contar con sus propios robotaxis.
Foto | Lennart Uecker
En Xataka | En 2016, Tesla lanzó un vídeo promocionando las habilidades de su coche autónomo. Era un montaje
Ver 21 comentarios
21 comentarios
cefalopodo
Es que no se puede fiar todo a unas cámaras y un software, los sensores daban mucha más información.
cuspide
Lo he comentado más de una vez y vuelvo a repetirlo. Tesla, por mucho que disponga de millones de horas de grabación de sus coches, aún no tiene los modelos de IA para alcanzar la conducción autónoma total, y de ahí (muy seguramente) los movimientos de Musk con XAI y sus nuevos modelos Grok Vision 1.5, que están mucho más preparados que los actuales de Tesla (sean cuales sean). De hecho Tesla disponía hasta ahora de DOJO para entrenar sus modelos y corren muchos rumores de que ya está prácticamente obsoleta comparada con Nvidia y sus chips H100, por lo que todo apunta a que Tesla está pasando por graves dificultades para conseguir su tan prometido FSD de nivel 4 o 5 SAE.
Sumémosle que empresas como Wayve están mucho más avanzadas en el uso de modelos de IA más punteros, basados en Vision-Language-Action (LINGO-2) que prometen facilitar el desarrollo de la conducción autónoma, si bien aún siguen sin poder asegurar las mejoras necesarias para una conducción totalmente autónoma. Así que el camino es aún largo y nada fácil.
Apuesto personalmente a que el futuro más inmediato para la conducción autónoma comercial es dotar a los coches de sensores redundantes. Cuando uno se para a pensar en los temas legales (obligación de ofrecer seguridad, poder determinar dónde existió un fallo que provocó un accidente, enfrentamientos legales para determinar "de quién fue la culpa", etc.), se me hace muy difícil, como ingeniero informático, pensar en que algún día se apruebe la conducción totalmente autónoma sin poder asegurar de forma determinística el causante de un accidente, y actualmente con un sistema únicamente basado en IA es tan sencillo y tajante como que no se puede. No se puede "abrir" en canal un sistema de IA y determinar la causa exacta que provocó un accidente, un falso positivo, etc. Simplemente no se puede, y eso choca de frente con la necesidad de "reparar" el causante de un fallo que pide cualquier sistema legislativo.
edwardsaints1
Tesla tiene problemas de este tipo ya hace mucho tiempo, pero Elon (El VENDE HUMO numero 1 del mundo y de la historia) dijo que ya estaban preparados e hizo un video TRUCADO (EDITADO) para poder generar expectativa en la bolsa y poder tener mas ganancias para El, lo mismo pasa con su robotcito de lego que presento para que suban las acciones y poder cobrar sus Multimillonarios bonos, pero que en realidad ese "robot" es un prototipo mediocre. Los autos y hasta el ciber truck tienen problemas de software y especialmente en la autonomia, sumandole los sensores y todo el ecosistema necesario para su correcto accionar, pero Elon, por ahorrar costos y sobre todo para ganar mas dinero a costa de ingenuos IGNORANTES que le creen, no lo tienen completo ni listo... Lo que esta haciendo es ESPIONAJE EMPRESARIAL a Huawei, Xiaomi, BYD y a otros para copiar sus ecosistemas de conducción semiautónoma y autonoma, que son mas avanzados........
Por alli seguro saldra el Troll que es fan de Elon, redactando un post inmenso (con ayuda de GPT4) para defender a su heroe, con datos que son reales, pero que no tienen contexto y que no se aplican en la realidad empresarial de Tesla y en todas las empresas de Elon.
smv78
Pero si es muy sencillo: yo no pago ni 0.01€ por sistemas de conducción “asistida” en ningún coche, ni en Tesla, ni en BMW, en ninguna … dentro de una década hablamos … mientras tanto conduzco yo y el coche lo que tiene que hacer es no molestar.
Respecto al empeoramiento en la ergonomía (palanquitas, etc.) pues descalifica al coche en su compra (a día de hoy el único Tesla que podría plantearme es el model Y por esto) … anda que no hay marcas y ni te digo en 2-3 años que es cuando renovaré uno de los coches (el otro ya es eléctrico y es solo para ciudad y alrededores)
asdfgh2
.
redboy
Nunca un software que analiza imágenes por "inteligente" que sea, puede igualar la velocidad de respuesta de un buen sensor.
Esa es la raiz del problema, velocidad de respuesta.
El software lo puede hacer, pero en algunos casos, lo hará tarde.
relectron
Parece que al "uncle Musk" le gusta cerrar los ojos cuando entra al baño para ahorrarse el desgaste de córnea.
El personal de limpieza parece que no aprueba esta práctica de su jefe.
t_r_a
el fraude de melon usk en todo su esplendor, un día la va a liar parda y bien gorda, con sus tontadas y su superego de Dios todopoderoso
darkyevon
Los que defienden los sensores o los lidar, no entienden que las cámaras no te las quita nadie. Para conducir necesitas ver, no medir distancias. El lidar no sabe leer textos, ni colores ni las lineas del suelo, necesitas solucionar el problema de la vision quieras o no para conseguir la conduccion autonoma. Que prefieres solucionar un solo problema, el de.la.vision y que llegue un punto que conduzca mejor que un humano? (Ya estan a apenas 4 meses fe mejorar la conduccion humana con el número de intervenciones por km actuales). O bien prefieres tener que solucionar dos problemas, el de tener un modelo de IA para el.lidar e igualmente tener que solucionar el de la vision? Es el error que han hecho todas las compañias, y todas han abandonado la conduccion autonoma por ser sensores carisimos, que consumen mucha energia, que añaden complejidad inecesaria. Apple al final después de dedicar miles de millones abandonó el tema, uber lo mismo, y tantos mas. Si nosotros conducimos mirando hacia adelante, y esporadicamente hacia los retrovisores. Como un coche no va a conseguir con el tiempo conducir rodeado de camaras el 100% del tiempo. Es cosa de que pase cuando el software mejore. Tesla en octubre anuncia el robotaxi, imaginaos lo seguros que estan de que ya tienen solucionado el problema
ema94
Para mí, fue acertada la decisión de evitar el LiDAR e ir por un sistema basado en imágenes, pero de ahí a quitar redundancias de seguridad... es bastante cuestionable. ¡No! Es un error; mantener la redundancia no solo da más seguridad, sino que también permitiría entrenar mejor a la IA.
mrwhite55
Diseñar un vehículo con el Excel es a lo que lleva, los chinos se van a comer a Tesla con patatas.
Nivel de conducción autónoma, por una pasta, y con fallos evidentes, prometiendo el oro y el moro, solo para inflar el valor de las acciones.
Pero esto de prometer y no dar lleva años, y no pasa nada. Tienen el merito de introducir el coche eléctrico a nivel de masas, y poner la infraestructura delante del vehículo.
Veremos que pasa con la marca en el futuro
darkyevon
Leer este tipo de noticias teniendo el FSD 1.5.1 en estados unidos con la conducción autonoma total a punto de caramelo, da risa. Desde que Tesla ha quitado los sensores, ha puesto un mapa 3d por vision que te permite aparcar el coche sólo mirando la pantalla con una precisión que yo no me la hubiera esperado nunca. Y ademas, pero por dios, decimos unas tonterias que de verdad. Unos sensores que en el mejor de los casos detectan la distancia en linea recta a 100m sin contexto alguno mejor que una camara? Desde que tesla ha quitado los sensores y ha ido sacando versiones del FSD de solo vision, ha mejorado exponencialmente. Solo teneis que buscar en youtube las cientos de personas que publican videos a diario. Ya practicamente la gente ni interviene ni para adecuar la velocidad del coche, y sin tocar el volante solo vigilando la atencion del conductor con la camara interior. El problema no es de tesla, si conduces un software que claramente te dicen que es BETA, en constante evolución, que requiere aceptar los termimos de la BETA, y resulta que se acerca a un semaforo que se lo salta y tu no actuas, la culpa es tuya, ya que el software requiere atencion continua y te lo han dejado bien claro.En serio,.el nivel que tiene la ultima version deja en calzoncillos a toda la industria. Ha mejorado los ultimos 5 meses, mas que los ultimos 5 años, y las siguientes versiones tienen mejoras similares, permitiendo ya dar marcha atras, y la siguiente ya buscará aparcamiento.por ti sin señalarle la plaza.