Conecta con nosotros

Noticias

Tesla afronta un futuro incierto: juicios, fallos de software y caída en Bolsa

Publicado el

Tesla no es lo que parece: luces y sombras de su software

Los problemas de Tesla se acumulan. Además, le llegan por varios flancos. Para empezar, las acciones de la compañía han perdido un 65% de su valor en un año. Es decir, ha perdido unos 672.000 millones de dólares, según el New York Times. Para continuar, según The Guardian, se ha descubierto que un vídeo de 2016 que la compañía utilizó para la promoción de su tecnología de coches autónomos estaba preparado para hacer creer que los coches tenían en aquel momento capacidades con las que no contaban. Por ejemplo, detenerse en un semáforo en rojo, y acelerar cuando se encendía su luz verde.

Así lo asegura un ingeniero de alto nivel de la compañía: Ashok Elluswamy, Director del software Autopilot. Este software es el que utilizan los coches de la compañía para su conducción autónoma, y su declaración no se ha realizado a medios, sino en un testimonio tomado el pasado mes de julio y que se va a utilizar como prueba en un juicio contra Tesla por un accidente en 2018 en el que falleció un ingeniero de Apple, Walter Huang. En la investigación del accidente, realizada en 2020, se echó la culpa del mismo a una distracción de Huang y a las limitaciones del Autopilot.

El vídeo mencionado, que sigue estando en la web de Tesla, se publicó en octubre de 2016. Elon Musk, su CEO, lo difundió en redes sociales como prueba de que un Tesla Model X se conducía solo. En el vídeo se ve un texto que señala que la persona que está sentada en el asiento del conductor solo está ahí por motivos legales y que no está haciendo nada porque el coche se conduce solo.

Según Elluswamy, el equipo de Autopilot de Tesla grabaron una «demostración de las capacidades del sistema» a petición de Musk. No obstante, la compañía señala que pide a los conductores que deben mantener sus manos en el volante y tener el control de sus vehículos cuando usan Autopilot. La tecnología de Tesla está diseñada como asistente con la dirección, el frenado, la velocidad y los cambios de carril, pero tal como señala Tesla en su web, «eso no convierte a un vehículo en autónomo«.

Pero según el vídeo, creado con mapeado 3D en una ruta predeterminada desde una vivienda de Menlo Park (California) a la entonces sede de la compañía en Palo Alto, no lo muestra así. Varios conductores intervinieron en él para tomar el control en las rutas de prueba, y cuando estaban intentando mostrar que el Model X se podía aparcar solo sin la intervención de un conductor, un coche de este modelo de prueba chocó contra una valla en el apartamiento de Tesla.

Elluswamy señaló en su declaración que «el fin del vídeo no era mostrar de manera precisa lo que estaba disponible para los clientes en 2016, sino lo que era posible integrar en el sistema«. Pero lo que dijo Musk en Twitter cuando publicó el vídeo fue que «Tesla se conduce solo (sin ninguna intervención de humanos) por rutas urbanas, desde autopistas a calles, y busca un punto de aparcamiento«.

El Departamento de Justicia de Estados Unidos abrió hace un tiempo una investigación sobre lo que Tesla aseguraba sobre la conducción autónoma de sus vehículos en 2021, cuando señaló que podían conducirse solos. Lo hizo después de varios accidentes, algunos con fallecidos, en los que intervino el Autopilot.

La versión en la declaración de Elluswamy sigue a la dada a la que dio en 2021 al New York Times, cuando este medio aseguró que varios ingenieros de Tesla habían creado el vídeo de 2016 mencionado para promocionar Autopilot sin hacer público que la ruta era predeterminada o que un coche había chocado al tratar de completar la grabación, citando entonces fuentes anónimas. Entonces, cuando Elluswamy tuvo que contestar a una pregunta sobre si el vídeo mostraba el rendimiento del sistema Autopilot de Testa disponible en un coche en producción por entonces, el directivo de Tesla negó que fuese así.

Los problemas de Autopilot, el software de Tesla

El software Autopilot tenía desde un principio una cierta tendencia a chocar contra vehículos de policía. Nadie sabía por qué, aunque los ingenieros de Tesla apuntaban a los objetos estáticos combinados con las luces y los flashes de los coches, que en su opinión engañaban a su Inteligencia Artificial. El coche conducía de manera normal, con el ordenador de a bordo controlado, y de repente se iba a la izquierda o a la derecha y chocaba. Esto pasó al menos una decena de veces en unos tres años.

Para una empresa que dependía de cierto optimismo entre los inversores para mantener el valor de sus acciones, estos accidentes podrían haber sido un problema. Pero para su CEO, Elon Musk, se convirtieron en una oportunidad. Cada accidente genera datos, y Musk estaba seguro que con suficientes datos, podrían acelerar el desarrollo del que sería el primer coche autónomo por completo del mundo. Creía tanto en ello que llegó a hacer predicciones muy arriesgadas. Por ejemplo, en 2019 decía que estaba seguro de que sería posible que alguien pudiese dormirse al volante de un Tesla con Autopilot y despertar en su destino a finales de 2020. Está claro que no se cumplió.

Tesla necesita no obstante datos de accidentes, y su futuro puede depender en su los conductores saben que están afectados por este experimento de recogida de datos. También si su afición por el riesgo es tan elevada como la de Musk, que llegó a escribir a Jim Riley, padre de una de las víctimas de un accidente de un Tesla que chocó mientras aceleraba. Riley pidió a Musk si podría actualizar su software para establecer una velocidad máxima en los coches, además de otras restricciones en aceleración y acceso a la radio, así como la distancia a la que el coche podía conducir desde casa.

Musk, que a diferencia de otros CEOs sí se dirige a veces a personas que resultan daños por culpa de uno de sus productos, pero rechazó los cambios pedidos, alegando que si había muchas configuraciones, el coche será demasiado complicado para que lo use la mayoría de la gente. Señaló que quería hacer lo mejor para la mayoría de la gente, como suele apuntar. Esto, unido a su particular ética, y a su interés por la Inteligencia Artificial, le lleva a pensar que a largo plazo, su modo de actuar puede salvar muchas vidas.

Tesla, a punto de enfrentarse a varios juicios

Pero Musk tiene que atender más al corto plazo, porque se avecinan problemas para él y para la empresa en los próximos meses. En febrero se celebrará el primer juicio contra Tesla por un choque que implica al Autopilot. En los meses siguientes habrá otros cuatro juicios más por el mismo motivo.

Según el representante de los abogados de la acusación en tres de estos casos, Donald Slavik, una compañía de coches convencionales habría negociado un acuerdo. Pero Musk quiere ir a los tribunales, aunque no vaya a ser bueno para Tesla. Además, le puede salir mucho más caro en términos de indemnizaciones si se demuestra que el Autopilot es el culpable. La llegada de los vehículos autónomos no estaba prevista de esta manera. En Estados Unidos, de media, hay al menos un accidente relacionado con el Autopilot cada día, y Tesla está siendo investigada por la Administración nacional de seguridad del tráfico en carretera del país. El fin de esta tecnología era reducir el número de accidentes y fallecidos, pero parece que por ahora no termina de dar con la clave para ello.

Las diversas alegaciones de los juicios pendientes van todas en la misma dirección: Tesla infló de manera habitual las expectativas de los consumidores, y minimizó los peligros que implicaba el uso de Autopilot. Los coches no tenían la supervisión suficiente del conductor porque Musk no quería que los conductores pensaran que el coche necesitaba supervisión humana. Tal como él mismo señalaba en 2019, «si tienes un sistema que esta a nivel de los humanos en cuanto a fiabilidad, o por debajo, entonces la conducción supervisada tiene sentido. Pero si tu sistema es muchísimo mejor, más fiable que un humano, entonces la supervisión no ayuda mucho«.

Los conductores no recibieron avisos sobre el frenado automático, ni con cambios de carril no señalados. Tesla señalaba las limitaciones de la tecnología en su manual de usuario, pero publicaba vídeos virales de un Tesla recorriendo una ruta complicada sin intervención de un humano. Su cliente ideal era alguien que estaba dispuesto a aceptar las culpas cuando algo salía mal, pero con fe ilimitada en la siguiente versión.

En una declaración, un ingeniero de Tesla lo deja bien claro: «queremos que el cliente sepa que, en primer lugar, tienes que tener confianza en el coche. Todo funciona como debería. Y en segundo ligar, el motivo de tu accidente o la razón del mismo siempre está relacionado contigo«. Pero no todos los conductores de un Tesla son así, y los abogados de las demandas por el Autopilot puede que estén de acuerdo en que su Inteligencia Artificial esté mejorando, pero solo gracias a los early adopters y los que siguen conduciendo un Tesla que podrían sufrir un accidente.

Las opiniones sobre su Sistema de conducción autónoma completa (FSD) en Internet. son encontradas. Unos muestran sus numerosos fallos, que como puede apreciarse en los viajes en Teslas dotados de sistemas FSD que aparecen en un reportaje del New York Times, todavía existen. Poco a poco, eso sí, va corrigiendo errores a base de datos y de quejas, muchas veces proporcionados por los propietarios y conductores de los coches durante meses al haberse encontrado en situaciones de mayor o menor riesgo. Otros alaban lo que hace la compañía y su CEO, sin importar lo que suceda, y en muchas ocasiones hacen comentarios mostrando su enfado con quien desvela estos fallos.

Su actividad en Twitter ha erosionado la imagen de Musk

Esta filosofía ha llegado, por supuesto, a Twitter, en la que ha tomado decisiones muy polémicas desde que compró la compañía, empeñado en «tomar las medidas que maximicen la felicidad total del público«. Pero lo que ha hecho es enfadar a una cantidad más que notable de sus usuarios. La última es el bloqueo de su API a ciertas apps de terceros. Esto ha hecho que apps históricas que incluso tuvieron mucha influencia en el desarrollo inicial de Twitter, como Twitterrific y Tweetbot, hayan dejado de funcionar, probablemente para siemprre, después de días sin confirmar que el problema de acceso que tenían no era un fallo, sino un «apagón» intencionado de su API.

Otra de sus empresas, Neuralink, también ha sido recientemente el centro de una polémica: las pruebas para sus dispositivos médicos han causado la muerte innecesaria de docenas de animales de laboratorio después de utilizarlos en experimentos. Claramente, para él, el sufrimiento de unos cientos animales merecía la pena para mejorar vidas humanas en el futuro.

Nuevamente, aparece el largo plazo, y la resolución de grandes problemas en mente para el futuro. Pero lo dicho: el corto plazo, y los problemas, persiguen a Musk, cada vez más criticado por los accionistas de Tesla por hacer demasiado caso a Twitter y demasiado poco a Tesla. Eso sí, en los últimos meses, ha dejado de prometer que los Teslas completamente autónomos están a la vuelta de la esquina, porque evidentemente, los problemas con su software de conducción son mayores de lo que esperaba.

Paralelamente, el que antes era considerado un genio que iba a cambiar el sector de la industria del automóvil ya no es visto como tal, debido sobre todo a sus decisiones y actuaciones en Twitter. Cada vez parece más distraído de sus otros puestos, y cada vez frustra más a inversores y analistas. Muchos se preguntan qué pasará con sus acciones y con la empresa, así como con Musk, en 2023. La respuesta la tienen solo Musk y la junta directiva de la compañía.

Redactora de tecnología con más de 15 años de experiencia, salté del papel a la Red y ya no me muevo de ella. Inquieta y curiosa por naturaleza, siempre estoy al día de lo que pasa en el sector.

Lo más leído