Conecta con nosotros

A Fondo

Ingenieros y filósofos unidos para desarrollar la inteligencia de los coches autónomos

Publicado el

5117201735_7583bdcdc3_z

Hace unos días saltaba la polémica sobre los accidentes leves que habían tenido los coches de Google. En total 11 accidentes leves de los que Google echaba la culpa a los peatones y otros conductores.

Ante esta polémica, Chris Urmson, director del proyecto, explicaba que a día de hoy, los accidentes automovilísticos están provocados en su mayoría por los conductores y no por el vehículo en si.

«Muchas personas no prestan atención a la carretera. En cualquier momento del día en América hay 660.000 personas en un coche que están comprobando sus dispositivos en lugar de mirar a la carretera. Nuestros conductores de seguridad ven habitualmente gente entrando y saliendo de su carril. Hemos visto gente leyendo libros e incluso tocando una trompeta. Con 360 grados de visibilidad y el 100% de atención en todas las direcciones y en todo momento, nuestros sensores pueden registrar otros vehículos, ciclistas y peatones a una distancia de dos campos de fútbol“.

Hace poco, Google publicaba una patente en la que recogía 7 situaciones en la que su coche se negaría a conducir por nosotros.

  1. Clima peligroso: Si el vehículo detecta condiciones meteorológicas extremas (inundaciones, gran cantidad de nieve…) que puedan poner en peligro el vehículo o a sus ocupantes, es posible que se niegue a entrar en modo automático.
  2. Vía no adecuada: Los coches autónomos de Google tendrán una lista de carreteras en las que el sistema cree que es seguro conducir. Si la carretera no está en esa lista, no se activará. Lo mismo ocurrirá si se trata de un camino no registrado en los mapas o sin asfaltar.
  3. Situación peligrosa: Antes de pasar a modo automático, el coche evaluará si la situación es adecuada para tomar el control del vehículo. Eso incluye el exceso de velocidad, la situación en el carril, o la distancia de seguridad con otros vehículos. Si el coche cree que puede producirse un choque inminente, no entrará en modo autónomo. La razón de esto es evitar que los conductores intenten echarle la culpa al coche en el caso de que se produzca un accidente.
  4. Situación dudosa: no tiene por qué suponer un peligro inminente, pero si el coche detecta que está en una vía demasiado estrecha, no está perfectamente centrado en su carril, o está en mitad de una curva, el modo automático no se activará.
  5. Vehículo en mal estado: antes de pasar a modo autónomo, el coche chequeará sus sistemas en busca de posibles averías. Si detecta alguna que pueda ser un riesgo para la circulación, no se activará.
  6. Mantenimiento no adecuado: Si el mantenimiento del vehículo no está al día (aceite, líquido de frenos, líquido de la dirección…), el modo autónomo no funcionará.
  7. Ruedas, cinturones y puertas: Si las ruedas no tienen la presión adecuada, no nos hemos abrochado el cinturón de seguridad, o alguna puerta ha quedado abierta… tampoco conducirá por nosotros.

template

Aún así, aunque desde Google aseguren y se reafirmen en la seguridad y experiencia de sus automóviles surge una importante cuestión ¿hasta que punto deben ser autónomos los coches autónomos? Para resolver esta pregunta filósofos e ingenieros se han reunido en la Universidad de Standford con el objetivo de debatir el tema.

Según cuentan en MIT Techonology Review, en este taller implementaron distintas configuraciones éticas dentro del software que controla los vehículos autónomos y luego probaron el código en simulaciones e incluso en vehículos reales. Tales configuraciones podrían, por ejemplo, mandar al coche priorizar evitar chocar con seres humanos sobre evitar chocar con vehículos estacionados, o mandarle que no se desvíe para evitar chocar con ardillas.

En un evento reciente de la industria, Chris Gerdes, profesor de la Universidad de Stanford, que dirige un laboratorio de investigación que experimenta con hardware sofisticado y software para la conducción autónoma, dio un ejemplo de uno de estos escenarios: un niño sale de repente a la carretera, obligando al coche autónomo a elegir entre chocar contra el niño o desviarse para chocar con una furgoneta que se aproxima en dirección contraria.

«Cuando observamos esta escena con ojos humanos, uno de estos obstáculos es mucho más valioso que el otro», dijo Gerdes. «¿Cuál es la responsabilidad del coche?»

Gerdes señaló que podría incluso ser preferible desde un punto de vista ético poner en riesgo a los pasajeros del coche autónomo. «Si eso evitaría al niño, si salvaría la vida del niño, ¿podríamos lesionar al ocupante del vehículo? Son decisiones muy duras a las que se enfrentan los algoritmos de control de los coches autónomos a diario«, afirmó.

Gerdes pidió a los investigadores, ingenieros y ejecutivos automovilísticos durante el evento que se preparen para considerar las implicaciones éticas de la tecnología que están desarrollando. «No vas a poder ir a coger el módulo ético y conectarlo a tu coche autónomo sin más«, dijo.

Otros expertos están de acuerdo en que habrá una importante dimensión ética en el desarrollo de la tecnología de la conducción autónoma.

«Cuando pides a un coche que tome una decisión, tienes un dilema ético«, explica Adriano Alessandrini, un investigador que trabaja en vehículos autónomos en la Universidad de Roma La Sapienza en Italia. «Puedes ver algo en tu camino, y puedes decidir cambiar de carril, y mientras lo haces, puedes encontrar que otra cosa está ocupando ese carril. Así que eso es un dilema ético«.

Alessandrini lidera un proyecto llamado CityMobil2, que realiza pruebas con vehículos autónomos de transporte en ciudades italianas. Estos vehículos son mucho más sencillos que los coches que están desarrollando Google y otros fabricantes; simplemente siguen una ruta y frenan si se encuentran con algún obstáculo. Alessandrini cree que esto podría hacer que la tecnología resulte más fácil de desplegar. «No tendremos este problema ético«, afirma.

Otros creen que la situación es algo más complicada. Por ejemplo, Bryant Walker-Smith, un profesor adjunto de la Universidad de Carolina del Sur que estudia las implicaciones legales y sociales de los vehículos autónomos, dice que muchas decisiones éticas ya se toman durante el proceso de ingeniería automovilística. «La ética, la filosofía, la ley: todas estas asunciones sustentan tantas decisiones«, dice. «Si consideras los airbags, por ejemplo, es inherente a esa tecnología la asunción de que vas a salvar muchas vidas, y cobrar sólo unas pocas«.

Walker-Smith añade que, dado el número actual de accidentes de tráfico mortales causados por error humano, podría considerarse inmoral ralentizar demasiado la introducción de la tecnología de conducción autónoma. «La mayor cuestión ética es a qué ritmo avanzaremos. Tenemos una tecnología que podría salvar muchas vidas, pero que no va a ser perfecta y también va a matar«.

Imagen de apertura: Andrew Smith/Flickr

Segunda imagen: Google

En el mundo de la tecnología por casualidad pero enormemente agradecida. Social Media Manager, Redacción, Organización y cualquier reto que se me proponga.

Lo más leído