19 mayo, 2024

Los robotaxis son un negocio ultratecnológico multimillonario. Una camiseta de 15 euros es suficiente para ‘hackearlos’

Una de las grandes apuestas tecnológicas en las que muchas marcas se embarcaron con la promesa de un futuro brillante es el de la conducción autónoma de nivel 4 o 5, es decir, que el coche conduzca sólo, sin intervención o supervisión de un humano.

En la actualidad, ya existen servicios de robotaxis, como el de Waymo, en el que un coche vacío, viene sólo te recoge y te lleva a tu destino. No es magia, es alta tecnología. Aunque, para poner en jaque semejante proeza técnica sólo hace falta una simple camiseta. Y eso tiene graves implicaciones en términos de seguridad.

En un mundo en el que la tecnología de los vehículos autónomos promete revolucionar nuestra forma de viajar, un sencillo experimento nos recuerda que no todo es un camino de rosas.

Llevando el coche autónomo al límite con un truco analógico

Jason B Carr, un creador de contenidos, demostró recientemente un sorprendente fallo en el reconocimiento visual de los coches autónomos de Waymo, el gigante de la conducción autónoma y que opera en San Francisco o Phoenix y ha anunciado que próximamente lo hará también en Los Ángeles.

El experimento de Jason fue tan sencillo como ingenioso: se puso una camiseta estampada con una señal de stop, un accesorio de baja tecnología, pero suficiente como para confundir a la avanzada tecnología de los robotaxis.

Saliendo de detrás de los coches aparcados o simplemente parándose en la acera, el Jaguar I-Pace de Waymo, equipado con algunos de los sistemas de conducción autónoma más avanzados del mercado, se detuvo al ver la camiseta de Carr.

Poco tiempo después, @S3XYengineering, que se presenta como ex ingeniero de Tesla y Apple, ha reproducido el experimento, tanto de día como de noche. Y el resultado es el mismo: el Jaguar de Waymo se detiene viendo una señal “Stop”, aunque de noche con poca iluminación el coche no parece ver siempre el Stop en las camisetas negras.

El hecho de que un coche autónomo se detenga frente a una persona con una camiseta que luce la señal “Stop” puede parecer inofensivo a primera vista, pero plantea cuestiones fundamentales sobre la forma en que estos vehículos interpretan su entorno.

Hay varias explicaciones posibles para esta reacción: los sensores de los vehículos pueden haber percibido cada una de esas personas como un peatón a punto de cruzar la carretera, o como un trabajador de la construcción sosteniendo una señal de stop real.

Por una parte, es positivo que el coche reaccione a una señal de Stop que no está en su base de datos, en sus mapas. Podría ser una señal por una obra, por un vehículo de emergencia que ocupa parte de la calzada o por cualquier otra razón legítima.

Por otra parte, es un error que puede suponer desde un simple retraso para quien esté a bordo hasta un posible atraco. Nada impide que alguien detenga un robotaxi de Waymo con una simple camiseta y que unos complices irrumpan en el coche rompiendo las lunas. Que unos robotaxis se detengan frente a una camiseta con la señal Stop son casos extremos, pero no por ello deberían minimizarse, al contrario.

Este fenómeno ilustra lo que los ingenieros en robótica denominan un «caso límite», escenarios poco comunes que no se dan con frecuencia, pero que pueden inducir a error a los algoritmos de los sistemas autónomos. Estos casos representan un verdadero reto para los desarrolladores de coches autónomos, ya que requieren una capacidad de juicio casi humana para ser evaluados y procesados correctamente.

Aunque estos experimentos puedan parecer un fallo de la parte de Waymo, es algo normal. Detectar y solucionar los casos límites es algo esencial para preparar los sistemas para reaccionar adecuadamente ante imprevistos en la carretera, garantizando así la seguridad de los pasajeros y otros usuarios de la vía y evitar casos dramáticos como ocurridos con los robotaxis de Cruise.



Ver fuente