Lanzamiento del primer servicio de taxi autónomo en Japón
Conozca cómo Tier IV trabajó con el equipo de AutonomouStuff de Hexagon para combinar la tecnología necesaria para implementar un taxi autónomo.
Empresa: Tier IV, una startup tecnológica y desarrolladora principal del software de código abierto Autoware para la conducción autónoma, con sede en Japón
Reto: Elegir e implementar la pila tecnológica de conducción autónoma adecuada para lanzar el primer servicio de taxi autónomo en Japón
Solución: Colaboración con AutonomouStuff para equipar un vehículo con un sistema de conducción por cable (DBW)
Resultado: Demostración satisfactoria de las pruebas públicas de conducción automatizada en invierno de 2020
Muchos integrantes de varias empresas participaron activamente en la implementación del robotaxi en las ajetreadas calles de Tokio. Entre ellos destacan Tier IV, el creador y director del proyecto; Hexagon | AutonomouStuff, que diseñaron e instalaron el sistema de conducción por cable que dirige la navegación y las maniobras de los taxis; y la Autoware Foundation, el repositorio de muchas de las pilas de software empleadas para transformar los datos de los sensores en comandos de taxi.
Mientras el viento otoñal se adentraba en un invierno gélido en las calles de Tokio, los más curiosos se reunían en espacios seleccionados del ajetreado distrito de Shinjuku. Sosteniendo sus teléfonos y tabletas para grabar un pequeño taxi negro y bien conducido con dos pasajeros sonrientes en el asiento trasero, quedaron maravillados y no paraban de mostrar su asombro por el hecho de que no había nadie sentado tras el volante. Con todo, el taxi salió rodando suavemente del aparcamiento del hotel de lujo para incorporarse a la ajetreada calle y se alejó entre el tráfico.
La conducción autónoma había hecho su debut en una de las metrópolis más concurridas del mundo. Las exitosas pruebas a finales de 2020 del robotaxi se diseñaron para comprobar la seguridad, comodidad y puntualidad del vehículo autónomo, un transporte cada vez más probable del futuro: de un futuro muy próximo. Las empresas implicadas esperan poner dichos taxis en funcionamiento real en la calle ya en 2022 o poco después.
Entre muchos de los comentarios recopilados por la prensa de Tokio de más de 100 pasajeros que realizaron estos viajes sin conductor, el vicegobernador de Tokio dijo: «Me sentí más seguro que viajando en el coche de mi amigo. Fue un viaje cómodo». Claramente, este fue un hito importante para una movilidad más segura en Tokio y para la tecnología de vehículos autónomos en todo el mundo.
Instalación de los controles
Un sistema de accionamiento por cable (DBW) complementa o sustituye los controles mecánicos de un vehículo, como la columna de dirección, el pedal del freno y otros acoplamientos con actuadores electromecánicos que se pueden activar de forma remota o autónoma. En la versión actual del robotaxi, el sistema DBW está dispuesto junto a los enlaces mecánicos tradicionales para que, por lo menos, un agente humano de seguridad pueda volver a tomar el mando del vehículo de prueba si es necesario.
«El alcance de nuestro trabajo con el robotaxi era la instalación de nuestro sistema de conducción por cable en vehículos Toyota en el mercado japonés», explica Lee Baldwin, director de segmento, autonomía principal en la división Autonomy & Positioning de Hexagon.
«Recibimos el taxi de Tier IV en nuestra sede de Morton, Illinois. Tuvimos que desarrollar una interfaz con los sistemas de a bordo para poder proporcionar un sistema DBW a Tier IV».
El módulo de control y actuación de plataforma (PACMod), un sistema patentado diseñado y creado por los ingenieros de Hexagon AutonomouStuff, ofrece un control preciso por cable de las funciones principales de conducción y los componentes auxiliares. PACMod controla por cable el acelerador, los frenos, la dirección y la transmisión. También envía comandos a los intermitentes, los faros, las luces de emergencia y el claxon.
Cuenta con una interfaz de bus de red de área de controlador (CAN) y recopila información del vehículo para su posterior análisis, lo que es especialmente importante en los vehículos de investigación y desarrollo para los que está diseñado principalmente: factores como la velocidad, el ángulo del volante, las velocidades individuales de las ruedas y mucho más.
Por último, tiene un diseño de seguridad incorporado con características intuitivas, como el regreso inmediato al control manual completo en situaciones de emergencia. Esto lo cualifica para la homologación de carreteras en Europa, EE. UU. y Japón.
Los ingenieros de AutonomouStuff instalaron el DBW y el control de velocidad y dirección (SSC), y luego enviaron el robotaxi de vuelta a Japón. Tier IV lo llevó a su taller e instaló los numerosos sensores y la versión patentada de Autoware de la empresa.
Implementación del cerebro del vehículo
Autoware consta de pilas de software modulares y personalizables, cada una con un propósito especial dentro del vehículo autónomo. En su nivel superior, el control formula los comandos reales que el sistema transmite a los actuadores a través del sistema DBW para lograr lo que el módulo de planificación quiere que haga el vehículo: ir del punto A al punto B. Incluye módulos de percepción, control y toma de decisiones. Su arquitectura hace que cada función sea un módulo independiente, en el que sea fácil añadir, eliminar o modificar funcionalidades en función de las necesidades particulares del proyecto.
Autoware suministra y respalda a la comunidad de conducción autónoma de código abierto más grande del mundo, desarrollando aplicaciones desde sistemas avanzados de asistencia al conductor (ADAS) hasta conducción autónoma. El ecosistema de software está administrado por la Autoware Fundation, una fundación sin ánimo de lucro, que cuenta con más de 50 miembros corporativos, organizativos y universitarios. Tier IV y AutonomouStuff son miembros y participantes principales de la fundación.
«Autoware se utiliza en proyectos en EE. UU., Japón, China, Taiwán y Europa», afirma Christian John, presidente de Tier IV Norteamérica. «Toda la experiencia de aprendizaje, pruebas y depuración vuelve a la plataforma de código abierto. Todos se benefician de esas mejoras».
«Es necesario contar con un gran número de socios para implementar y utilizar una tecnología autónoma. Los diversos sensores, LiDAR, cámaras, ECU que ejecutan el software...todos estos elementos deben funcionar conjuntamente para implementar la autonomía».
AutonomouStuff y Tier IV han trabajado juntos desde principios de 2020 en una asociación estratégica para crear, apoyar e implementar soluciones de software de autonomía en todo el mundo y en diferentes industrias.
«Es necesario contar con un gran número de socios para implementar una tecnología autónoma. Sensores, LiDAR, cámaras, ECU que ejecutan el software...todos estos elementos deben funcionar conjuntamente».
Demostración de la tecnología en situaciones reales
En noviembre y diciembre de 2020, Tier IV y sus socios llevaron a cabo un total de 16 días de pruebas públicas de conducción automatizada en Nishi-Shinjuku, un centro comercial concurrido en el centro de Tokio. Varios funcionarios del gobierno y personas del público en general viajaron de pasajeros en rutas de 1 a 2 kilómetros para después ofrecer una valoración. Algunos días, un conductor de seguridad se sentaba ante volante, listo para tomar el control si ocurría algo inesperado (pero no llegó a ocurrir nada). En otros casos, el asiento del conductor estaba vacío y un conductor a distancia supervisaba las pantallas que mostraban el entorno y el progreso del vehículo, listo para asumir el control remoto.
Las pruebas de noviembre se realizaron a lo largo de una única ruta predeterminada. Las pruebas de diciembre permitieron a los participantes elegir entre tres puntos de salida y llegada diferentes a través del teléfono móvil, llamar el taxi y, a continuación, dejar que este conduciera de forma autónoma hasta el destino deseado. Por lo tanto, el vehículo tuvo que calcular y decidir entre muchas rutas potenciales, lo que hizo que la implementación fuera más difícil.
Participaron más de 100 conductores de prueba. Fue una experiencia de aprendizaje intensiva para los diseñadores y operadores del robotaxi, a juzgar por los comentarios posteriores en blogs sobre las demostraciones de algunos los ingenieros de Tier IV. El difícil entorno y las condiciones de Nishi-Shinjuku (tráfico intenso, muchos giros a la izquierda y a la derecha, decisiones de cambio de carril, etc.) se combinan para probar al máximo las capacidades de robotaxi.
Una de las lecciones inesperadas aprendidas fue la detección falsa de obstáculos. Los bordillos altos en algunos arcenes e incluso las acumulaciones de hojas en las cunetas crearon problemas para el sistema de percepción. El software está programado para reconocer lo que se debe detectar, como automóviles y peatones, y para distinguir estos objetos de otros, como la lluvia u hojas en movimiento, que se puede ignorar. Sin embargo, esto sigue siendo un trabajo en curso. Diferenciar entre la caída de hojas y objetos que caen de la parte trasera de un camión no es tan fácil para el robotaxi como para el ojo humano y el cerebro.
Otro problema que indica la necesidad de futuros trabajos fue el rendimiento de los giros desprotegidos en intersecciones no señalizadas, cuando la visión del tráfico en sentido contrario estaba obstaculizada (algo que requiere una buena dosis de juicio humano y una reacción rápida) o la tasa de enfoque del tráfico en sentido contrario era difícil de estimar.
En este sentido, Autoware está programado para no acelerar repentinamente con el objetivo de aprovechar un espacio en el tráfico, como lo podría hacer un conductor humano; se valoran, ante todo, la comodidad y la tranquilidad de los pasajeros. Estos equilibrios entre conservación y agresividad, tan naturales para los seres humanos, pueden ser difíciles de lograr en un sistema programado con tráfico intenso.
Los sensores LiDAR también experimentaron dificultades ocasionales en entornos sin características distintivas, como espacios abiertos de estacionamiento y túneles. Además, el coste relativamente alto de los sensores LiDAR puede crear dificultades a escala de mercado de masas, cuando sea necesario equipar muchos vehículos.
Para resolver esto, algunos ingenieros de Tier IV publicaron en su blog que estaban experimentando con una técnica llamada Visual SLAM, que emplea una cámara relativamente económica junto con una unidad de medición inercial (IMU) en lugar de un sensor LiDAR. Esto crea un mapa utilizando información visual y, al mismo tiempo, calcula su propia posición en el mapa. Además, se está investigando activamente una tecnología llamada reubicación, que calcula dónde te encuentras en un mapa creado previamente.
Pero Visual SLAM tiene sus propios retos: no funciona bien en la oscuridad, ni con muchos objetos que se mueven de forma simultánea y divergente.
Escalar para el futuro
Sin embargo, Tier IV y AutonomouStuff disfrutan con este tipo de retos.
«Hay mucha innovación en esta área», explica John. «El sistema operativo (de código abierto) permite a muchos actores incorporar sus soluciones al ecosistema: costes, consumo de energía, arquitecturas de seguridad: estos esfuerzos están aportando las mejores soluciones y actores de su clase».
El mercado de vehículos sin conductor se encuentra en pleno desarrollo y cuenta con muchos agentes implicados y muchas variantes de combinaciones e integraciones de sensores; algunos más caros, otros menos».
«Otras empresas están integradas de forma muy vertical», añade John, «desarrollando sus propias pilas de software, en lugar de nuestro enfoque hacia el código abierto». El mercado todavía se encuentra en sus inicios, desde el punto de vista de la adopción de una implementación masiva. Algunos agentes implicados han podido demostrar el nivel 4 completo e implementarlo en mercados limitados».
Pero, al mismo tiempo, para ampliar sus enfoques, debe producirse otra ronda significativa de optimización de sistemas. Mil vatios más la potencia informática en un automóvil y una integración de sensores de 100 000 USD por vehículo: esto no se traduce simplemente en una escala de decenas de miles de vehículos en muchas ciudades.
«Por eso, ahora realizamos toda esta inversión: LiDAR potente, radar de imágenes; todos estos elementos que siguen mejorando las capacidades de percepción. Esto significa que las nuevas soluciones deben integrarse y optimizarse dentro de nuestra pila de percepción. Después, una vez que haya realizado estos cambios, ¿cómo verifico mi nuevo sistema? ¿Cómo puedo demostrar que sigue cumpliendo los requisitos de seguridad?»
John tiene las últimas palabras de cara al futuro. «Para mí, parece que todos han demostrado que es posible hacer que el software funcione en implementaciones limitadas. Para ampliar esto, se necesitará otra inversión significativa para rediseñar y validar los sistemas, y el código abierto desempeñará un papel significativo para optimizar las soluciones de AD de última generación.»