Image de l’intérieur du Robotaxi.

Lancement des premiers taxis autonomes au Japon

Découvrez comment Tier IV a collaboré avec l’équipe AutonomouStuff d’Hexagon pour combiner les technologies nécessaires au déploiement d’un taxi autonome.

Société : Tier IV, basée au Japon, est une start-up technologique et le développeur du projet majeur Autoware, un logiciel open source pour la conduite autonome

Défi : Choisir et mettre en œuvre la pile technologique adéquate pour la conduite autonome afin de lancer le premier service de taxis autonomes au Japon.

Solution : Collaborer avec AutonomouStuff pour équiper un véhicule d’un dispositif de conduite programmable (système « drive-by-wire » ou DBW).

Résultat : Démonstration réussie d’essais publics de conduite automatisée à l’hiver 2020.

 

De nombreuses personnes de plusieurs entreprises ont joué un rôle actif dans l’arrivée du Robotaxi dans les rues animées de Tokyo. Parmi eux figure Tier IV, l’entreprise à l’origine – et responsable – du projet, mais aussi Hexagon | AutonomouStuff, qui a conçu et installé le système Drive by wire pilotant la navigation et les manœuvres des taxis ; ainsi qu’Autoware Foundation, une solution de dépôt pour une multitude de logiciels dont le but est de transformer les données de capteurs en commandes du taxi.

À Tokyo, alors que l’automne venteux devenait l’hiver, des foules curieuses se sont rassemblées à certains carrefours du quartier animé de Shinjuku. Téléphone et tablette à la main, il s’agissait de filmer un petit taxi noir et bien équipé avec deux passagers souriants sur la banquette arrière. La foule s’est émerveillée, les spectateurs attirant mutuellement leur attention sur l’absence de conducteur derrière le volant. Et pourtant, le taxi quittait le parking de l’hôtel de luxe en douceur, pour emprunter la rue animée et s’insérer dans la circulation.

C’étaient les débuts prometteurs de la conduite autonome, dans l’une des métropoles les plus fréquentées au monde. Fin 2020, les tests réussis de Robotaxi visaient à vérifier la sécurité, le confort et la ponctualité de la voiture autonome, un moyen de transport de plus en plus probable pour l’avenir : un avenir très proche. Les entreprises concernées espèrent une mise en service de ces taxis en 2022 ou après.

Parmi les nombreux commentaires recueillis par la presse de Tokyo auprès de plus de 100 passagers qui ont effectué les trajets sans conducteur, le vice-gouverneur de Tokyo a déclaré : « Je me suis senti plus en sécurité que lorsque j’étais dans la voiture de mon ami. C’était un voyage confortable. » Il s’agit clairement d’une étape importante pour une mobilité plus sûre à Tokyo et pour la technologie des véhicules autonomes dans le monde entier.

 

Montage des éléments de commande

Un dispositif de conduite programmable (système « drive-by-wire » ou DBW) complète les commandes mécaniques d’un véhicule telles que la colonne de direction, la pédale de frein et d’autres pièces de liaison, ou les remplace par des actionneurs électromécaniques activables à distance ou de manière autonome. Dans la version actuelle du Robotaxi, le système DBW est installé parallèlement aux liaisons mécaniques traditionnelles de sorte que, pour le moment, un opérateur humain de sécurité peut reprendre le contrôle du véhicule d’essai si nécessaire.

« L’objectif de notre travail pour Robotaxi était d’installer notre système DBW dans le véhicule Toyota sur le marché japonais », explique Lee Baldwin, directeur du segment core autonomy au sein de la Division Autonomy & Positioning d’Hexagon.

« Nous avons réceptionné le taxi Tier IV à notre siège à Morton, dans l’Illinois. Nous avons par ailleurs dû développer une interface pour les systèmes embarqués, afin de fournir un système DBW à Tier IV. »

Le module d’actionnement et de commande de plateforme PACMod (de l’anglais Platform Actuation and Control Module) est un système propriétaire conçu et construit par les ingénieurs d’Hexagon AutonomouStuff. Il offre un contrôle à commande électrique précis des fonctions de conduite principales et des composants auxiliaires. Le PACMod commande l’accélérateur, les freins, la direction et la transmission. Il envoie également des commandes aux clignotants, aux phares, aux feux de détresse et à l’avertisseur sonore.

Il dispose d’une interface de bus de données CAN (Control Area Network) et collecte les retours d’information du véhicule pour une analyse ultérieure, ce qui est particulièrement important dans les véhicules de R&D pour lesquels il est principalement conçu. Ces informations portent sur des facteurs tels que la vitesse, l’angle de braquage du volant, les vitesses de rotation de roue individuelles, etc.

Enfin, il est doté d’une sécurité intégrée avec des fonctions intuitives, telles qu’un retour immédiat à un contrôle manuel complet dans les situations d’urgence. Ces caractéristiques lui ont permis d’être homologué pour les routes en Europe, aux États-Unis et au Japon.

Les ingénieurs d’AutonomouStuff ont installé le DBW et la commande de vitesse et de direction, puis ont renvoyé le Robotaxi au Japon. Dans l’atelier de Tier IV, de nombreux capteurs ont été installés, de même que la version propriétaire d’Autoware.

 

Équiper le « cerveau »

Autoware se compose de piles logicielles modulaires et personnalisables, chacune ayant un objectif particulier dans le véhicule autonome. À son niveau supérieur de contrôle, il formule les commandes réelles que le système envoie aux actionneurs via le dispositif DBW. Ces commandes mettent en œuvre les informations sur les actions du véhicule du module de planification pour se rendre d’un point A à un point B. Il comprend aussi des modules de perception, de contrôle et de prise de décision. Son architecture est pensée pour que chaque fonction corresponde à un module indépendant, facile à ajouter, à supprimer ou à modifier en fonction des besoins spécifiques du projet.

En développant des applications allant des systèmes avancés d’aide à la conduite (ADAS) à la conduite autonome, Autoware fournit et soutient la plus grande communauté mondiale de conduite autonome open source. L’écosystème logiciel est géré par l’association à but non lucratif Autoware Foundation, qui compte plus de 50 membres (entreprises, organisations et universités). Tier IV et AutonomouStuff sont membres et participants clés de la fondation.

« Autoware est utilisé dans des projets aux États-Unis, au Japon, en Chine, à Taïwan et en Europe », explique Christian John, président de Tier IV Amérique du Nord. « Tout l’apprentissage, les essais, le débogage... toute cette expérience revient dans la plateforme open source. Tout le monde bénéficie de ces améliorations.

« De nombreux partenaires sont nécessaires pour mettre en œuvre et déployer une technologie autonome. Les divers capteurs, les LiDAR, les caméras ou encore les ECU exécutant le logiciel doivent tous être réunis. »

Depuis début 2020, AutonomouStuff et Tier IV collaborent dans le cadre d’un partenariat stratégique pour créer, soutenir et déployer des solutions logicielles d’autonomie dans le monde entier et pour des secteurs variés.


« De nombreux partenaires sont nécessaires pour mettre en œuvre et déployer une technologie autonome. Les capteurs, les LiDAR, les caméras ou encore les ECU exécutant le logiciel doivent pour cela tous être réunis. »
Christian John
Tier IV

Démonstration de la technologie dans des scénarios réels

En novembre et décembre 2020, Tier IV et ses partenaires ont mené au total 16 jours d’essais publics de conduite automatisée à Nishi-Shinjuku, un quartier d’affaires très fréquenté dans le centre de Tokyo. Des fonctionnaires et des membres du public ont été recrutés comme passagers des véhicules autonomes et pour commenter des itinéraires de 1 à 2 kilomètres dans la circulation. Certains jours, pour des raisons de sécurité, un conducteur auxiliaire était présent derrière le volant, prêt à prendre le contrôle si quelque chose d’inattendu se produisait (cela n’a jamais été le cas). D’autres jours, le siège du conducteur était vide. Un conducteur à distance surveillait alors des écrans affichant l’environnement et la progression du véhicule, prêt à en prendre le contrôle à distance.

En novembre, les essais se sont déroulés sur une seule route prédéterminée. Lors des essais de décembre, les participants ont pu choisir entre trois points de départ et d’arrivée différents sur leur smartphone, ont pu appeler le taxi autonome et monter à bord jusqu’à la destination souhaitée. Par conséquent, le véhicule devait calculer de nombreux itinéraires potentiels et en choisir un, ce qui rendait la mise en œuvre plus difficile.

Au total, plus de 100 passagers ont participé à ces essais. Cela a été une expérience d’apprentissage intense pour les concepteurs et opérateurs du Robotaxi, comme l’ont ensuite exprimé certains ingénieurs de Tier IV dans des blogs en ligne. Ensemble, l’environnement et les conditions difficiles de Nishi-Shinjuku (trafic intense, nombreux virages à gauche et à droite, décisions de changement de voie, etc.) ont permis de tester pleinement les capacités du Robotaxi.

L’un des enseignements inattendus a porté sur la fausse détection d’obstacles. Des bordures de trottoir élevées sur certaines routes, voire des accumulations de feuilles dans les gouttières ont posé problème pour le système de perception. Autoware est programmé pour reconnaître les éléments à détecter, notamment les voitures et les piétons, mais aussi pour distinguer ces objets des autres, comme la pluie ou les feuilles en vol, qui sont alors ignorées. Cependant, des améliorations sont encore en cours. Le Robotaxi éprouve plus de difficultés que le cerveau et les yeux humains à distinguer les feuilles qui tombent des arbres des objets qui tombent de l’arrière d’un camion.

Un autre problème témoignant du travail à effectuer à l’avenir a été la performance lors des bifurcations non protégées aux intersections non signalées, soit lorsque la vue sur la circulation en sens inverse était masquée (ce qui nécessite une bonne dose de jugement humain et de réaction), soit quand la vitesse d’approche de la circulation en sens inverse était difficile à estimer.

Ajoutons-y qu’Autoware est aussi programmé pour éviter les accélérations brusques, afin de tirer parti d’un écart de circulation comme le ferait un humain. Le confort et la facilité d’utilisation des passagers sont précieux. Ces équilibres entre prudence et agressivité, si naturels pour l’homme, peuvent être difficiles à atteindre dans un système programmé se trouvant dans un trafic intense.

Les capteurs LiDAR ont également rencontré des difficultés occasionnelles dans des environnements sans caractéristiques distinctives, tels que des tunnels et des parcs ouverts. En outre, le coût relativement élevé des capteurs LiDAR pourrait entraîner des difficultés sur l’ensemble du marché si de nombreux véhicules devaient en être équipés.

Pour résoudre ce problème, certains ingénieurs de Tier IV ont écrit un article sur leur technique expérimentale Visual SLAM. Celle-ci consiste à utiliser, à la place d’un capteur LiDAR, une caméra relativement peu coûteuse associée à une unité de mesure inertielle (IMU). Ce système crée une carte à partir d’informations visuelles en estimant sa propre position sur la carte. En outre, des recherches actives sont actuellement menées sur la technologie de relocalisation, qui estime votre emplacement sur une carte créée à l’avance.

Le Visual SLAM présente toutefois ses propres défis : cette technologie ne fonctionne pas bien dans l’obscurité ni avec de nombreux objets en mouvement simultané et divergent.


Image de l’intérieur du Robotaxi.

 

Voir plus grand pour l’avenir

Tier IV et AutonomouStuff prennent du plaisir à relever des défis.

« De nombreuses innovations ont lieu dans ce domaine », explique Christian John. « Le système d’exploitation en open source permet à de nombreux acteurs d’intégrer leurs solutions de coût, de consommation d’énergie et d’architectures de sécurité à l’écosystème : ces efforts donnent lieu aux meilleures solutions et aux meilleurs acteurs. »

Le marché en plein essor des véhicules sans conducteur compte une multitude d’acteurs et une myriade de combinaisons de capteurs et d’intégrations, certaines étant plus coûteuses que d’autres.

« D’autres entreprises sont très intégrées verticalement en développant leurs propres piles logicielles, ajoute Christian John, contrairement à notre approche open source. » Le marché est encore au stade du lancement si l’on considère l’adoption des déploiements de masse. Certains acteurs ont pu atteindre le niveau 4 et se déployer sur des marchés limités. »

« Mais, en même temps, pour vraiment élargir leurs approches, un autre cycle important d’optimisation des systèmes doit avoir lieu. Une voiture avec un ordinateur embarqué de plus d’un millier de watts et une intégration de capteurs pour un montant de 100 000 USD par véhicule : à l’échelle de dizaines de milliers de véhicules urbains dans de nombreuses villes, ce concept n’est simplement pas adaptable.

« C’est pourquoi il y a tous ces investissements dans la technologie LiDAR à l’état solide, le radar d’imagerie et tout ce qui continue à faire progresser les capacités de perception. De nouvelles solutions doivent donc être intégrées et optimisées dans le domaine de la perception. Ensuite, une fois ces changements effectués, comment vérifier mon nouveau système ? Comment démontrer qu’il répond toujours aux exigences de sécurité ? »

Christian John a les derniers mots pour l’avenir. « J’ai l’impression que tout le monde a démontré sa capacité à faire fonctionner le logiciel dans des déploiements limités. À plus grande échelle, d’autres investissements significatifs seront nécessaires pour repenser et valider les systèmes. Et l’open source jouera un rôle important dans l’optimisation des solutions AD de nouvelle génération. »