Bild des Robotaxis

Einführung des ersten autonomen Taxidienstes in Japan

Erfahren Sie, wie Tier IV mit Hexagons AutonomouStuff zusammenarbeitete, um die Technologien zu kombinieren, die für den Einsatz eines autonomen Taxis erforderlich sind.

Unternehmen: Tier IV ist ein Technologie-Start-up mit Sitz in Japan und führender Entwickler von Autoware Open-Source-Software für autonomes Fahren

Herausforderung: Auswahl und Implementierung des richtigen Technologie-Stacks für autonomes Fahren zur Einführung des ersten autonomen Taxidienstes in Japan

Lösung: Zusammenarbeit mit AutonomouStuff, um ein Fahrzeug mit einem Drive-by-Wire-System (DBW) auszustatten

Ergebnis: Erfolgreiche Demonstration von öffentlichen automatisierten Testfahrten im Winter 2020

 

Viele Hände in mehreren Unternehmen haben eine aktive Rolle dabei gespielt, die Robotaxis auf Tokios geschäftige Straßen zu bringen. Zu den wichtigsten gehören Tier IV, der Initiator und Manager des Projekts; Hexagon | AutonomouStuff, das das Drive-by-Wire-System für die Taxinavigation und das Manövrieren entwickelt und installiert hat; und die Autoware Foundation, Speicherort vieler der Software-Stacks, die zur Umwandlung von Sensordaten in Taxibefehle verwendet werden.

Als sich der windige Herbst in den Straßen Tokios in einen eiskalten Winter verwandelte, versammelten sich neugierige Menschenmassen an ausgewählten Straßenecken im geschäftigen Stadtteil Shinjuku. Sie hielten ihre Handys und Tablets hoch, um ein kleines, schwarzes, gut ausgestattetes Taxi mit zwei lächelnden Fahrgästen auf dem Rücksitz zu filmen, staunten und wiesen einander darauf hin, dass niemand hinter dem Lenkrad saß. Dennoch rollte das Taxi reibungslos vom Parkplatz eines Luxushotels auf die belebte Straße und weiter in den Verkehr.

Autonomes Fahren hatte hier in einer der verkehrsreichsten Metropolen der Welt sein spektakuläres Debüt. Die erfolgreichen Tests des Robotaxis Ende 2020 sollten die Sicherheit, den Komfort und die Pünktlichkeit des selbstfahrenden Autos, eines immer wahrscheinlicher werdenden Transportmittels der Zukunft – der sehr nahen Zukunft – überprüfen. Die beteiligten Unternehmen hoffen, solche Taxis 2022 oder bald danach in den eigentlichen Straßenbetrieb zu bringen.

Unter den vielen Kommentaren, die von der Tokioter Presse von mehr als 100 Fahrgästen, die die fahrerlosen Fahrten ausprobiert haben, gesammelt wurden, sagte der Vizegouverneur von Tokio: „Ich fühlte mich sicherer als im Auto meines Freundes. Es war eine bequeme Fahrt.“ Dies war eindeutig ein bedeutender Meilenstein für eine sicherere Mobilität in Tokio und für autonome Fahrzeugtechnologie auf der ganzen Welt.

 

Bedienelemente einbauen

Ein Drive-by-Wire-System (DBW) ergänzt oder ersetzt die mechanischen Bedienelemente eines Fahrzeugs wie Lenksäule, Bremspedal und andere Gestänge durch elektromechanische Aktuatoren, die ferngesteuert oder autonom aktiviert werden können. In der aktuellen Version der Robotaxis sitzt das DBW-System neben den klassischen mechanischen Gestängen, so dass – zumindest für die Gegenwart – ein Sicherheitsfahrer bei Bedarf das Kommando über das Testfahrzeug wieder übernehmen kann.

„Der Umfang unserer Arbeit für die Robotaxis bestand darin, unser Drive-by-Wire-System für das Toyota-Fahrzeug auf dem japanischen Markt zu installieren“, sagt Lee Baldwin, Segment Director, Core Autonomy bei Hexagons Autonomy & Positioning Division.

„Wir nahmen das Tier IV-Taxi an unserem Hauptsitz in Morton, Illinois, entgegen. Wir mussten eine Schnittstelle zu den Onboard-Systemen entwickeln, damit wir Tier IV ein DBW-System zur Verfügung stellen konnten.“

Das Platform Actuation and Control Module (PACMod), ein von Hexagon AutonomouStuff-Ingenieuren entwickeltes und gebautes proprietäres System, ermöglicht eine präzise Steuerung der wichtigsten Antriebsfunktionen und Zusatzkomponenten über Kabel. PACMod steuert über Kabel das Gaspedal, die Bremsen, die Lenkung und das Getriebe. Außerdem sendet es Befehle an Blinker, Scheinwerfer, Warnblinker und Hupe.

Es verfügt über eine Controller Area Network (CAN) Bus-Schnittstelle und sammelt Fahrzeugfeedback für die spätere Analyse, was besonders bei den F&E-Fahrzeugen wichtig ist, für die es primär entwickelt wurde: Faktoren wie Geschwindigkeit, Lenkradeinschlag, individuelle Radgeschwindigkeiten und mehr.

Und schließlich verfügt es über ein integriertes Sicherheitskonzept mit intuitiven Sicherheitsfunktionen, wie z. B. die sofortige Rückkehr zur vollständigen manuellen Steuerung in dringenden Situationen. Damit ist es für die Straßenzulassung in Europa, den USA und Japan qualifiziert.

Die Ingenieure von AutonomouStuff installierten das DBW und die Geschwindigkeits- und Lenkungssteuerung (SSC) und schickten das Robotaxi dann zurück nach Japan. Tier IV brachte es in die eigene Werkstatt und installierte die vielen Sensoren und die unternehmenseigene proprietäre Version von Autoware.

 

Einsetzen der Intelligenz

Autoware besteht aus modularen, anpassbaren Software-Stacks, die jeweils einen speziellen Zweck innerhalb des autonomen Fahrzeugs erfüllen. Auf der obersten Ebene, der Steuerung, werden die tatsächlichen Befehle formuliert, die das System den Aktoren über das DBW-System gibt, um zu erreichen, was das Planungsmodul will, damit das Fahrzeug von Punkt A nach Punkt B gelangt. Autoware umfasst Module zur Wahrnehmung, Kontrolle und Entscheidungsfindung. Ihre Architektur macht jede Funktion zu einem unabhängigen Modul, das je nach Projektanforderungen einfach hinzugefügt, entfernt oder modifiziert werden kann.

Autoware liefert und unterstützt die weltweit größte Open-Source-Community für autonomes Fahren und entwickelt Anwendungen von fortschrittlichen Fahrerassistenzsystemen (ADAS) bis hin zum autonomen Fahren. Das Software-Ökosystem wird von der gemeinnützigen Autoware Foundation verwaltet, die mehr als 50 Unternehmens-, Organisations- und Universitätsmitglieder hat. Tier IV und AutonomouStuff sind Mitglieder und Hauptakteure der Stiftung.

„Autoware wird in Projekten in den USA, Japan, China, Taiwan und Europa eingesetzt“, sagt Christian John, President von Tier IV North America. „Das gesamte Lernen, Testen, Debugging, all diese Erfahrungen fließen zurück in die Open-Source-Plattform. Alle profitieren von diesen Verbesserungen.

„Es braucht eine große Anzahl von Partnern, um eine autonome Technologie zu implementieren und einzusetzen. Die verschiedenen Sensoren, die LiDARs, die Kameras, die ECUs, auf denen die Software läuft, alle müssen zusammenkommen, um Autonomie zu implementieren.“

AutonomouStuff und Tier IV arbeiten seit Anfang 2020 in einer strategischen Partnerschaft zusammen, um Autonomie-Softwarelösungen auf der ganzen Welt und in einer Vielzahl von Branchen zu entwickeln, zu unterstützen und bereitzustellen.


„Es braucht eine große Anzahl von Partnern, um eine autonome Technologie zu implementieren und einzusetzen. Die Sensoren, die LiDARs, die Kameras, die ECUs, auf denen die Software läuft, all dies muss zusammengeführt werden.“
Christian John
Tier IV

Demonstration der Technologie in realen Szenarien

Im November und Dezember 2020 führten Tier IV und seine Partner in Nishi-Shinjuku, einem geschäftigen Handelszentrum im Zentrum Tokios, insgesamt 16 Tage lang öffentliche Tests zum automatisierten Fahren durch. Regierungsbeamte und Mitglieder der Öffentlichkeit wurden als Fahrgäste rekrutiert, um auf Strecken von 1 bis 2 Kilometern im Verkehr zu fahren und dies zu kommentieren. An manchen Tagen saß ein Sicherheitsfahrer hinter dem Steuer und war bereit, die Kontrolle zu übernehmen, sollte etwas Unerwartetes passieren (dies geschah nicht). An anderen Tagen blieb der Fahrersitz leer; ein Fahrer überwachte Bildschirme aus der Ferne. Dort sah er die Umgebung und die Fahrt des Fahrzeugs und war bereit, die Kontrolle zu übernehmen.

Die Tests im November liefen entlang einer einzelnen, vorab festgelegten Route. Bei den Tests im Dezember konnten die Teilnehmer zwischen drei verschiedenen Abfahrts- und Ankunftspunkten auf ihrem Smartphone wählen, das Taxi dorthin rufen und dann an ihr gewünschtes Ziel gefahren werden. Daher musste das Fahrzeug viele potenzielle Routen berechnen und sich zwischen ihnen entscheiden, was die Implementierung erschwerte.

Insgesamt nahmen mehr als 100 Testfahrer teil. Es war eine intensive Lernerfahrung für die Designer und Bediener der Robotaxis, wie einige der Tier-IV-Ingenieure später in Online-Blogs über die Vorführungen berichteten. Das schwierige Umfeld und die Bedingungen von Nishi-Shinjuku – reger Verkehr, viele Links- und Rechtsabbieger, Spurwechselentscheidungen und mehr – wurden kombiniert, um die Fähigkeiten von Robotaxis umfassend zu testen.

Eine der unerwarteten Lektionen, die dabei erteilt wurden, betrifft die falsche Erkennung von Hindernissen. Hohe Bordsteinkanten an einigen Straßenrändern und sogar Laubansammlungen in Ablaufrinnen führten zu Problemen für das Wahrnehmungssystem. Autoware ist so programmiert, dass sie erkennt, was erkannt werden muss, z. B. Autos und Fußgänger, und diese Objekte von anderen Objekten wie Regen oder Laub unterscheidet, die ignoriert werden können. Dies ist jedoch noch nicht abgeschlossen. Die Unterscheidung zwischen herabfallenden Blättern und Gegenständen, die von der Ladefläche eines Lastwagens fallen, ist für ein Robotaxi nicht so einfach wie für menschliche Augen und Gehirne.

Ein weiteres Problem, das auf künftige Aufgaben hinwies, war das ungeschützte Abbiegen an nicht regulierten Kreuzungen, wenn entweder die Sicht auf den Gegenverkehr verdeckt war (was ein hohes Maß an menschlichem Urteilsvermögen und schneller Reaktion erfordert) oder die Annäherungsgeschwindigkeit des Gegenverkehrs schwer abzuschätzen war.

Dazu kommt, dass Autoware so programmiert ist, dass keine plötzliche Beschleunigung erfolgt, um eine Verkehrslücke zu nutzen, wie es ein Mensch tun könnte; dem Komfort für die Fahrgäste wird ein Wert beigemessen. Ein solches Gleichgewicht zwischen Vorsicht und Aggressivität, das für den Menschen so natürlich ist, kann in einem programmierten System im dichten Verkehr schwer zu erreichen sein.

Die LiDAR-Sensoren hatten auch gelegentlich Schwierigkeiten in Umgebungen ohne besondere Merkmale, wie in offenen Parkbereichen und Tunneln. Darüber hinaus können die relativ hohen Kosten für LiDAR-Sensoren zu Schwierigkeiten auf dem Massenmarkt führen, wenn viele Fahrzeuge damit ausgestattet werden müssen.

Um dieses Problem zu lösen, berichteten einige Tier-IV-Ingenieure, dass sie mit einer Technik namens Visual SLAM experimentieren, bei der anstelle eines LiDAR-Sensors eine relativ kostengünstige Kamera in Kombination mit einer Inertialmesseinheit (IMU) verwendet wird. Diese erstellt aus visuellen Informationen eine Karte und schätzt gleichzeitig die eigene Position auf der Karte ein. Darüber hinaus wird eine Technologie namens Relokalisierung aktiv erforscht, die abschätzt, wo man sich in einer zuvor erstellten Karte befindet.

Visual SLAM hat jedoch seine eigenen Herausforderungen: Es funktioniert nicht gut in der Dunkelheit oder bei vielen sich gleichzeitig und unterschiedlich bewegenden Objekten.


Bild vom Inneren des Robotaxis

 

Skalierung für die Zukunft

Dennoch sind Tier IV und AutonomouStuff bereit für die Herausforderungen.

„In diesem Bereich findet eine Menge Innovation statt“, sagt John. „Das Betriebssystem (Open Source) ermöglicht vielen Akteuren, ihre Lösungen in das Ökosystem zu integrieren: Kosten, Stromverbrauch, Sicherheitsarchitekturen – diese Bemühungen bringen erstklassige Lösungen und Akteure mit sich.“

Der sich schnell entwickelnde Markt für fahrerlose Fahrzeuge umfasst viele Akteure und viele Varianten von Sensorkombinationen und -integrationen. Einige sind teuer, andere weniger.

„Andere Unternehmen sind sehr vertikal integriert“, fügt John hinzu. „Sie entwickeln ihre eigenen Software-Stacks, im Gegensatz zu unserem Open-Source-Ansatz. Der Markt steht noch ziemlich am Anfang, was die Masseneinführung betrifft. Einige Akteure konnten das volle Level 4 demonstrieren und in begrenzten Märkten einsetzen.“

Aber um ihre Ansätze wirklich zu erweitern, ist eine weitere bedeutende Runde der Systemoptimierung erforderlich. Eintausend Watt plus Computerleistung in einem Auto und Sensorintegration von 100.000 USD pro Fahrzeug: Das lässt sich einfach nicht auf Zehntausende von Fahrzeugen in vielen Städten skalieren.

„Deshalb gibt es jetzt all diese Investitionen: Festkörper-LiDAR, bildgebendes Radar, all diese Dinge, die die Wahrnehmungsfähigkeiten weiter verbessern. Das bedeutet, dass neue Lösungen in unser Wahrnehmungssystem integriert und optimiert werden müssen. Und wenn diese Änderungen vorgenommen wurden, wie verifiziere ich dann mein neues System? Wie zeige ich, dass es immer noch den Sicherheitsanforderungen entspricht?“

John hat abschließende Worte für die Zukunft. „Auf mich wirkt es so, als hätten alle bewiesen, dass die Software in begrenztem Umfang eingesetzt werden kann. Für die Skalierung wird eine weitere bedeutende Investition erforderlich sein, um die Systeme neu zu entwerfen und zu validieren, und Open Source wird hier eine wichtige Rolle bei der Optimierung von AD-Lösungen der nächsten Generation spielen.“