Autonomenschlich : Nissan-Projekt zum autonomen Fahren

Sensoren sind gut: Nissan lässt den Leaf autonom fahren.  Fotos: Nissan
1 von 3
Sensoren sind gut: Nissan lässt den Leaf autonom fahren. Fotos: Nissan

„Human Drive“ mit neun anderen Partnern vorangetrieben

von
15. Februar 2020, 16:00 Uhr

England ist anders. Okay – das ist ja spätestens nach dem jahrelangen Brexit-Gezerre fast jedem irgendwie klar. Aber Bob Bateman hat da noch sehr viel detailliertere Einblicke. Muss er auch; sonst wird sein Auto der Zukunft niemals Massenware.

Genau das aber ist das Ziel des Projektleiters im Forschungszentrum von Nissan-Europa. „Wir wollen autonomes Fahren in unsere gesamte Modellpalette bringen“, sagt der Brite. Bateman sieht sich dem Ziel seit Kurzem bedeutend näher. Weil sein neuestes Testfahrzeug einen Härtetest über 370 Kilometer ohne menschlichen Fahrer bewältigt hat.

Dabei ist nicht nur der Linksverkehr eine spezifisch britische Besonderheit. „Unsere Straßen sind gerade abseits der Autobahnen besonders eng und kurvenreich“, so Bateman. Dazu fehlten oft die Fahrbahnmarkierungen und Randstreifen, Schlaglöcher gebe es en Masse, genau wie Unmengen Kreisverkehre, manchmal ineinander übergehend. „Und dann noch dieses englische Wetter …“, stöhnt der Entwickler - und muss dabei dennoch grinsen. Denn wer es hier fehlerfrei und ohne Fahrer schafft, der schafft es beinahe überall.

Der Fahrer hält die Hände in Lenkradnähe.
Der Fahrer hält die Hände in Lenkradnähe.
 

Darum haben die Nissan-Entwickler mit neun anderen Partnern ein spezielles Projekt vorangetrieben: „Human Drive“ genannt - nur eben nicht durch Menschen selbst. Experten der Universität Leeds, von Software-Riesen Hitachi oder den englischen Autobahn-Planern arbeiten seit drei Jahren am neuen Mitfahr-Erlebnis im eigenen Auto.

Die Stunde der Wahrheit dämmert um 7.52 Uhr am 28. November 2019. „Typisch eisig kalt, windig und verregnet“, erinnert sich Bateman. Ein elektrischer Nissan Leaf startet an diesem Donnerstag von Nissans Testzentrum Cranfield eine Stunde nördlich von London. Ziel: Das mittelenglische Sunderland, 370 Kilometer entfernt.

Ein Kofferraum voll mit Rechnern

An Bord: ein Fahrer, der das Lenkrad nur im Notfall anrühren soll, zwei Techniker - und ein Kofferraum randvoll mit Rechnern, Servern und Messgeräten. Der Innenraum zugepflastert mit Kameras, Computern und Bildschirmen, sechs weitreichende Laserscanner an den Stoßfängern vorn und hinten, ein 360-Grad Laser auf dem Dach, Radar, sieben weitere Kameras und ein zentimetergenaues GPS zur Positionsbestimmung.

Es geht über Autobahnen in der Rush-hour, Landstraßen, durch kleine Orte und Dutzende „Roundabout“-Kreisel. Gegenverkehr, Abbieger, Fahrradfahrer, Fußgänger, Ampeln … Herausforderungen gibt es genug. „Wichtig sind da auch superexakte digitale Karten. Auf vielen Testfahrten haben wir die Strecke dazu genauestens erfasst“, so Bateman. Offensichtlich mit Erfolg: Rund sechseinhalb Stunden später biegt der Leaf auf den Hof des Nissan-Werkes Sunderland ein - selbsttätig, wie auf der ganzen der Strecke. Nur bei einer Lkw-Panne direkt vor dem Leaf hat der Fahrer vorsorglich eingegriffen. Safety first - der Computer hätte das aber wohl auch geschafft.

Die Kamera überwacht die Umgebung.
Die Kamera überwacht die Umgebung.
 

Foroogh Hajiseyedjavadi hat dabei geholfen, dieses besondere Fahrgefühl zu erzielen. Die Forscherin an der Universität Leeds arbeitet an einem der besten Fahrsimulatoren. „Wir wollten keine irgendwie eckig-holprige Roboterfahrt, wie das so viele autonome Assistenten auf diesem Level bisher anbieten“, sagt die Wissenschaftlerin. Das Forschungsbündnis hat darum Dutzende ganz normale Autofahrer die Strecken virtuell lenken lassen. Der Computer hat daraus und in unterschiedlichsten virtuellen Fahrsituationen Idealprofile kreiert, die als Vorbild für die Reaktion des Roboterautos dienen. Gerade durch die Kreisverkehre, beim Überholen oder Abbremsen und Einlenken bewegt der Roboter den Leaf jetzt so geschmeidig wie der gut geschulte Chauffeur eines Lords.

„An einem strahlenden Sommertag mit wenig Verkehr überholt ein Mensch zum Beispiel anders als in Dunklen bei Schneeregen. So etwas sollte auch ein autonomes Fahrzeug tun – selbst wenn das für die Sensoren kaum einen Unterschied macht“, sagt Hajiseyedjavadi. Denn das menschenähnliche Fahren schaffe Vertrauen in die Technik. Die aber sei wichtig, damit eines Tages sogar das lange Fahren ganz ohne Lenkradeingriff von jedermann akzeptiert werde.

Die längste Fahrt, die je ein autonomes Auto in England zurückgelegt hat , eben jene 370 Kilometer, die Forscher sehen auch sie nur als Etappe. Den nächsten Innovationssprung soll künstliche Intelligenz liefern.

Hitachi-Software zeigt, was sie kann

Bei der Fahrt mit einem Prototyp in Cranfield zeigt die Hitachi-Software schon einmal, was sie kann – oder vielmehr, was sie nicht mehr braucht: extrateures Super-GPS, schwere Server oder Terrabyte an zentimetergenauen Daten nämlich. „Wir geben der künstlichen Intelligenz statt Datenmassen quasi nur Regeln vor; die Maschinen lernen dann während des Fahrens dazu und können auf Basis der Sensordaten agieren“, sagt NIck Blake, Innovations-Chef bei Hitachi-Europa.

Das funktioniert verblüffend gut. Zwar korrigiert der Roboter-Pilot in einem Kreisverkehr oder beim Überholen schon mal leicht den Lenkeinschlag. Denn statt kompletter Karten liefern ja nur die Sensoren Entscheidungsgrundlagen. Aber die Hindernisse und Komplikationen schafft die gelehrsame Maschine schon bestens.

Künstliche Intelligenz wird zudem noch zwei mächtige technische Helfer bekommen: Zum einen Echtzeit-Daten aus der Cloud, die mit dem superschnellen 5G-Netz bald ins Auto strömen. So kann die aktuelle Verkehrslage sekundenschnell für die nächsten Kilometer in das Fahrprogramm einfließen. Zum anderen kommen Hinweise auf rote Ampeln, rutschige Straßen oder das Stauende hinter der nächsten Kurve bald auch verlässlich über vernetzte Sensoren, die in anderen Autos oder der Infrastruktur stecken. Dann wird die künstliche Intelligenz noch mächtiger.

Muss sie auch. Denn im Stadtverkehr sind die Herausforderungen wegen der vielen Verkehrsteilnehmer und -situationen ungleich größer für autonome Autos. Dort wird es auch besonders wichtig, dass Roboter eine ganz besondere Fähigkeit des Menschen lernen: Intuition. Wird die alte Dame an der Straße stehen bleiben – oder doch gleich losgehen? So etwas ahnen erfahrene Lenker meist durch jahrelange Praxis voraus - an der Körperhaltung des Passanten etwa, am Blickkontakt oder durch die Art der Bewegung.

„Verhalten vorausahnen – auch Fehlverhalten: Das ist die nächste große Herausforderung beim autonomen Fahren“, so Entwickler Blake. Denn der Mensch kann sich schon mal gefährlich und unlogisch verhalten. Der Autopilot darf so was nicht. Und im Zweifel muss der Roboter anhalten, bevor eine Gefahr überhaupt entstehen kann. So wie ein gut geschulter Chauffeur eben.

zur Startseite

Gefällt Ihnen dieser Beitrag? Dann teilen Sie ihn bitte in den sozialen Medien - und folgen uns auch auf Twitter und Facebook:

Diskutieren Sie mit.

Leserkommentare anzeigen