“Who wants to be a self-driving car?” – mit dieser Frage begrüßte man uns auf der Presseveranstaltung der moovel Group. Das Unternehmen ist eine Tochtergesellschaft der Daimler AG und beschäftigt sich mit vielerlei Themen im Bereich der Mobilität. So auch der mysteriösen, für viele Leute ungewohnten Thematik, des selbstfahrenden Autos. Doch, wer will denn nun eigentlich die Welt durch die Augen eines autonomen Fahrzeuges sehen?
Ich, natürlich! Bei sommerlichen Temperaturen in Berlin durfte ich das sogenannte “moovel lab car” testen. Eine Apparatur die auf den ersten Blick einer Folge von South Park entsprungen sein könnte, so abgefahren und verschroben sieht sie aus. Doch, alles ist genaustens durchdacht und jeder Sensor, jede Komponente hat ihren berechtigten Platz. In das Projekt haben sechs Experten von moovel selber und dem Kooperationspartner Meso neun Monate Entwicklung, Schweiß und nächtelanges Arbeiten gesteckt. Das Gefährt ist vollgepackt mit Technik. Einer der Projektleiter, Raphael Reimann, erklärt uns ausführlich, welche Sensorik, Gerätschaften und Rechenleistungen im labcar verbaut sind.
Das, was zunächst aussieht, wie ein Massagebett auf Rädern, stellt tatsächlich die Liegefläche dar. Krabbelt man erstmal in das Gefährt, fühlt man sich wie ein Käfer auf dem Rücken – ausgeliefert und verletzlich. Am vorderen Rand befindet sich ein Lenkrad, an dem sich eine Fahrradbremse, ein Gashebel und ein Knopf für den Rückwärtsgang befinden.
Weiße Stangen, ragen wie ein provisorisches Dach über einem auf und sind eigentlich nur Stützmasten für die oben drauf sitzende Webcam, 3D-Tiefen Kamera und dem LIDAR-Scanner. Die Umgebung wird durch die 3D-Tiefen-Kamera erfasst und durch eine automatisierte Objekterkennung ergänzt. Dies gibt dem Fahrer Informationen darüber, welche Objekte vom Computer erkannt werden. Schließlich sorgt ein LIDAR-Sensor (Light Detection and Ranging) für eine zusätzliche Ebene der Abstandsmessung, indem der Sensor Lichtimpulse in Richtung nahe gelegener Objekte aussendet und daraus deren Distanz ermittelt.
Alles ist fein säuberlich mit einem High-Performance-Computer verkabelt, der sich unter der Liege befindet und das komplette System am Laufen hält. Das Herzstück des “moovel lab cars” ist jedoch die Oculus Rift – eine VR-Brille, die der Fahrende aufsetzt, um tatsächlich durch die Augen des Autos sehen zu können. Was Kameras und Sensoren aufnehmen, wird im Computer verarbeitet und an das VR-Headset übertragen.
Liegend, mit den Händen am Lenkrad und halb blind durch die VR-Brille, setzt man das Fahrzeug in Bewegung – der Mensch ist hier weiterhin die Steuerungseinheit. Die Technik zeigt ein abstrahiertes Bild der realen Umgebung und visualisiert die gesammelten Daten. Man sieht zwar immer noch einen verzerrten Ausschnitt der Realität, es wird allerdings von einer Point Cloud durchzogen.
Am unteren Bildschirmrand steht das, was das Fahrzeug zu erkennen versucht. Vor mir taucht ein Fahrrad auf, welches ich aufgrund der eingeschränkten Sichtweise kaum bemerke, die Kamera jedoch schon längst erfasst hat: Das System ist sich zu 75 Prozent sicher, dass es sich hier um ein Fahrrad handelt und diese Zahl ploppt in meiner VR-Ansicht auf. Ein geparktes Auto – 84 Prozent, ein Fußgänger – 89 Prozent . Das scheint gut zu funktionieren. Ermöglicht wird diese Rechenleistung von einer Nvidia GPU, die auch in aktuellen Fahrzeugen der Oberklasse verbaut wird. Softwareseitig setzt man auf die Unity Engine, welche mit der grafischen vvvv Entwicklungsoberfläche in Echtzeit zusammenspielt.
Ich steuere das Fahrzeug mit Schrittgeschwindigkeit durch den kleinen Berliner Hinterhof. Raphael Reimann ist immer an meiner Seite, denn er hat den Notfallknopf dabei. Sollte ich einem Hindernis also zu nahe kommen, würgt er das Gefährt ab. Ganz autonom ist das “moovel lab car” also nicht unterwegs – ich lenke und entscheide, wann ich bremse. Das Auto mit samt seiner Technik ersetzt also nur meine Augen, sodass ich verstehen kann, welche Informationen ein autonomes Fahrzeug aus der Umwelt sammelt.
Ruckartig kommt das Auto zum Stehen. Beinahe wäre ich gegen ein Garagentor gefahren. Ich drücke den Knopf für den Rückwärtsgang und prompt flackert in meinem VR-Sichtfeld eine Rückfahrkamera auf – total cool! Die Steuerung des Fahrzeugs ist etwas schwerfällig und beim Wenden wird mir ein bisschen schlecht. Denn das Bild der VR-Brille kippt leicht und die bekannte Motion Sickness stellt sich ein.
Nach meiner kleinen Rundfahrt, krieche ich mühselig wieder von der Liegematte und betrachte das Fahrzeug. Eine tolle Erfahrung, die, wie ich finde, jeder einmal gemacht haben sollte! Nach den ersten paar Minuten hat man sich an die merkwürdige Sichtweise gewöhnt und das Vertrauen in die Objekterkennung wächst. Das Projekt wurde mit der Idee der Akzeptanz und Empathie gegenüber Maschinen gebaut. Raphael erklärt uns zu Anfang, dass in einer Studie herausgefunden wurde, dass 6 von 10 Teilnehmern nichts oder nur wenig über selbstfahrende bzw. autonome Autos wissen.
“Who wants to be a self-driving car” ist ein Projekt mit dem man Menschen vermitteln möchte, nach welchen Kriterien ein Computer entscheidet, wie er Informationen aus der Umwelt aufnimmt und verarbeitet. Man sagt, man könne einen anderen Menschen erst verstehen, wenn man eine Weile in seinen Schuhen gelaufen ist. Hier ist das ebenfalls so: Menschen sollen in die Technologie eintauchen, sich in die Lage eines autonomen Autos versetzen. Aus diesem Grund wurde auch die etwas extravagante Liegeposition gewählt. Man soll sich verletzlich und ausgeliefert fühlen, um nicht auf dem Autositz zu thronen, sondern eins mit dem Fahrzeug zu werden.