Uber: Vorprogrammiertes Totalversagen der „autonomen“ Software führte zu tödlichem Unfall?

Die Ermittlungsbehörde NTSB hat ihre vorläufigen Untersuchungsbericht zu einem tödlichen Unfall mit einem "selbstfahrenden" Auto von Uber vorgelegt. Die darin enthaltenen Angaben lassen den Schluss zu, dass eine schlecht programmierte Software und die Missachtung möglicher Sicherheitsmaßnahmen zum Tod einer Passantin geführt haben.

Die US-amerikanische NTSB (National Transportation Safety Board) hat ihren vorläufigen Bericht zu einem tödlichen Unfall mit einem Testfahrzeug des Fahrdienstleisters Uber veröffentlicht. Die Angaben der Ermittler lassen auf ein Totalversagen der Software und das Fehlen jeglicher Sicherheitsfunktionen in dieser kritischen Situation schließen.

Ein Rückblick: Am 18. März hatte ein Testfahrzeug von Uber eine 49-jährige Frau überfahren, die ihr Fahrrad schiebend eine Straße von links nach rechts überquerte. Führende Experten für die Technologie hatten recht früh den ersten Einschätzungen der Polizei widersprochen, die von einem mehr oder weniger unvermeidlichen Unfall ausgegangen war. Erste Videoaufzeichnungen, die eine “plötzlich” aus dem Dunkel auftauchende Gestalt zeigten, entpuppten sich schnell als falsche Grundlage für die tatsächliche Einschätzung der Situation.

Der von Uber für Testfahrten genutzte Volvo XC 90 besitzt neben eingebauten Kameras zusätzliche Lidar- und Radarsensoren, die die Passantin auch bei ungünstigen Licht- und Sichtverhältnissen hätten erkennen müssen. Die Software hätte daraufhin ein Bremsmanöver einleiten oder die Testfahrerin zur sofortigen Übernahme der Fahrzeugkontrolle auffordern müssen. Soweit die Theorie, beides ist nicht geschehen.

Stattdessen startete ein tödlicher Countdown. Die Sensoren des Fahrzeugs erkannten die Passantin trotz ihrer vergleichsweise dunklen Kleidung und fehlender Reflektoren bereits sechs Sekunden vor dem tödlichen Aufprall. Die Distanz zwischen Fahrzeug und Passantin betrug zu diesem Zeitpukt bei einer Geschwindigkeit von 69 km/h rund 110 Meter. Doch erst 1,3 Sekunden vor der Kollision kam die von Uber programmierte Software zu dem Fazit, dass die Situation eine Notbremsung erfordert. In den zwischenzeitlich verstreichenden Sekunden beschäftigte sich die Software mit ihren eigenen Unzulänglichkeiten.

 

Zuerst identifizierte sie die Passantin als unbekanntes Objekt, dann als Fahrzeug, dann schließlich als Fahrrad. Doch auch in diesem Status sei die Software nicht in der Lage gewesen, die Bewegung der Frau einzuordnen.

Nach der mittlerweile verstrichenen Zeit war es viel zu spät. Tatsächlich hatte Uber die eigentlich im Fahrzeug integrierte Notbremsfunktion deaktiviert, weil sie anscheinend nicht reibungslos mit der selbst erstellten Software zusammenarbeitete. Sprich: Offenbar erzeugte die Software so viele Falschmeldungen, dass ein betrieb der Fahrzeuge mit weiterhin aktivierter Notbremsfunktion unmöglich war.

Zudem ermitteln die Prüfer der NTSB, dass das System keine Warnmeldung an die Testfahrer der Fahrzeuge ausgibt. Die im Unfallwagen sitzende Sicherheitsfahrerin war mit dem Bildschirm des Fahrzeugs beschäftigt, den sie auf ausdrückliche Anweisung Ubers ebenfalls im Auge behalten sollte. Eine ungeteilte und volle Aufmerksamkeit für den Straßenverkehr war nicht Grundlage der Tests. Während in früheren Entwicklungsstadien ein zweiter Sicherheitsfahrer auf dem Beifahrersitz für solche Aufgaben abgestellt war, hatte Uber erst wenige Wochen vor dem Unfall auf dieses “Backup” verzichtet. Die Gründe dafür sind unklar: Möglicherweise war Uber – ungerechtfertigt, wie sich herausstellt – von der eigenen Software überzeugt, oder man fand nicht nicht genügend Testfahrer für eine Doppelbesetzung der Fahrzeuge oder es gab Kostengründe?

So kann man sich das Bild eines LIDAR-Scanners vorstellen. Fast alle Hersteller setzen auf diese Technologie.

Irreführende Informationen und anfängliche Stellungnahmen der anscheinend völlig überforderten Polizei, eine offenbar nicht für den öffentlichen Straßenverkehr geeignete Software und ein der eigenen Verantwortung nicht gerecht werdendes Unternehmen – der tödliche Unfall mit dem “selbstfahrenden” Auto von Uber wird wohl als Beispiel für ein Worst Case Szenario in die Entwicklungsgeschichte der Technologie eingehen.

Die NTSB untersucht zur Zeit einen weiteren tödlichen Unfall, der sich mit einem Tesla Model X ereignete. Dabei war der Fahrer des Autos ums Leben gekommen. Tesla hatte bereits unmittelbar nach dem Unfall jegliche Schuld von sich gewiesen und sich in einem darauf folgenden Disput mit den Sicherheitsbehörden überworfen. Bei dem Model X handelt es sich um ein Serienfahrzeug, das nicht von speziell geschulten Testfahrern gesteuert wird. Experten bemängeln, dass Tesla seine Kunden mit irreführenden und übertriebenen Angaben über die Funktionsfähigkeit des sogenannten “Autopiloten” täusche und keine ausreichenden Sicherheitsvorkehrungen treffe.