Experte für Autonome Autos: ”Teslas Behauptungen zum Autopiloten sind unglaubwürdig.”

Bryant Walker Smith lehrt am Center for Internet and Society an der Stanford Law School und findet für den Autopiloten von Tesla deutliche Worte. Die Behauptungen des Unternehmens zu den Fähigkeiten des Systems seien unglaubwürdig. Zudem werde Tesla der hohen Verantwortung für die Fahrer nicht gerecht.

Bryant Walker Smith ist Assistant Professor an der School of Law und der School of Engineering der University of South Carolina. Er ist Stipendiat am Centre for Internet and Society der Stanford Law School, Professor an der University of Michigan Law School, Mitglied des Advisory Committee des US Department of Transportation für die Automation im Transportwesen, der Vorsitzende des Emerging Technology Law Committee des Transportation Research Board der National Academies, Berichterstatter an das Uniform Law Commission’s Drafting Committee für hochautomatisierte Fahrzeuge, Vorsitzender der Planning Task Force für das On-Road Automated Vehicle Standards Committee der Society of Automotive and Aerospace Engineers und … ach, egal.

tl;dr: Wenn es um Autonome Autos geht, kennt sich Bryant Walker Smith ziemlich gut aus. Und sagt, ähnlich wie einige seiner renommierten Kollegen: ”Teslas Behauptungen zum Autopiloten sind unglaubwürdig.”

Der Produzent von Elektroautos hatte in ersten Stellungnahmen zu einem tödlichen Unfall mit einem Model X dem Fahrer die alleinige Schuld zugewiesen. Dieser sei, so die Kernaussage, wohl abgelenkt gewesen und habe sich nicht an die von Tesla klar und deutlich kommunizierten Anweisungen gehalten. Eine Mitverantwortung Teslas sei demnach ausgeschlossen.

Ende der Geschichte.

Doch das sieht Bryant Walker Smith völlig anders und will die Kalifornier nicht so einfach aus der Verantwortung entlassen. Vielmehr, so führt der Experte aus, sei die Unaufmerksamkeit von Autofahrern vorhersehbar. Tatsächlich habe eben diese Vorhersehbarkeit von “Fehlern” und das Bewusstsein darüber, dass man diese berücksichtigen müsse überhaupt erst dazu geführt, dass der US-amerikanische Kongress die National Highway Traffic Safety Administration (NHTSA) ins Leben gerufe habe.

Diese stelle die Sicherheit von Fahrzeugen stets in Frage und überprüfe, was ein Autohersteller oder Zulieferer tun könne, um die Folgen eines “Fehlers” eines menschlichen Fahrers zu mildern. Eine vergleichbare Pflicht zur Hinterfragung des “Autopiloten” gebe es auch jetzt.

Offene Fragen zum “Autopilot: Over-the-Air in den Frontal-Crash?

Weiterlesen:
Tesla „Autopilot“: Over-the-Air in den Frontal-Crash?

Es reiche nicht, dass Tesla bzw. Elon Musk den Autopiloten als “nicht perfekt” bezeichne und dem Fahrer die alleinige Verantwortung übertrage. Vielmehr müsse Tesla viel effektivere Wege in Betracht ziehen, die Fehler der bekanntlich zur Unaufmerksamkeit neigenden Fahrer zu kompensieren.

Smith weist noch einmal darauf hin, dass bereits nach dem ersten tödlichen Unfall mit einem Autopiloten Zweifel an dem System aufkamen. Das National Transportation Safety Board (NTSB) hatte in seinem Untersuchungsbericht deutlich darauf hingewiesen, dass das System eine Mitverantwortung für den Unfall trage. Die Unfallermittler hatten insbesondere darauf hingewiesen, dass allein die Überwachung des Lenkraddrehmoments kein geeignetes Mittel sei, die Aufmerksamkeit des Fahrers sicherzustellen. Teslas Wettbewerber General Motors überprüfe bei seinem eigenen System namens “Super Cruise” z.B. die Kopf- bzw. Augenpostion des Fahrers und erkenne, ob er sich dem Verkehrsgeschehen widme.

Weiterlesen:
Falsche Versprechen: Versicherung verklagt Tesla wegen “Autopilot”

Zudem nutze Tesla nicht die Möglichkeiten, die eine getrennte Funktionalität der verschiedenen Fahrerassistenzsysteme biete. Die aktive Spurhaltung könne die Sicherheit auch dann erhöhen, wenn die aktive Spurzentrierung nicht wirksam sei. Der Auffahr- und Notbremsassistent müsse nicht zwingend mit einer automatischen Beschleunigung im Verkehrsfluss optimiert werden. Tesla, formal nur als Level 2 System deklariert, kombiniert alle Funktionen zu einem nachweislich in der Praxis nicht funktionierenden “Autopilot”.

“The driver was at fault — and therefore Tesla was not. Autopilot improves safety — and therefore criticism is unwarranted.”

Die neuen Anschuldigungen gegen das National Transportation Safety Board (NTSB) hält Bryant Walker Smith für nicht glaubwürdig. Die Behauptungen Teslas zur Sicherheit der Fahrzeuge seien lächerlich. Die wiederholt kolportierte Statistik, nach der der Autopilot die Sicherheit um 40% erhöhe sei nicht nachvollziehbar, da Tesla die zugrundeliegenden Daten ebenso zurückhalte wie die Erhebungs- und Analysemethoden.

Nach den wenigen vorliegenden Informationen habe die von Tesla als Referenz angeführte NHTSA nur “Airbag-Deployment-Crashs” untersucht, dies habe eine nur begrenzte Aussagekraft. Zudem gebe es kein keinen aussagekräftigen Vergleich der Unfallraten mit Fahrzeugen anderer Hersteller. Ebenso habe die Aussage, dass die Fahrzeuge von Tesla in Relation zu den zurückgelegten Kilometern angeblich in weniger Unfälle verwickelt seien kaum eine Relevanz. Es handele sich schlicht um kaum miteinander vergleichbare Fahrzeugbestände – der berühmte Äpfel-und-Birnen-Vergleich.

Der Rat des Wissenschaftlers: Tesla solle weitaus mehr mit der Öffentlichkeit kommunizieren, wenn es um den Autopilot gehe. Dazu sei es nötig, eventuell entlastende Belege vorzulegen, auf die Grenzen des Systems hinzuweisen und die eigene Verantwortung für das Verhalten der Fahrer anzunehmen.

Bisher hatte insbesondere Elon Musk diese Verantwortung immer von sich gewiesen und sich auch damit gegen seine eigenen Chef-Entwickler gestellt. Kritische Journalisten bezeichnete er vor gar nicht allzu langer Zeit als potentielle “Killer”. Die Reaktion Teslas auf die Kritik des NTSB macht wenig Hoffnung, dass sich daran in Zukunft etwas ändert.

via cyberlaw.stanford.edu, detroitnews.com