Erster Todes-Crash mit Teslas Autopilot

Es ist der erste bekanntgewordene Todesfall in einem Auto, das sich selbst steuerte. Das System des Elektroautoherstellers Tesla konnte in hellem Licht einen weissen Lastwagen-Anhänger nicht rechtzeitig erkennen.

Rückschlag für Tesla-Chef Elon Musk: Erstmals ist es bei einem selbstfahrenden Auto zu einem tödlichen Unfall gekommen. (Bild: sda)

Es ist der erste bekanntgewordene Todesfall in einem Auto, das sich selbst steuerte. Das System des Elektroautoherstellers Tesla konnte in hellem Licht einen weissen Lastwagen-Anhänger nicht rechtzeitig erkennen.

Der erste tödliche Unfall mit dem automatisierten Fahrsystem des Elektroautoherstellers Tesla ruft die amerikanische Verkehrsaufsicht auf den Plan. Die Behörde NHTSA prüft, wie Teslas «Autopilot» bei dem Crash funktioniert hat.

Das Tesla-System kann beschleunigen, bremsen, die Spur halten, und Objekten ausweichen, um einen Zusammenstoss zu verhindern. In diesem Fall stiess die Limousine «Model S» jedoch mit einem Lastwagen-Anhänger zusammen, der die Fahrbahn überquerte.

«Weder ‹Autopilot›, noch der Fahrer erkannten die weisse Seite des Anhängers vor dem Hintergrund eines hellen Himmels und die Bremse wurde nicht betätigt», schrieb Tesla in einem Blogeintrag am späten Donnerstag.

Der «Autopilot» greift unter anderem auf Kameras zurück, um die Umwelt zu erfassen. Die Teslas zeichnen während der Fahrt alle möglichen Daten auf und übertragen sie an den Konzern. Fahrassistenz-Systeme mit einem ähnlichen Funktionsumfang werden auch von anderen Autoherstellern angeboten.

Die Entwicklung autonomer Autos geht rasant voran. Nebulös dagegen ist die Rechtslage, was die Haftung im Schadenfall betrifft. Das beschäftigt die Forschung – unter anderem an der Uni Basel. Die Herausforderung: Wie geht eine Gesellschaft damit um, wenn plötzlich nicht mehr Menschen, sondern Maschinen Entscheidungen treffen? Wer haftet, wenn Menschen durch künstliche Intelligenz verletzt oder gar getötet werden? Könnten Roboter einst als haftbare juristische oder natürliche Personen in unser Rechtssystem eingebunden werden? Hintergründe lesen Sie hier:

» Ein Fall für Juristen: Wer ist Schuld, wenns der Roboter verbockt?

Tesla betonte zugleich, das «Autopilot»-System sei eine neue Technologie in der sogenannten Beta-Phase, die standardmässig abgestellt sei und erst bewusst aktiviert werden müsse. Fahrer würden beim Einsatz des Programms ausdrücklich aufgefordert, die Hände niemals vom Steuer zu nehmen und die Kontrolle und Verantwortung über das Fahrzeug zu behalten.

Dennoch gab es bereits viele Internet-Videos zu sehen, in denen Fahrer sich bei eingeschaltetem «Autopilot»-System mit anderen Sachen beschäftigten. Einer kletterte sogar auf den Rücksitz und filmte den leeren Fahrersitz von dort.

Um so etwas zu vermeiden, kontrolliert das System regelmässig, ob der Fahrer die Hände am steuert hat. Wenn nicht, ertönen akustische Alarmsignale und das Auto bremst ab.

Tesla relativiert

Laut NHTSA betrifft die vorläufige Untersuchung etwa 25’000 Tesla «Model S» des Modelljahres 2015. Das Unternehmen des Tech-Milliardärs Elon Musk betonte, seine Wagen seien bereits über 200 Millionen Kilometer mit eingeschalteter Autopilot-Funktion gefahren.

Im regulären US-Strassenverkehr gebe es einen Todesfall pro 94 Millionen gefahrene Meilen. Die NHTSA prüfe nur, ob der «Autopilot» wie zu erwarten sei funktioniert habe, erklärte Tesla.

Bei Google gab es in diesem Jahr ebenfalls den ersten Unfall mit einem selbstfahrenden Auto, das gerade vom Computer gesteuert wurde. Einer der Wagen kam in der Google-Heimatstadt Mountain View bei niedriger Geschwindigkeit einem Bus in die Quere, es gab nur Blechschaden.

Nächster Artikel