Passwort vergessen?  |  Anmelden
 |  Passwort vergessen?  |  Anmelden
Suche

Freitag, 20. Juli 2018

Autonomes Fahren

Wenn das Auto Fahrerflucht begeht

Von Jutta Witte | 12. April 2018 | Ausgabe 15

Selbstfahrende Autos sollen die Sicherheit im Straßenverkehr erhöhen. Technisch geht viel, aber kommt unser Recht noch mit? Jutta Stender-Vorwachs, Expertin für Technikrecht, im Gespräch mit den VDI nachrichten.

S4-5 Meinung (2)
Foto: LUH

Juristin Jutta Stender-Vorwachs stellt verwaltungsrechtliche Fragen: „Wie bringe ich als Polizist bei einer Verkehrskontrolle ein Fahrzeug zum Stoppen, wenn die Insassen schlafen oder es gar keine Insassen mehr gibt?“

VDI nachrichten: Frau Stender-Vorwachs, vor welche Herausforderungen stellt das autonome Fahren die Juristen?

Stender-Vorwachs: Das Thema wird immer virulenter. Wir haben mit dem hochautomatisierten Fahren mittlerweile die dritte von fünf Stufen in der Entwicklung hin zum autonomen Fahrzeug erreicht. Der Gesetzgeber hat deswegen gerade im Sommer 2017 das Straßenverkehrsgesetz geändert. Betroffen sind über das Zivilrecht hinaus aber auch viele andere Rechtsgebiete. Natürlich stehen Haftungsfragen stark im Fokus, aber es geht auch um strafrechtliche Fragen, zum Beispiel bei Fahrerflucht und, wenn Sie an den Datenschutz, Dilemmasituationen oder ganz banal an Verkehrskontrollen denken, auch um das öffentliche Recht.

Jutta Stender-Vorwachs

Bin ich in der jetzigen Stufe noch Fahrer oder nur Insasse oder gar, wie Sie es nennen, „Nichtverkehrsteilnehmer“?

Im Moment sind wir alle noch Fahrer oder ganz korrekt formuliert Fahrzeugführer und bleiben deswegen auch alle haftbar. Denn beim hochautomatisierten Fahren können wir zwar bestimmte Funktionen – Steuern oder Bremsen – zeitweise an das technische System übergeben, aber wir müssen jederzeit bereit sein, es übersteuern zu können. Sich ins Auto zu setzen und auf der Fahrt entspannt E-Mails zu lesen, ist also illusorisch.

Wer haftet im Schadensfall?

Weder das Auto noch die Software. Unser Haftungssystem sieht nicht vor, eine Maschine zur Verantwortung zu ziehen, sondern eine (juristische) Person. Es setzt menschliches Handeln voraus. In Deutschland haftet grundsätzlich an erster Stelle der Fahrzeughalter. Er kann diese Haftung aber auf den Fahrer abwälzen. Die Versicherung muss also prüfen, wen von beiden sie in Regress nimmt. In einem autonomen Szenario käme als dritte Möglichkeit der Hersteller hinzu, dessen Programmierer vielleicht einen Fehler gemacht hat. Das ist noch Zukunftsmusik. Wirklich spannend ist aber derzeit folgende Frage: Wer hatte tatsächlich zum Zeitpunkt eines durch ein hochautomatisiertes Fahrzeug verursachten Unfalls die Gewalt über das Fahrzeug? Der Fahrer oder das System?

Wie lässt sich das lösen?

Das novellierte Straßenverkehrsgesetz sieht vor, dass der Fahrer Fahrfunktionen abgeben und sich sogar von der Steuerung oder dem Verkehrsgeschehen abwenden darf. Aber er muss sie unverzüglich wieder übernehmen, wenn das System ihn dazu auffordert oder er erkennt bzw. erkennen muss, dass es Fehler macht. Das ist eine Regelung mit viel Auslegungsspielraum. Um die tatsächlichen Umstände überprüfen zu können, sollen Autos mit hochautomatisierten Funktionen künftig eine Blackbox haben – wie Flugzeuge.

Was sagt der Datenschutz dazu?

Die Frage, wie lange man die Daten der Blackbox speichern darf, war in der Tat sehr umstritten – auch politisch. Im Moment sind es sechs Monate. Aber der deutsche Datenschutz ist schon jetzt sehr akribisch. Hierzulande können Daten nur zu fest definierten Zwecken gesammelt werden. Es gibt enge Löschungsfristen und hohe Standards für die Absicherung des Umgangs mit Daten. Grundsätzlich geht es darum, grundrechtliche Interessen gegen die Ansprüche Dritter abzuwägen. Dies wäre der Fall, wenn es um die Haftung für Unfallschäden geht oder etwa darum, wenn wir das weiterdenken, Fälle von Fahrerflucht aufzuklären, wenn es keinen Fahrer mehr gibt.

Ein Problem sind ja auch so genannte Dilemmasituationen: Wo lenkt man das Fahrzeug hin, wenn man zum Beispiel in einer engen Straße nicht mehr bremsen kann?

In einem solchen Fall reagieren Menschen meist automatisch. Eine Verletzung der Sorgfaltspflicht ist dann kaum nachweisbar. Aber Sie haben Recht. Das Thema wird uns noch lange beschäftigen. Denn ein System kann nichts verschulden.

Und aus ethisch-grundrechtlicher Sicht ist es mehr als fraglich, eine Maschine so zu programmieren, dass sie den möglichen Schaden abstufen und sozusagen das kleinere Übel wählen kann. Man kann nicht Leben gegen Leben abwägen.

Dann gibt es die Idee, Dilemmasituationen gar nicht zu programmieren, also den Zufall entscheiden zu lassen. Dies sind sehr komplexe Fragen, die auch die Menschenwürde betreffen und die die Technik nicht lösen kann.

Stand heute: Reichen unsere Gesetze aus?

Im Bereich des Straßenverkehrsrechts lässt sich im Moment nicht mehr erreichen. Genau deswegen soll das Gesetz in seiner jetzigen Form im Jahr 2019 evaluiert werden. Dann kann man sehen, wie weit die Technologie fortgeschritten ist, welche neuen Erkenntnisse es gibt, und das Recht eventuell an neue Automatisierungsstufen anpassen. Im Strafrecht können wir vieles übernehmen oder adaptieren.

Welche offenen Baustellen gibt es noch?

Nach EU-Recht zum Beispiel darf ein hochautomatisiertes oder autonomes Fahrzeug derzeit nur bis zu 10 km/h schnell fahren. Dann müssten mit Blick auf den Datenschutz die Regelungen für die Datenübergabe an Dritte weiter präzisiert werden.

Auch das Telekommunikationsrecht wird sich mit dem autonomen Fahren beschäftigen müssen, wenn sich Fahrzeuge mit Smartphones oder dem Internet vernetzen. Und nicht zuletzt geht es ganz handfest um verwaltungsrechtliche Fragen. Wie bringe ich als Polizist bei einer Verkehrskontrolle ein Fahrzeug zum Stoppen, wenn die Insassen schlafen oder es vielleicht gar keine Insassen mehr gibt? Das ist völliges Neuland.  cer/rb