Angesichts der rasanten technologischen Entwicklung erfordert die Frage dringend eine Antwort. Deshalb wird an der Universität Basel zu «Roboterrecht» geforscht – ab Herbst sogar im Rahmen eines Doktoratsprogramms.
Aus Science-Fiction wird Realität. Die «vierte industrielle Revolution», sie ist spätestens seit dem diesjährigen WEF in aller Munde. Die Kosten für digitale Prozessoren und Speicher sind dermassen eingestürzt, dass es in Zukunft nicht mehr viele Dinge geben wird, die nicht mit einem Mikrochip oder Sensor bestückt sein werden.
Alles wird digital, alles vernetzt im «Internet der Dinge». Qualifizierte Jobs werden automatisiert; künstliche Intelligenz und lernende Roboter entwachsen den Laboren und schlüpfen in unseren Alltag – als Pflegepersonal in Spitälern, als automatisierte Nachrichtenschreiber, als Maurer auf Baustellen und Chirurgen in Spitälern.
Am meisten Aufsehen erregen derzeit die «Strassenroboter», die ersten selbstfahrenden Autos. Über eineinhalb Millionen Kilometer haben die autonomen Google-Cars in Kalifornien und Texas bereits abgefahren. Volvo kündigte unlängst an, dass bis 2017 eine Flotte von 100 autonomen Vehikeln durch Göteborg kurven soll. Und auch in der Schweiz sind sie mittlerweile angekommen.
Die Roboter kommen, und sie werden Dinge für uns erledigen.
Vergangenen Sommer hat das Bundesamt für Strassen (Astra) die erste Sondergenehmigung für Testfahrten auf Zürcher Strassen vergeben. Und ab diesem Frühjahr will die Post autonome Shuttle-Busse in Sitten testen. Er rechne mit einer Einführung von autonomen Fahrzeugen ab 2020 sagte kürzlich Thomas Sauter-Servaes, Leiter des Studiengangs Verkehrssysteme an der ZHAW im Interview. Vor einigen Monaten hatten die meisten Experten noch von 2030 gesprochen.
So rasant die Entwicklung autonomer Autos und lernender Roboter vorangeht, so nebulös ist derzeit noch die Rechtslage, was die Haftung im Schadenfall anbelangt. Denn die «vierte industrielle Revolution» stellt das Recht vor neue Herausforderungen: Wie geht eine Gesellschaft damit um, wenn plötzlich nicht mehr Menschen, sondern Maschinen Entscheidungen treffen? Wer haftet, wenn Menschen durch künstliche Intelligenz verletzt oder gar getötet werden? Könnten Roboter einst als haftbare juristische oder natürliche Personen in unser Rechtssystem eingebunden werden?
Mit solchen Fragen befassen sich mittlerweile nicht mehr nur Science-Fiction-Autoren, sondern genauso Rechtsexperten. 40 davon trafen sich Mitte Januar auf Einladung der Universität Basel für eine zweitägige Konferenz im Landgut Castelen bei Augst. Titel der Veranstaltung: «Intelligente Agenten und das Recht: Zur Verantwortlichkeit beim Einsatz von Robotern» (zum Herunterladen: das Programm als PDF).
Manchmal werden sie patzen, manchmal auch mit tödlichen Folgen.
«Die Frage, wann Menschen für selbstständig agierende Roboter haften und was intelligente Systeme von einem strafrechtlich verantwortlichen Menschen unterscheidet, wird immer schwerer zu beantworten sein», sagt Sabine Gless, Professorin für Strafrecht und Strafprozessrecht und Mitorganisatorin der Konferenz. «Am Ende werden wir dabei auf die Frage zurückgeworfen, was eigentlich einen verantwortlichen Menschen ausmacht.»
Zwar hantieren wir schon heute mit automatisierten oder hochautomatisierten Systemen, wie Einparkhilfen oder Spurenhalter im Stau. Doch dabei trägt immer noch der Mensch die Verantwortung. Wenn meine Einparkhilfe den ungeliebten Nachbarn überfährt, weil ich nicht aufgepasst habe, werde ich dafür wegen fahrlässiger oder vorsätzlicher Tötung büssen. Doch wie ist das bei vollständig automatisierten Systemen?
Diese sind insofern unberechenbar, als sie nicht mehr zeitgleich vom Menschen überwacht werden können. In der Regel werden sie in die Umwelt entlassen, damit sie über Dutzende Sensoren durch Interaktion mit ihrer Umgebung lernen, sich sicher in dieser zu bewegen. Solche Systeme werden zunehmend intelligenter und lernen die «richtigen» Entscheide zu treffen. Doch was ist richtig und falsch?
Noch weiss keiner, wer dann zur Verantwortung gezogen werden muss.
Ist es wünschenswert, wenn ein autonomes Auto lernt, in jedem Fall auszuweichen, sobald ein Kind auf die Strasse rennt und der Bremsweg zum Anhalten zu lang wäre? Selbst wenn dies bedeutet, dass es in den Baum am Wegrand knallt und damit der Lenker getötet wird, der am Unfall keine Schuld hat? Hätte der intelligente Algorithmus auch dann die richtige Entscheidung getroffen – und wer wäre am Ende dafür verantwortlich?
Sabine Gless vergleicht die rechtliche Situation bei Robotern mit derjenigen bei Kindern: Wir lassen sie auf die Umwelt los, obwohl wir wissen, dass sie Fehler begehen. Das müssen sie auch, um dazu zu lernen. «Ähnlich wie bei der Haftung von Eltern für ihre Kinder, braucht es eine rechtspolitische Entscheidung dazu, ob Halter von Robotern nur bedingt haftbar gemacht werden oder ob sogar eine verschärfte Haftung angebracht wäre.»
Andere Juristen erkennen Analogien zu Sklaven. Diese waren im alten Rom keine Rechtssubjekte, weshalb ihre Halter für sie haftbar gemacht werden konnten. Personen- oder Sachschäden, die durch Sklaven verursacht wurden, konnten von den Haltern durch finanzielle Entschädigung oder durch die Auslieferung des Sklaven beglichen werden. Im übertragenen Sinn würde dies bedeuten: Ein autonomes Auto müsste bei einem Unfall an die Geschädigten ausgehändigt werden, damit diese es kommerziell nutzen oder den Verursacher bestrafen könnten (zum Beispiel durch Verschrotten des Autos). So etwas klingt erst mal absurd, wird aber durchaus diskutiert.
Juristen zerbrechen sich den Kopf: Was nützt es, einen fehlbaren Roboter zu bestrafen?
Teil der juristischen Debatte ist ferner die Einführung von sogenannten e-persons. Dadurch könnten Roboter und intelligente Systeme zivilrechtlich behaftet werden. Sprich: Bei einem Vergehen wird die e-person zum Ersatz des Schadens oder zur Zahlung einer Busse verurteilt. Die notwendige Haftungsmasse würde durch die Hersteller zugunsten der Roboter bereitgestellt. Doch wäre das fair? Soll die Haftungslast komplett auf die Hersteller übertragen werden, während wir alle von intelligenten Systemen und Robotern profitieren wollen? Und würde damit nicht die Innovation gehemmt?
Das Konzept der e-person ist zivilrechtlich zwar interessant, aber strafrechtlich nicht wirklich sinnvoll. Denn egal wie hoch die Busse ist, der Roboter wird dadurch nicht gebessert oder von einer Wiederholungstat abgeschreckt – und gerade darauf basiert unter anderem unser Strafrecht. Das gilt zumindest, solange Roboter nicht fähig sind, ein Verständnis für Strafe und ein Empfinden von Reue aufzubringen. «Tatsächlich lautet eine der wichtigen Fragen für Juristen, ob es dereinst Roboter gibt, die so etwas wie Reue empfinden könnten», sagt Gless.
An der Konferenz in Augst waren sich am Ende die meisten Experten einig, dass das Recht auf einen grundsätzlichen gesellschaftspolitischen Entscheid angewiesen ist. Die Gesellschaft muss als Ganzes darüber entscheiden, wie viel Risiko sie zu tragen bereit ist, um den Nutzen von autonomen Systemen zu geniessen. Was ist es uns wert, bei der Autofahrt ins Geschäft in Ruhe Zeitung lesen zu können oder uns von einem Roboter mikrometergenau am Schädel operieren zu lassen. Gless macht eine Analogie zu den AKW: «Auch hier kam die Gesellschaft überein, dass sie bereit ist, aufgrund des grossen Nutzens die Risiken dieser Technologie zu tragen.»
Spätestens, wenn das erste Kind von einem selbstfahrenden Auto überfahren wird, muss das juristische Problem gelöst sein.
Juristen müssen sich künftig vermehrt mit Robotern und intelligenten Akteuren auseinandersetzen, ist Gless überzeugt: «Spätestens wenn das erste Kind von einem autonomen Fahrzeug überrollt würde, würde der Ruf nach einer klaren Gesetzgebung laut.»
Einen entsprechenden Präzedenzfall gibt es zum Glück noch nicht. Zugleich verlange die Industrie zunehmend nach juristischer Klarheit. Gless geht deshalb davon aus, dass es in naher Zukunft einmal so etwas wie ein «Roboterrecht» geben wird – ein Rechtsgebiet, das die besonderen Fragen im Umgang mit intelligenten Agenten zum Gegenstand hat. Deshalb wird an der Juristischen Fakultät der Universität Basel in einem neuen Doktoratsprogramm eine Sparte dem Thema «Law & Robots» gewidmet.
Ab Herbst sollen Doktorierende an der Schnittstelle zwischen Robotik und Recht forschen. Solche interdisziplinären Zusammenarbeiten würden immer wichtiger, ist Gless überzeugt. «Die Digitalisierung unserer Lebensumgebung schafft eine Welt, die für viele nicht mehr nachvollziehbar ist. Um plausible Erklärungen für komplexe Phänomene zu finden, müssen wir deshalb eng mit Computerspezialisten zusammenarbeiten.»
Die Verunsicherung ist gross, was die gesellschaftliche Konsequenz von künstlicher Intelligenz sein könnte. Im Rausch der technologischen Goldgräberstimmung gehen Fragen danach oft unter, welche Entwicklungen überhaupt wünschenswert wären. Deswegen haben unlängst Hunderte von renommierten Wissenschaftlern einen offenen Brief des «Future of Life»-Instituts unterschrieben, in dem sie einen ganzheitlicheren Blick fordern. Er liest sich wie der Warnruf eines Zauberlehrlings, dem die Kontrolle über seine Magie zu entgleiten droht. Die Wissenschaftler setzen sich dafür, dass die Forschung zu künstlicher Intelligenz um die Disziplinen Wirtschaft, Recht, Ethik und Philosophie erweitert wird.
Sorgen bereiten Computerwissenschaftlern und Juristen auch die zunehmende Verschmelzung von künstlicher Intelligenz und Waffenindustrie. Am diesjährigen WEF warnte Stuart Russell, Professor an der Berkeley University und ein weltweit führender Computerwissenschaftler, vor komplett autonom agierenden Waffensystemen. Er und 3000 Arbeitskolleginnen und -kollegen forderten bereits letzten Sommer einen Bann. Laut Russell drängt die Zeit. Mindestens sechs Staaten entwickelten heute schon autonome Waffen. Das IKRK versucht derzeit in bilateralen Gesprächen ein Verbot in Form von völkerrechtlichen Verträgen durchzusetzen – ähnlich wie dies zuvor bei chemischen und biologischen Waffen der Fall war. Besorgniserregend ist auch die zunehmende Intelligenz von Drohnen. Schon heute versagen ferngesteuerte Drohnen bei der Unterscheidung von Kombattanten und Zivilisten. Damit wird gegen humanitäres Völkerrecht verstossen. Werden Drohnen erst einmal komplett autonom, könnten sich solche Verbrechen gegen die Menschlichkeit weiter ausweiten. Wer wird dann noch für die Verletzung von Völkerrecht zur Verantwortung gezogen?