Wie bestraft man einen Roboter, Frau Gless?

Selbstfahrende Autos und Kryptowährungen sind in unseren Gesetzen nicht vorgesehen. Um Rechtsgrundlagen für die Zukunft zu schaffen, orientiert sich Professorin Sabine Gless auch an Sklaven-Rechten im alten Rom.

Klare Prognosen zur digitalen Zukunft und Recht hält Forscherin Sabine Gless für gewagt, aber «Menschen werden wahrscheinlich noch lange wünschen, dass Menschen bestraft werden».

Frau Gless, Ihr Forschungsgebiet – rechtliche Fragen zu selbstfahrenden Autos – wurde von der Gegenwart eingeholt: Der grösste Versicherer Englands senkt die Prämien für Tesla-Fahrer, die das Lenken dem Autopiloten überlassen, weil so die Unfallgefahr statistisch um 40 Prozent sinkt. Wenn schon Versicherungen Verkehrsrobotern mehr vertrauen als den Menschen: Ist das der digitale Umbruch auf der Strasse?

Sabine Gless: Für den digitalen Umbruch braucht es vielleicht doch noch etwas mehr. Aber es ist ein weiteres Beispiel für die Umstellung vom konventionellen zum sogenannten hochautomatisierten Autofahren. Mit dem Auto erleben viele hautnah und von Anfang an die allmähliche Digitalisierung eines Alltagsvorgangs. Darum benutzen wir es auch als Vehikel und Katalysator für das übergreifende Forschungsfeld Roboter und Recht.

Ist das Mobiltelefon nicht noch verbreiteter und emotionaler?

Da haben sie recht. Aber viele haben das Mobiltelefon schon als Smart-Telefon kennengelernt. Darum wird einfach akzeptiert, wie das Gerät uns manches automatisch aus der Hand nimmt. Die Automatisierung des Autofahrens erleben wir jedoch als Veränderung.

Empfinden es darum viele Leute als Vertrauensverlust, wenn sie das Steuer nicht mehr anfassen dürfen?

Es dürfte Gefühle von Kontrollverlust geben, falls man künftig bestimmte Vorgänge dem Auto überlassen muss, weil ein Autopilot Routinemanöver besser beherrscht als ein menschlicher Fahrer.

«Es wird teilweise grundlegende Änderungen geben müssen, um adäquate rechtliche Rahmenbedingungen zu schaffen.»

Versicherungen trauen offenbar jetzt schon eher den Autos als den Menschen.

Das kann man, glaube ich, aus geringeren Versicherungsprämien nicht zwingend schliessen. Noch liegt die Fahrverantwortung beim menschlichen Lenker, auch wenn die meisten Autos bereits heute Automationselemente wie ABS-Bremssysteme, Tempomat, Spurhalte-Assistenten oder Einparkhilfen haben. Je weiter die Automatisierung fortschreitet, desto mehr dürften die Versicherungen jedoch auf die Unfallhäufigkeit von einzelnen Automarken schauen. Im Stadium des autonom fahrenden Autos ist dann vor allem die Technik und nicht mehr der Mensch der relevante Risikofaktor.

Kommt das schon bald?

Erst müssen weitreichende Entscheidungen getroffen werden, auch betreffend Investitionen: Soll man das Auto aufrüsten oder die Strasse?

Was bedeuten diese Änderungen für die Gesetze?

Die Automatisierung wird das Recht in vielen Gebieten herausfordern. Es wird teilweise grundlegende Änderungen geben müssen, um adäquate rechtliche Rahmenbedingungen zu schaffen. Teilweise wird es auch nur kleinere Anpassungen brauchen.

«Wenn der Autopilot mit anderen Programmen vernetzt ist, muss es dann so etwas wie eine vernetzte Schuld geben?»

Was wird aktuell schon diskutiert?

Zum Beispiel die Haftungsfrage. Juristen beschäftigen sich etwa mit der Frage, ob nicht nur Menschen, sondern auch Computerprogramme als verantwortlich angesehen werden könnten, wenn ein Autopilot einen Unfall verursacht. Und wenn der Autopilot mit anderen Computerprogrammen vernetzt ist, muss es dann so etwas wie eine vernetzte Schuld geben?

Das klingt nun sehr theoretisch.

Es kann aber sehr schnell praktisch werden. Es gibt viele sozial akzeptierte Interessen für den Einsatz von Autopiloten. Denken sie an Menschen, die lange Wege zurücklegen müssen und Entlastung am Steuer brauchen, an Betagte auf dem Land oder Menschen mit Behinderungen. Wenn ihnen Automatisierung eine Mobilität ermöglicht, die nicht risikoreicher ist als das Autofahren mit menschlichen Lenkern, spricht viel dafür. Gleichzeitig weiss man, dass auch beim Einsatz von Roboterautos Unfälle passieren werden.

«Für viele der neuen Fragen kann man in bereits bestehenden Rechtsgrundsätzen Antworten finden.»

Wer ist dann schuld?

Daran forschen wir. Mich interessiert schon länger, ob unsere Rechtskonzepte beim Einsatz von Robotern in der Lage sind, angemessen Verantwortung zuzuweisen, Schuld zu bestimmen und einen Ausgleich zu bringen, der sinnvoll ist – oder ob es dann ein Verantwortungsloch gibt.

Sabine Gless ist Professorin für Strafrecht und Strafprozessrecht an der Juristischen Fakultät der Universität Basel. Sie befasst sich derzeit vor allem mit den Auswirkungen der digitalen Entwicklung auf das Rechtssystem, etwa dem strafrechtlichen Schutz von Kryptowährungen oder der Verantwortung für automatisierte Vorgänge im Bereich der Robotik, seien es Schadensfälle beim hochautomatisierten Fahren oder Verletzungen der Privatsphäre.

Es warten bestimmt noch andere Rechtsfragen mit Robotern als Autounfälle.

Das stimmt: Es gibt alte Rechtsfragen wie die Haftung und ganz neue – etwa zu den Rechten an den Daten, die durch Digitalisierung generiert werden. Darf mein Autohersteller alle Informationen, die er über meine Fahr- und Anhaltegewohnheiten hat, an meinen Versicherer verkaufen oder an Werbeagenturen, die daraus ein personalisiertes Werbekonzept erstellen? Interessanterweise kann man aber auch für viele der neuen Fragen Antworten in bereits bestehenden Rechtsgrundsätzen finden.

Sie untersuchen alte Gesetze der Römer und vergleichen Roboter mit Sklaven.

Das römische Recht ist ein gutes Anschauungsbeispiel für ein Recht, das über Jahrhunderte hinweg passende Antworten hat. Es beruht auf sehr abstrakten Grundsätzen, die nach einem Interessenausgleich suchen, etwa wenn ein Schadensfall eintritt. Unser heutiges Privatrecht beruht zu Teilen auf einer Interpretation von römischen Rechtsgrundsätzen. Man könnte nun überlegen, ob man die Haftungsregeln für Sklaven aus dem römischen Recht auf die Haftung für Roboter übertragen kann.

Und welche zukünftigen Roboter-Probleme kann die Vergangenheit lösen?

Der Begriff Roboter sollte wohl ursprünglich Zwangsarbeiter bedeuten. Man könnte überlegen, ob man Haftungsregeln aus dem römischen Recht heranziehen kann, um eine gerechte Schadensregelung zu finden, wenn «Zwangsarbeiter» Dritten Schaden zufügen.

Waren die Sklaven in der Antike nicht sowieso die Sündenböcke?

Nein. Sklaven waren wertvoll und auch nicht rechtlos. Sie hatten aber nur beschränkte Rechte. Dennoch haben sie viel zur Wertschöpfungskette beigetragen. Entsprechend kam es zu Haftungsfällen, die für uns heute interessant sind. Etwa wenn ein Sklave als Architekt tätig wurde und eine von ihm konstruierte Brücke einstürzte: Haftet dann sein Eigentümer, der keine Architektur-Expertise hatte, aber vom Geschäft profitierte?

Und wie wurde entschieden?

Je nach Situation. Gegenüber unbeteiligten Dritten haftete der Eigentümer nur, wenn er von einem deliktischen Verhalten wusste – dann allerdings mit seinem gesamten Vermögen. Gegenüber Vertragspartnern musste der Eigentümer haften, wenn der Sklave auf seine ausdrückliche Anweisung hin Geschäfte machte, also in unserem Beispiel Architektenleistungen angeboten hat. Wenn der Eigentümer von nichts wusste, gab es die sogenannte Noxalhaftung: Der Eigentümer konnte den Sklaven als Täter an den Kläger ausliefern oder Schadensersatz zahlen. Wenn er zahlte, lag ihm vermutlich etwas an dem Sklaven und weniger an dessen Bestrafung. Als Hausvorstand konnte er immer noch intern über eine Strafe entscheiden.

In Sandalen-Filmen wären wohl beide Varianten ein Todesurteil.

Soweit man weiss, galt es als verpönt, Sklaven zu töten. Ausserdem hätte man durch Tötung jemanden Wertvolles verloren: seinen Roboter.

«Wenn man so etwas wie eine E-Person erfindet, könnte ein Roboter Rechte und Pflichten haben.»

Wenn sie den Wert ansprechen: Wer hat Anspruch auf Gewinne, die durch einen Roboter entstehen?

Der Mensch, also der Betreiber, der hinter dem Roboter steht. Chemiker der Universität Basel untersuchen, ob man durch maschinelles Lernen neue chemische Verbindungen entdecken kann. Gelingt dies einem Algorithmus, gehört das wissenschaftliche Ergebnis trotzdem den Wissenschaftlern, die das Projekt aufgesetzt haben. Der Fahrpreis für die Fahrt in einem autonomen Auto, das Passagiere aufnimmt, geht auch an seinen Betreiber. Ein Algorithmus, Bot, Roboter oder Roboterauto ist ja keine Rechtsperson, die Rechte oder Pflichten hat – also Eigentum besitzt oder schadensersatzpflichtig ist. Es gibt aber Rechtswissenschaftler, die vorschlagen, man sollte so etwas wie eine E-Person erfinden. Dann könnte ein Roboter Rechte und Pflichten haben, Geld verdienen und ähnlich haften wie juristische Personen.

Haben sie dafür ein anschauliches Beispiel?

Wenn man ein Auto kauft und es funktioniert nicht, dann wendet man sich an den Hersteller – also an eine juristische Person und nicht an den Ingenieur oder den Arbeiter, der es zusammengebaut hat. Unternehmen haften als juristische Personen für ihre Produkte. Das ist wirtschaftlich sinnvoll. Also könnte man auch bei Robotern überlegen, ob man eine Haftungsmasse durch eine E-Person schaffen will.

So lange man sich an die Regeln hält, schützen solche juristische Personen reale Menschen. Sagen uns bald Roboter, was wir zu tun haben?

Das ist eine gute Frage. Beim hochautomatisierten Fahren beobachten digitale Assistenten in Autos die menschlichen Lenker. Sie machen sie etwa auf Müdigkeitserscheinung aufmerksam und raten zum Anhalten. Fährt man trotzdem weiter und es kommt zum Unfall: War es dann fahrlässig, da das Auto mehrmals auf Ausfallerscheinungen wegen Müdigkeit aufmerksam gemacht hatte? Müssen wir auf die Einschätzung einer Maschine hören, wenn wir uns subjektiv fit fühlen, weil wir sonst haftbar werden?

«Die Befürchtung ist verbreitet, dass wir letztlich dem Roboterdenken unterworfen werden.»

Also ist es zu unserem Besten, wenn der Mensch zum Sklaven der Maschinen wird?

Das wollen wir sicher nicht. Aber die Befürchtung ist verbreitet, dass die Digitalisierung der Arbeits- und Lebenswelt zu einer Steuerung durch den Effizienz-Gedanken führt. Dass wir also letztlich dem Roboterdenken unterworfen werden. Immer wieder taucht in dieser Diskussion die Frage auf: Was wäre, wenn Künstliche Intelligenz in der Zukunft erkennt, dass Menschen ineffiziente Wesen sind, und es nur wenige davon braucht, um eine gewisse Anzahl Roboter am Laufen zu halten? Das sind sehr apokalyptische Zukunftsszenarien.

Damit Daten sicher sind, müsste man bei allen Geräten den Strom kappen können, sagt Sabine Gless. 

Ist das auch Teil ihrer Forschung?

Nein. Unser Interesse ist zu verstehen, welchen Rahmen und insbesondere welche Rechtsregelungen es braucht, damit Interessenkonflikte im Zeitalter der Digitalisierung gelöst werden können. Da gibt es ganz unterschiedliche Lösungswege, sowohl für rechtliche Regulierung wie technisches Design. Ein Beispiel dafür ist die Idee des «privacy by design» – also Privatsphärenschutz durch technische Ausgestaltung. Ein Element davon ist, dass man bei sämtlichen Geräten den Strom und damit alle Funktionen ausschalten kann. Eine simple Idee, die sich aber überhaupt nicht durchgesetzt hat. Früher konnte man bei allen Mobiltelefonen den Akku entfernen, heute nicht mehr.

Hinkt das Recht der Technik hinterher?

Ich denke, es ist normal, dass Regulierung technischen Neuheiten eher nachfolgt, als dass das Recht diese vorausdenkt. Wichtig ist, die Regulierung so auszugestalten, dass sie effektiv anerkannte Interessen schützt. Wenn man etwa Privatsphäre schützen will, dann sollten möglichst nur Geräte auf den Markt kommen, bei denen die technische Ausgestaltung einen solchen Schutz ermöglicht. Bei denen also Daten entsprechend gespeichert und gelöscht werden können.

https://tageswoche.ch/?p=1546203

Aber da gibt es doch sowieso die Hintertür in allen US-Produkten, damit die NSA Daten abgreifen kann. Oder sind das nur Verschwörungstheorien?

Das ist meines Erachtens nicht nur ein spezifisch US-amerikanisches Problem. Für jeden Hersteller kann es sinnvoll sein, in seinem Produkt eine Hintertür offen zu lassen. Etwa um nachträglich ohne Rückrufaktion Sicherheitslücken schliessen zu können. Doch diesen Weg können auch staatliche Behörden oder Hacker nutzen. Das zeigte der Streit zwischen dem FBI und Apple nach dem sogenannten San-Bernardino-Attentat: Als Apple sich weigerte, den Schlüssel zum iPhone der Attentäter zu liefern, setzte das FBI eine Belohnung aus: Hacker lösten das Problem relativ schnell.

Können Datenschutzbestimmungen eines einzelnen Staates die Arbeitsweise globaler Techgiganten bestimmen?

Die Schweiz allein könnte wohl nur in Nischen ein Vorreiter sein. Insgesamt müssen die europäischen Länder kooperieren, wenn es um Datenschutz geht, damit sie eine Chance haben. Etwa, dass bei künftiger Zulassung von Artikeln per Gesetz das «privacy by design» Teil des Produktes sein muss. Aber man kann mit gutem Grund sagen, dass die Technik nicht dauernd von Gesetzen reglementiert werden soll. Wir sind ja auch nicht klüger als die Techniker.

Aber die Juristen beurteilen für zukünftige Lösungen nicht nur den technischen Fortschritt, sondern als staats- und gesellschaftsbildende Gewalt auch Konsequenzen. Sind das nicht gute Gründe, dass die Justiz bei der Technik eingreifen sollte?

Zu viel vorgängige Regulation kann Innovation behindern. Jedoch scheint es bei der Digitalisierung mittlerweile so, dass zu wenig Regulierung die Entwicklung hindert. Denn ohne Regulierung fehlt der Rechtsschutz. Niemand weiss, ob sich die Investition in eine Innovation lohnt, wenn man in Zukunft haftbar gemacht werden könnte für Regeln, die noch nicht bewusst oder von Bedeutung sind. Am Beispiel des vernetzten Strassenverkehrs: Soll man eher in ein autonomes Auto oder in eine intelligente Strasse investieren?

«Bitcoin hat am Anfang wohl nur funktioniert, weil Pioniere das Mining auf den Computern ihrer Arbeitgeber machten.»

Führt die Digitalisierung zu einer weiteren Öffnung der sozialen Schere, weil nur eine Elite sowohl die Geräte als auch die Ausbildung besitzt, um mitzugehen und zu profitieren, während die unterprivilegierte Mehrheit immer weiter abgehängt wird?

Da fehlen mir die empirischen Daten. Es gibt ja auch ganz unterschiedliche Entwicklungen: Mobiltelefone haben in Afrika in manchen Bereichen, etwa in der Gesundheitsprävention, bei der Warnung vor Epidemien, revolutionäre Entwicklungen ausgelöst.

«Wer sich auf Bitcoin einlässt, bewegt sich ausserhalb eines staatlichen Rechtsschutzes.» Kontrollieren sollte die Schweiz das Finanz-Phänomen aber vor allem wegen der Geldwäsche-Gefahr.

Ein anderer Verständnis-Katalysator neben dem Auto ist wahrscheinlich das Geld.

Sie sprechen Bitcoin und andere Kryptowährungen an?

Ja. Die Schweiz ist ja das Land des Geldes. Warum dreht sich die Diskussion erst jetzt um Bitcoin?

Ob Bitcoin als Wertaufbewahrungseinheit funktioniert, war lange unklar. Erstens sind die Energiekosten für die Herstellung von Bitcoins hoch. Am Anfang hat das wohl nur funktioniert, weil viele Pioniere das Mining auf den Computern ihrer Arbeitgeber gemacht haben. Später baute man grosse Bitcoin-Farmen in Gegenden, in denen Boden und Strom relativ günstig sind. Und jetzt, nachdem Bitcoin eine gewisse Grösse hat, wollen viele auf den Zug aufspringen.

Findet man für dieses neue Finanz-Phänomen auch ein Rechtsbeispiel in der Geschichte?

Ja. Die Wirtschaftsgeschichte hat verschiedene Beispiele dafür, dass Private effizienteres Geld erfunden haben. Das verdrängte dann das staatliche Geld, bis es vom Staat übernommen wurde. Ein Beispiel ist der Wandel von Gold- und Silbermünzen zu Papiergeld. Die Visionäre der Kryptowährungen stellen sich ein ähnliches Szenario vor: Virtuelles Geld verdrängt das staatlich ausgegebene Bargeld.

Wäre es besser, wenn der Staat eingreift?

Bitcoin ist eine dezentral organisierte Währung, die grundsätzlich anonymisierten Handel ermöglichen sollte. Sie geriet schon deshalb in Verruf, weil man sie im sogenannten Dark Web als Zahlungsmittel für alles Mögliche nutzte. Das bedeutet aber auch: Jeder ist selber verantwortlich für seine Wallet. Deswegen stellen sich viele auf den Standpunkt: Wer sich auf Bitcoin einlässt, bewegt sich ausserhalb eines staatlichen Rechtsraumes und Rechtsschutzes.

«Man kann bei Robotern in verschiedener Hinsicht bezweifeln, ob sie das Unrecht einer Tat einsehen können.»

Was bedeutet das?

Verliert der Besitzer seinen Stick, ist er genauso selber schuld, wie wenn er einem Betrüger auf den Leim geht. Wenn Bitcoin allmählich staatliche Anerkennung findet, sieht das wieder anders aus. Die staatlichen Behörden interessierten sich zu Beginn vor allem für die Risiken, die Kryptowährungen für nationale Interessen darstellen können, etwa die Gefahr von Geldwäscherei. Kann eine Kryptowährung tatsächlich ganz anonym gehandelt werden, drängt sich natürlich die Frage auf: Muss hier nicht kontrolliert werden, weil sich sonst ein Schlupfloch öffnet, wo andere geschlossen wurden?

Eine der Grundfragen bei Recht, Unrecht und Bestrafung ist das Bewusstsein. Kann man das bei Künstlicher Intelligenz einbauen?

Das ist ein weites Feld. Da müssten wir jetzt erst einmal definieren, welches das relevante Bewusstsein für Strafe ist. Eine Strafe setzt nach unserem heutigen Verständnis voraus, dass die bestrafte Person in der Lage ist, das Unrecht ihrer Tat einzusehen und auch, dass sie anders hätte handeln können. Das kann man bei Robotern in verschiedener Hinsicht bezweifeln. Ausserdem geht man davon aus, dass Strafe nur dann eine sinnvolle Funktion erfüllen kann, wenn die bestrafte Person sie als Übel empfinden kann. Ein Roboter müsste spüren, dass er bestraft wird.

https://tageswoche.ch/form/interview/ein-simpler-roboter-kann-uns-manipulieren/

Das klingt schwierig.

Ist es auch.

Halbierte Stromzufuhr vielleicht?

Zum Beispiel. Man könnte auch überlegen, ob man eine Art Schmerz oder negative Gefühle vorprogrammieren könnte.

Roboter-Folter?

So würde ich das nicht nennen. Es geht allenfalls darum, dass man über neue Lösungen nachdenkt, wenn es tatsächlich zum bereits genannten Verantwortungsloch kommt.

«Wenn Roboter verbrannt würden, wäre das Strafbedürfnis der Gesellschaft kaum gestillt.»

Bitte geben Sie wieder ein Beispiel dafür.

Ein Fahrzeug wird zulässigerweise auf Autopilot umgestellt und überfährt ein Kind. Könnte und sollte man danach einem Strafbedürfnis Rechnung tragen und das Auto beispielsweise von einem Panzer dem Erdboden gleich machen lassen? Oder ist das komplett unsinnig, weil Roboter nicht zwischen Gut und Böse unterscheiden können?

Könnten das intelligente Roboter nicht?

So weit sind wir noch lange nicht. Dafür braucht es nicht nur Regeln, sondern ethische Vorstellungen – also ein selbst gesetztes Recht – nach denen man sich entscheidet zu leben, kurz: das Gewissen. Solange dieses fehlt, können Roboter Recht und Unrecht nicht hinterfragen. Jemanden zu bestrafen, der dann kein schlechtes Gewissen hat, ist ganz einfach sinnlos. Aber manche stellen sich auf den Standpunkt, dass Strafe auch vollzogen werden muss, damit die Gemeinschaft sieht: So geht es dem Rechtsbrecher! Vielleicht wäre so das Strafbedürfnis gestillt.

Das klingt nach Pranger und Mittelalter. Oder sind wir bei dem Beispiel wieder beim römischen Recht, wo der Halter den Sklaven, also das Auto ausliefert?

Das Panzer-Beispiel gleicht eher der archaischen Vorstellung aus der Zeit, als man Verbrecher zur Strafe verbrannte, also dem Erdboden gleich machte. Aber wenn Roboter verbrannt würden, wäre das Strafbedürfnis der Gesellschaft kaum gestillt. Menschen werden wahrscheinlich noch lange wünschen, dass Menschen bestraft werden. Der Vergleich mit den Sklaven funktioniert aber nicht.

«Wer sind die verantwortlichen Menschen hinter einem Roboter? Der Eigentümer oder der Hersteller der Computerprogramme?»

Warum?

Hier sieht man eher den Unterschied zwischen einem Sklaven und einer Maschine: Sklaven hatten sicher ethische Vorstellungen – also ein selbst gesetztes Recht, nach dem sie sich im Rahmen ihrer Möglichkeiten richten konnten. Beim Auto stellt sich eher die Frage, wer heute eigentlich die verantwortlichen Menschen hinter einem Roboter sind. Der Eigentümer eines Autos oder der Hersteller der Computerprogramme, die anstelle des menschlichen Fahrers das Auto lenken?

Das wäre dann Halterhaftung versus Herstellerhaftung?

Genau.

Wenn der Hersteller für Autounfälle haftet: Kann man dann besoffen ins Auto steigen? Damit würde man wohl viel Akzeptanz für autonomes Fahren bekommen.

Ich bezweifle, dass es die Akzeptanz für autonomes Fahren in näherer Zukunft steigert, wenn Betrunkene in selbstfahrenden Autos unterwegs sind. Es sei denn, dass sich das Verkehrssystem derart verändert, dass wir alle Passagiere in einem System voller automatisierter Fahrzeuge werden.

Also wenn es selbstfahrende Autos gibt, die man wie ein Taxi bestellen kann?

Ja. Heute stehen sich zwei Visionen gegenüber: die Idee vom autonomen Individualverkehr, bei dem man wie bis anhin ein Auto privat kauft und für dessen Fahrtüchtigkeit verantwortlich ist. Demgegenüber steht die Idee, dass Autofahrten eine Art Dienstleistung werden. Autonome Autos sind auf Bestellung verfügbar, wie ein Taxi-Dienst. Dann ist der Fahrdienstanbieter für die Sicherheit verantwortlich.

Welche Vision ist realistischer?

Das wird wohl der freie Markt entscheiden. Junge Leute in der Stadt haben heute eher die Tendenz zum Fahrdienstanbieter. Auf dem Land dürfte das schon anders aussehen.

Was von dem, was wir jetzt diskutiert haben, wird uns nächstes Jahr konkret beschäftigen?

Das Thema Bitcoin und die Regulierung von Kryptowährung wird sicher ein Thema bleiben.

Wagen Sie eine Prognose?

Wie sagt man? Prognosen, insbesondere wenn sie sich auf die Zukunft beziehen, sind schwer. Ich kann mir vorstellen, dass es bald zu dem kommt, was die Ökonomen eine Wertbereinigung nennen. Die Frage ist, wo der limitierende Faktor herkommt. Ich glaube nicht, dass Regulierung dafür sorgen wird. Aber es wird interessant zu sehen, was passiert, wenn nun traditionelle Banken Modelle entwickeln, Kryptowährung zu verwalten. Das wäre ein Quantensprung. Dann wären die Menschen nicht mehr selbst für ihre Wallet verantwortlich, was vielen immer noch Angst macht.

Und beim Auto?

Wir im Strafrecht werden vermehrt mit Haftungsfragen beschäftigt sein. Es gab im Kanton Bern den ersten Fall, in dem ein Fahrer sich damit verteidigt hat, dass gar nicht er gefahren sei, sondern sein Tesla. Darüber braucht es eine gesellschaftliche Diskussion. Alle sollten sich eine Meinung dazu bilden, wer Verantwortung tragen soll. Der Richter hat im Berner Fall aber entschieden: Verantwortlich ist, wer am Steuer sitzt.

Nächster Artikel