«Ein simpler Roboter kann uns manipulieren»

Roboter sind längst Realität, und wir sollten uns besser mit ihnen beschäftigen, sonst kann es gefährlich werden. Für Roboter-Ethikerin Kate Darling ist jedoch nicht die Maschine das Problem, sondern der Mensch.

(Bild: Flavia Schaub)

Roboter sind längst Realität, und wir sollten uns besser mit ihnen beschäftigen, sonst kann es gefährlich werden. Für Roboter-Ethikerin Kate Darling ist jedoch nicht die Maschine das Problem, sondern der Mensch.

Die Gefahren von Künstlicher Intelligenz beflügeln nicht nur Film-Fantasien. Auch in der Wissenschaft und Wirtschaft beschäftigen menschenähnliche Maschinen die hellsten Köpfe. Gerade äusserte der englische Starphysiker Stephen Hawkins, paradoxerweise über seinen Sprachcomputer, dass die Menschheit dereinst von den Geistern, die sie schuf, dominiert werden könnte. Sein Landsmann, Informatikprofessor und Ethiker Noel Sharkey, hält dagegen und findet, Maschinen mit Gefühlen seien nur ein kultureller Mythos.

Die in Basel aufgewachsene Juristin und Roboter-Ethikerin Kate Darling erforscht derweil an der technologischen Elite-Schmiede MIT, ob Menschen vor Maschinen geschützt werden müssen, oder ob es gar Rechte für Roboter braucht.

Kate Darling, haben humanoide Roboter wegen Hollywood ein Imageproblem?


Extrem. Science Fiction und Popkultur vermitteln den Menschen eine sehr realitätsferne Vorstellung von Robotern. Dabei wird massiv über-, teils aber auch unterschätzt, was Roboter können.

Was kann denn die Technik heute?


Viel weniger als die Leute glauben. Nehmen wir Terminator und Co.: Eine Welt, in der uns Roboter umbringen wollen, ist Lichtjahre entfernt. Auch wenn ein paar Verschwörungstheoretiker erzählen, die würden schon um die Ecke warten. Dümmer als diese Vorstellung sind nur die Roboter selbst. Schauen sie sich mal die Fussballer beim RoboCup an. Trotzdem haben sie sich in den letzten Jahren extrem entwickelt.

Wenn Kate Darling, 32, nicht gerade für einen Wissenschaftskongress über den Globus reist, geht Doctor of Science Darling an den Elite Universitäten Yale, Harvard und Cambridge ein und aus. Teils um über Roboterrechte und Geistiges Eigentum im Internet zu lehren, teils als Besucherin, um für ihre aktuellen Forschungen auf dem Feld der Roboterethik weiterzukommen. Darling wuchs in Basel auf und machte an der Uni Basel ihr Lizentiat in Jus. Den Doktortitel holte sie an der ETH Zürich. Seit 2011 arbeitet und forscht Darling am Massachusetts Institute of Technology MIT im Media Lab.

Fänden Roboter einfacher Akzeptanz, wenn sie nicht als überlegene Gefahr dargestellt würden, sondern mehr als devote Diener wie der neue Verkaufs-Lakai von Nespresso? Roboter wären doch die perfekten Sklaven der Zukunft.

Genau die Sklavenroboter im Haushalt, beziehungsweise die Leute, die sie verkaufen, machen mir Sorgen. Auch ein simpler Roboter kann uns manipulieren.

Wie das?

Indem er mit uns interagiert. Nehmen sie die Grossmutter, die allergisch auf Katzen ist, ihr Robo-Büsi aber umso inniger liebt. Nun muss sie die Software für 10’000 Franken updaten. Einsamen Menschen wäre es das wert. Oder Haushaltshilfen wie Nest, das mittlerweile Google gehört. Damit zieht künstliche Intelligenz in die Privatsphäre ein. Nest hilft zwar bei der Kontrolle des Hauses, vom Raumklima bis zum Einbruchschutz, sammelt dabei aber unweigerlich sehr private und intime Daten. Die Leute fürchten sich vor Überwachungsdrohnen, die kaum mehr als einen Blick in ihr Haus werfen können, kaufen aber ohne nachzudenken einen potenziellen Top-Spion.

Plädieren Sie für Datenschutz-Regeln, bevor die Privatwirtschaft macht, was sie will?

Als Juristin fände ich es logischerweise gut, die Leute würden durchdachte Richtlinien setzen. Es macht mir auch Sorgen, dass Firmen unter den jetzigen Regeln keine Roboter-Projekte unterstützen, die Open Platform sind. Im Unterschied zu einer fehlerhaften App oder einem Programm, das schlimmstenfalls zu einem Datenverlust führt, kann ein fehlerhafter Roboter physische Schäden verursachen. Die rechtliche Lage in solchen Fällen ist verzwickt und innovationsbehindernd.

Fragen der Unfallhaftung stellen sich ja auch beim fahrerlosen Google-Auto.

Da geht es nicht nur um die Haftungsfrage bei einem Unfall. Wenn der Computer berechnet, dass ein Unfall unvermeidbar ist und er die Wahl hat, in ein korrekt fahrendes Auto zu knallen oder in den Fussgänger, der gegen die Verkehrsregeln verstösst – soll man dann den korrekt Fahrenden gefährden, weil der Fussgänger mit grösserer Wahrscheinlichkeit sterben würde? Das sind ethische Fragen bei der Programmierung der Algorithmen, die sich jetzt schon stellen. Sie sind aber nicht Teil meiner Forschung.

Sie plädieren dafür, dass Roboter dieselben Rechte erhalten sollen wie Haustiere.

Das war vor allem als provokativer Denkanstoss gedacht. Die Roboter sind ja nicht gescheit genug, um eigene Rechte zu verdienen. Die Idee entstand, weil wir herausfanden, dass Menschen tierische oder gar menschliche Eigenschaften auf sie projizieren und extrem seltsam reagieren, wenn Roboter Gewalt erfahren oder gar zerstört werden. Sobald ein Gerät auf die menschliche Aktion reagiert, behandelt man es mehr wie ein Tier als wie einen Toaster. Total irrational. 

Das testen Sie bei einem Experiment mit dem Robo-Saurier Pleo?

Genau. Die Teilnehmer mussten ihnen Namen geben und mit ihnen spielen. Dann forderten wir sie auf, ihre Pleos zu foltern und sie umzubringen. Die Menschen weigerten sich, sie zu schlagen, obwohl sie wussten, dass der Pleo zwar traurig reagiert und anfängt zu weinen, aber eigentlich nichts empfindet. Nun klären wir ab, ob die Empathie-Übertragung tatsächlich gleich intensiv werden könnte wie bei einem Tier.

Das erinnert an die Fragestellung, ob Menschen die Ballerspiele mögen, auch im richtigen Leben brutal sind.

Dort wird argumentiert, dass es keine direkte Übertragung gibt. Bei Robotern kommt aber die physische Interaktion hinzu. Ergeben unsere Studien, dass Menschen, die Roboter verhauen, auch keine Skrupel gegenüber Tieren haben, wäre das ein Grund, Regeln zu erlassen, dass man Roboter nicht quälen darf, weil es die Leute desensibilisiert. Es geht also weniger um Rechte für den Roboter, als um Verhaltensregeln für den Umgang mit ihnen.

Und wenn Ihre Untersuchungen ergeben, dass Roboter schlagende Menschen keine Gefahr für die Gesellschaft sind?


Dann dürfen die das weiterhin tun. Roboter spüren ja nichts.

Erstaunlicherweise fühlen Menschen nicht nur mit herzigen Pleos mit. Selbst Soldaten leiden, wenn ihr Minenentschärfungs-Roboter Schaden nimmt.

Eine emotionale Bindung können Menschen nicht nur zu süssen Robo-Sauriern aufbauen, wie es dazu kommt, erforscht Kate Darling. (Bild: Flavia Schaub)

Und genau dort wird es zum Problem, dass Leute sehr schnell eine emotionale Bindung aufbauen. Ein Soldat darf nicht zögern, sein Minensuchgerät einzusetzen, nur weil es Schaden nehmen könnte. Er gefährdet dadurch eventuell sich oder andere Menschen. Mit meiner aktuellen Forschung versuche ich herauszufinden, welche Faktoren es braucht, damit eine emotionale Bindung entsteht.

Jedes Kind liebt seinen Teddy und andersrum warf ein Flugzeug mit dem Namen Enola Gay die Atombombe Little Boy über Hiroshima ab. Schon da vermenschlichten Soldaten Werkzeug wie Waffe. Warum muss man das für Roboter nochmals neu überdenken?

Roboter bewegen sich selbstständig und wirken dadurch lebendiger. Menschen reagieren anders auf Dinge, die sich so bewegen. Die Bindung zu Robotern ist deshalb stärker. Beziehungsweise erforschen wir nun gerade, ob es stärker ist und wie lange der Effekt wohl anhält. Denn bei neuen Techniken wie Telefon oder Fernsehen reagierten Menschen ja immer erst sehr stark – vor allem ängstlich – bis sie zur Normalität wurden. Ist der emotionale Bezug von Menschen zu bewegten Objekten jedoch biologisch bedingt, was wir ja vermuten, geht das nicht so schnell weg.

Das Militär gilt als ein Entwicklungstreiber neuer Technologien, ein anderer ist die Sexbranche. Sind Sexroboter ein Thema?


Das Phänomen existiert vor allem in Asien. Dort werden schon Sexroboter hergestellt. Rein vom Bezug der Asiaten zu Robotern her, die sie allgemein viel stärker vermenschlichen als die westliche Kultur, haben diese dort auch eine Zukunft. In Amerika gibt es zwar «Real Dolls», die Herzschlag haben und sprechen, aber das ist keine grosse Weiterentwicklung der Gummipuppe. Ich habe Pornoproduzenten angefragt, ob Pläne oder Investitionen für Sexroboter bestehen. Enttäuschenderweise nicht.

Enttäuschenderweise, weil die Mensch-Roboter-Ehe eine spannende ethische Frage wäre?


Absolut. Aber ich sehe nicht, dass das politisch in naher Zukunft ein Thema wird. Es sind ja noch längst nicht alle Ehe-Formen unter Menschen erlaubt. Die amerikanischen Pornoproduzenten hatten allerdings profanere Gründe: Aufwendige Roboter sind schlicht zu teuer. Die Forschung ist dementsprechend kostenintensiv. Eine übersteigerte emotionale Bindung zum Roboter birgt definitiv auch neue Gefahren.

Der Roboter dient als Projektionsfläche für alle Fragen des menschlichen Seins, von der Sexualität bis zu Gewalt und Sklaverei. Bietet die Mensch-Maschine erstmals die Möglichkeit, diese Fragen geschlechterneutral anzugehen?

Nein, weil die Menschen dem Roboter als erstes ein Geschlecht zuweisen. Das ist eigentlich problematisch und deshalb eine interessante Frage. Ich habe es bei meinem Vogelroboter getestet und konnte selbst nicht vermeiden, ihm ein Geschlecht zu verpassen. Warum, wäre eine weitere spannende Untersuchung.

Der automatische Staubsauger Roomba bekommt weibliche Namen, während der Minensuchroboter eher Joe getauft wird?


Eine Untersuchung, ob Menschen eher männlichen oder weiblichen Roboterstimmen vertrauen, bestätigte die gängigen sexistischen Klischees. Doch umgekehrt gaben die meisten Leute ihrem Roomba einen männlichen Namen. Vielleicht überwog das technische Attribut über die Tätigkeit, also Staubsaugen.

Ich las, Ihre Motivation, in die Roboterethik-Forschung zu gehen, war: Weil es sonst keiner macht.

Nun, es sind einige auf diesem Feld tätig. Aber Roboterethik ist auch ein neues Forschungsfeld, das erst vor etwa fünf Jahren Aufmerksamkeit gewann. Bislang fehlte leider der interdisziplinäre Umgang mit dem Thema. Das ändert sich aber langsam. Darum belege ich für meine jetzige Forschung auch Kurse in Psychologie an der Harvard University. Leider ist es noch nicht die Norm, drei oder noch mehr Fächer zu verbinden.

Als Amerikanerin, die in Basel aufgewachsen ist: Wie unterscheiden sich Europa und die Neue Welt in Bezug auf Akzeptanz oder Ängste vor Robotern?


Beide Welten nehmen Roboter und die damit verbundenen Fragen noch zu wenig ernst. Was den Datenschutz angeht, sind die Europäer sicher skeptischer. Die Amerikaner sind da etwas zu «cutting edge» und müssen gleich alles mitmachen, ohne sich erst zu überlegen, ob es eine gute Idee ist.

Ist die Elite-Uni MIT eigentlich so eine Anhäufung von Nerds wie man sich das vorstellt?

(lacht) Schon etwas. Also in meinem Media Lab weniger. Da wirkt eine bunt gemischte Truppe von Technikern, Ökonomen und Psychologen, aber auch Grafiker, Designer und Künstler. Man geniesst enorme Freiheiten. Deshalb passieren dort auch grossartige Sachen. Es hat bei uns auch viele Frauen. Mathematischer geprägte Labs entsprechen sicher eher den klassischen Nerd-Klischees.

Was ist denn die Aufgabe Ihres Labs?


Schwierig zu beschreiben. Man nimmt einen Haufen talentierter Leute aus jeglichen Disziplinen, wirft sie mit viel Forschungsgeld in ein Gebäude und schaut, was passiert. Bei uns entstehen Arbeiten zu Robotik, aber auch zu Opern, neuen Medien und Medizin. Alles im selben Gebäude. Ich könnte nirgendwo anders so frei und effizient arbeiten.

«Ich streichelte meinen Robo-Saurier, um ihn zu trösten. Das fand ich sehr interessant, da ich sonst keine mütterlichen Gefühle empfinde.»

Wie kommt Kate Darling aus Basel überhaupt dort hinein?

Als Juristin von der ETH Zürich. Sie suchten jemanden, der Immaterialgüterrecht mit Nerdism verbindet. Ein paar Professoren dort wussten von Twitter, dass ich Roboter mag und holten mich für ein Jahr. So rutschte ich in die Forschung rein, an der ich nun seit zwei Jahren arbeite.

Der Nerd-Attribut bekamen sie wahrscheinlich, weil sie für ihre Doktorarbeit zu Immaterialgüterrecht vor allem den Umgang und die Probleme der Pornobranche mit geistigem Eigentum im Internet untersuchten.

Ein Teil der Arbeit handelt von der Pornoindustrie. Wobei es dort mehr um technische Veränderungen geht als um Sex.

Damals besuchten sie statt Roboter-Kongresse, Porno-Konvente. Wurde eine junge attraktive Frau wie Sie dort als Wissenschaftlerin ernst genommen?


Nun, erst meinten alle, Kate Darling sei nicht mein richtiger Name. Doch dann merkten sie schnell, dass ich mich nicht für eine Rolle bewerbe – dass dennoch niemand fragte, ob ich in einem Film mitspielen wolle, ist eigentlich eine Beleidigung (lacht).

Und wie reagiert die Sexindustrie auf akademisches Interesse?

Ich hatte anfangs Schiss, weil mir Leute sagten, dass sei alles von der Mafia kontrolliert. Also zog ich, um cool zu wirken, meine Lederjacke an und flog nach L.A. Die Konferenz war dann enttäuschend professionell, biederes Business. Es gab höchst langweilige Podiumsdiskussionen über Zahlungsmöglichkeiten und Rechnungsabwicklung im Internet. Also stürzte ich mich in der Hoffung auf etwas Party an die Bar. Aber dort hörte man nur: Ich muss nach Hause, da meine Frau schwanger ist mit Zwillingen. Juristenkonferenzen bieten viel mehr Party als jene der Pornobranche.

Wann entdeckten Sie Ihr Interesse für Roboter?

Ich hatte mir vor Jahren selbst einen Pleo gekauft. Anfangs fand ich es lustig, wenn andere ihn am Schwanz packten und er sich jaulend wehrte. Aber bald schon litt ich mit und streichelte meinen Pleo, um ihn zu trösten. Das fand ich sehr interessant, da ich sonst keine mütterlichen Gefühle empfinde.

Sie doktorierten über geistiges Eigentum im Internet, forschen zu Robotervisionen und verdanken diesen Job Twitter. Leben Sie in der Zukunft?

Nein, ich lebe im Jetzt, aber sehr viele Leute leben in der Vergangenheit.

Nächster Artikel