Oliver Bendel hat einen Lügenroboter gebaut. Dieses Wochenende stellt er ihn am Wissenschaftsfestival «Science + Fiction» vor. Wir haben mit dem Maschinenethiker darüber gesprochen, was wir von Maschinen lernen können.
Oliver Bendel spricht mit seinem Handy. Er fragt das Gerät, wer Rihanna sei und freut sich sichtlich darüber, dass ihm der Google Assistant eine korrekte Antwort gibt. Bendel ist Wissenschaftler und Autor und beschäftigt sich mit den ethischen Fragen, welche die neuesten Technologien mit sich bringen. Eines seiner Spezialgebiete sind Chatbots wie der Google Assistant, also Programme, die über eine künstliche Intelligenz verfügen und die mit ihren Nutzern eine Unterhaltung führen können.
So hat er zusammen mit seinen Studenten an der FHNW eine Software gebaut, die ihre Nutzer dreist anlügt. Am kommenden Samstag wird Bendel anlässlich des Wissenschaftsfestivals «Science + Fiction» im Sommercasino seinen Lügenbot vorstellen. Wir treffen ihn zum Interview in seinem Büro auf dem FHNW-Campus in Brugg-Windisch.
Herr Bendel, wann haben Sie zum letzten Mal gelogen?
Das war, als ich vorhin in einem Formular nach dem Familienstand gefragt wurde. Dort schreibe ich meist ledig rein, obwohl ich geschieden bin. Oder ist es umgekehrt? Mir leuchtet in den allermeisten Fällen nicht ein, wieso das jemanden etwas angehen soll. Generell halte ich Lügen für eine gesellschaftlich-kulturelle Notwendigkeit. Wer kategorisch nicht lügt, ist nicht zwingend ein guter Mensch. Kant hat das berühmte Beispiel erfunden, das später um die Nazis erweitert wurde, die vor der Tür stehen und einen fragen, ob man Juden versteckt halte. Nach Kant müsste man auch hier die Wahrheit sagen, wenn man gemeinsam zu der entsprechenden Regel gefunden hat. Doch die meisten Menschen werden in diesem Fall die Lüge für geboten halten.
Die Lüge als Ausweg aus einer Notsituation?
Oder auch als sozialer Kitt in einer Beziehung. Ich muss meinem Partner oder meiner Partnerin nicht ständig sagen, dass er oder sie hässlich ist, auch wenn es stimmen sollte. Ich darf ein Kompliment bemühen, das Unwahrheit enthält. Und doch ist die Lüge an sich geächtet. Es gibt meines Wissens keine Kultur weltweit, die systematisches Lügen goutiert.
Sie sind Maschinenethiker und beschäftigen sich mit den moralischen Aspekten von Technologie. Warum bauen Sie eine unmoralische Maschine, die Lügen erzählt?
Als Ethiker interessiere ich mich für Gut und Böse, als Maschinenethiker für moralische und unmoralische Maschinen. Ich will keine bösen Maschinen in die Welt entlassen, aber ich will sie erschaffen und erforschen. Wenn wir wissen, wie ein Lügenbot funktioniert, können wir eine solche Maschine auch entlarven und Strategien entwickeln, um gegen sie vorzugehen.
Da Ihr Lügenbot das Konzept der Lüge versteht, könnte er da nicht auch Lügen erkennen und entlarven?
Kollegen, die einen Algorithmus bauen, der Lügen erkennt, haben mich kürzlich gefragt, ob unser Lügenbot nicht ihre Maschine trainieren könnte. Es ist zwar nicht zu einer Zusammenarbeit gekommen, doch hier könnte der Lügenbot sicher hilfreich sein. Was er aber nicht macht, ist eine Quellenanalyse. Er nimmt keine Beurteilung des Wahrheitsgehaltes vor.
Es herrscht Vertrauenskrise und Fake News sind das grosse Thema. Ist es da nicht fahrlässig, lügende Software zu entwickeln?
Als wir mit dem Lügenbot angefangen haben, gab es noch keine Fake-News-Debatte. Wir wurden von der Realität eingeholt. Es wäre in der Tat gefährlich, ihn einfach freizulassen. Es bestünde das Risiko, das Vertrauen noch mehr zu stören. Doch der Lügenbot könnte ein Lehrstück in Sachen Medienkompetenz sein. Im Schulunterricht eingesetzt, könnte Schülern gezeigt werden, wozu Maschinen heute fähig sind.
Heute sind Geräte und Systeme zunehmend untereinander vernetzt. Was geschieht, wenn sich eine unmoralische Maschine wie der Lügenbot in ein solches System einschleicht?
Das Internet der Dinge oder die Kommunikation unter Maschinen birgt viele Gefahren. Zum einen natürlich Hacker. Je vernetzter und komplexer ein System, desto anfälliger wird es für Angriffe. Die Wissensbasis, also die hinterlegte Datenbank, eines Bots muss deshalb zwingend vor Hackerangriffen geschützt werden.
Müsste es nicht auch in jedem System eine Art Sheriff-Bot geben? Eine Maschine, die den Lügenbot oder andere schädliche Systeme identifiziert und ausschliesst.
Jedes System müsste in sich geschützt sein und jedes System müsste eigentlich auch seine Kommunikationspartner einschätzen können. Hier kommen Zertifikate und Qualitätslabels ins Spiel. Wenn also unser Lügenbot bei einem solchen System anklopft, müsste der Schutzmechanismus zuerst überprüfen, ob der Lügenbot über ein Sicherheitszertifikat oder ein aktuelles Prüfungszeugnis verfügt. Systeme dürfen nur vertrauenswürdige Kommunikationspartner enthalten. Autonome Autos werden ständig untereinander kommunizieren. Nicht auszudenken, was passieren würde, wenn eines der Autos unwahre Informationen verbreitet.
Sollten unmoralische Maschinen verboten werden?
In Deutschland wird gerade über ein solches Verbot nachgedacht, mit Blick auf Social Bots, die Wahlen beeinflussen. Mir schwebt ein aufgeklärterer Umgang vor. Chatbots egal welcher Art, sollten ihre Quellen offenlegen und sich gegenüber ihren Nutzern als Maschinen zu erkennen geben müssen. So dass sichergestellt wird, dass der Nutzer nicht getäuscht wird. Auch die schulisch vermittelte Medienkompetenz scheint mir sinnvoller als jedes Verbot.
«Der Mensch neigt grundsätzlich dazu, zu gewissen Maschinen ein Verhältnis zu haben.»
Sie haben neben dem Lügenbot auch ein moralisches Pendant gebaut, den Goodbot. Welches war die anspruchsvollere Aufgabe?
Der Goodbot war ein lokales System und gut überblick- und beherrschbar. Er hat viel Arbeit gekostet, weil eine umfangreiche Wissensbasis gestrickt werden musste. Der Lügenbot ist ein vernetztes System. Wir haben zum Teil riskante Lügenstrategien entwickelt, um die Idee voll auszureizen, und einige externe Quellen angeschlossen. Es war weniger Arbeit, ihn zu bauen, aber er kann viel mehr. Anspruchsvoll waren beide Projekte. Die Maschinenethik ist eine junge Disziplin, und wir gehören zu den wenigen, die moralische und unmoralische Maschinen als Prototypen implementieren.
Bauen Sie eine Beziehung zu den Maschinen auf, die Sie entwickeln? Sie haben dem Lügenbot immerhin so etwas wie einen Charakter verpasst.
Unbedingt, zum Lügenbot habe ich ein persönliches Verhältnis. Das liegt auch daran, dass wir ihn animiert haben. Der Avatar verändert sein Aussehen je nachdem, welcher Lügenstrategie er sich bedient. Wenn er eine wahre Aussage negiert, wächst etwa seine Nase. Wie bei Pinocchio. Der Mensch neigt grundsätzlich dazu, zu gewissen Maschinen ein Verhältnis zu haben. Es gibt Leute, die ihrem Auto einen Namen geben. Videos zeigen, wie Menschen ihren Computer schlagen oder ihn aus dem Fenster werfen.
Birgt das Risiken?
Die Erwartungen an einen Roboter steigen steil an, je menschlicher er aussieht. Es gibt den sogenannten Uncanny-Valley-Effekt. Dieser beinhaltet, dass es uns unheimlich vorkommt, wenn etwa ein Roboter sein menschliches Gesicht plötzlich zu einem unmenschlichen Grinsen verzieht. Darauf ist man nicht vorbereitet, weil er eben so menschlich aussieht. Der Trend geht deshalb eher in Richtung eines niedlichen, knuffigen Aussehens von Robotern oder autonomen Systemen. Sie sollen sympathisch wirken, aber nicht zu menschlich. Die Erwartungen werden auf diese Weise gedämpft.
«Roboter, die allzu menschlich aussehen, wecken in uns hohe Erwartungen. Der Trend geht deshalb Richtung knuffig und sympathisch.»
Es gibt Befürchtungen, dass die intensive Interaktion mit Robotersystemen auf die sozialen Kompetenzen abfärbt. Ein Beispiel sind die Sexroboter, die einem jederzeit zur Befriedigung zur Verfügung stehen und keinerlei eigenen Willen besitzen.
Ich teile diese Kritik an Sexrobotern nicht. Wenn erwachsene Menschen sich mit diesen Maschinen einlassen und damit ihre Fantasie ausleben, dann verlange ich von ihnen, zwischen Fiktion und Realität unterscheiden zu können. Wenn das bei einer Person auf das persönliche, soziale Leben abfärbt, war wohl vorher schon irgendeine Form von sozialem Defizit vorhanden. Eine Maschine kann so etwas höchstens verstärken. Problematisch fände ich es hingegen, wenn ein 16-Jähriger seine ersten sexuellen Erlebnisse mit einem Sexroboter hat.
Sie bilden mit ihren Experimenten menschliches Verhalten nach. Damit tragen Sie dazu bei, die Begegnung von Mensch und Maschine so reibungslos wie möglich zu gestalten.
Gerade beim Thema Sexroboter plädiere ich deshalb dafür, dass sich die Maschine gegenüber dem Nutzer als solche zu erkennen gibt. Etwa indem sie sagt: «Du kannst mich zur Befriedigung deiner Bedürfnisse nutzen. Aber sei dir im Klaren, dass ich nur eine Maschine bin.» So wird die Illusion aktiv zerstört. Das gleiche gilt für Chatbots, die ihre Nutzer regelmässig daran erinnern sollen, dass er es nicht mit einem echten Menschen zu tun hat.
Neben ihrer wissenschaftlichen Arbeit schreiben Sie auch Romane, die von Technologie handeln. Ist die Fiktion besser dazu geeignet, frei über die Zukunft nachzudenken?
Alles, was wir heute an grossartiger Technologie haben, ist der Science-Fiction-Literatur wie «Star Trek» und «Star Wars» abgeguckt. Ingenieure und Entwickler sind eben oft Nerds, die ihre Kindheitsträume und -erlebnisse nachbauen. Der russische Forscher und Schriftsteller Isaac Asimov hat in den 1950er-Jahren bereits eine Kurzgeschichte über autonome Autos geschrieben, die praktisch alles vorwegnahm, was heute zu diesem Thema diskutiert wird. Auch beim Thema Sexroboter kommen die interessantesten Ideen aus dem künstlerischen Bereich. An einer Konferenz wurde kürzlich der «Kissenger» vorgestellt, ein Gerät, mit dem Küsse übertragen werden können. Mir gefallen solche Spielereien, denn sie erlauben es, Gedankenspiele anzustellen und zu fragen, was uns Menschen ausmacht und zusammenhält.