Eine Vorabveröffentlichung des Artikels „Einfache moralische Maschinen“ von Oliver Bendel bringt der Blog des Instituts für Wirtschaftsinformatik der Hochschule für Wirtschaft FHNW. Moralische Maschinen sind nach der Meinung des Philosophen und Wirtschaftsinformatikers bereits heute möglich. Man dürfe sie nur nicht zu kompliziert denken und zu komplex gestalten. Wenn es sich um spezialisierte autonome oder teilautonome Systeme handele, könne man bei ihren Kernfunktionen ansetzen und sie mit geringfügigen Änderungen, mit wenigen zusätzlichen Komponenten in einfache moralische Maschinen verwandeln. Wie das geschehen kann, wird an vier Beispielen gezeigt, an Servicerobotern, privaten Drohnen, Chatbots und selbstständig fahrenden Autos. Der Artikel erscheint im August 2013 auf der Plattform KMU Business World.
Abb.: Daraus kann man keine moralische Maschine machen
In ihrem Artikel „Wie viel Moral braucht eine Maschine?“ in der Liechtensteiner Sonntagszeitung namens Liewo gibt Stephanie Büchel einen Überblick über den Stand der Diskussion in der Maschinenethik. Im Fokus sind selbstständig fahrende Autos. Aber auch Kampf-, Operations- und Pflegeroboter sind ein Thema: „Wie bringt man einem Roboter den Unterschied zwischen Gut und Böse bei? Wer ist Schuld, wenn ein Operationsroboter einen Kunstfehler begeht?“ Nicht fehlen darf Isaac Asimov mit seinen Robotergesetzen, die zu den beliebtesten Diskussionsgegenständen in der Maschinenethik gehören. Und die Frage nach den Rechten der Roboter, die nebenbei in der Roboterethik verhandelt werden und noch lange in den Bereich der Science Fiction gehören dürften. Die zentralen Konzepte der Maschinenethik haben dagegen, das zeigt auch die Verfasserin, eine hohe Alltagsrelevanz. Ihr Artikel ist am 2. Juni 2013 erschienen. Sie hat maschinenethik.net freundlicherweise ein PDF zur Verfügung gestellt.
Im Gabler Wirtschaftslexikon wird seit 3. Juli 2013 die Roboterethik definiert. Diese kann man sowohl der Maschinen- als auch der Menschenethik zuordnen. In der Roboterethik werde danach gefragt, ob ein Roboter ein Subjekt der Moral sein und wie man diese implementieren kann. Auch der Roboter als Objekt der Moral sowie sein Einfluss auf Menschen sei von Belang. Oliver Bendel erklärt in seinem Beitrag den Begriff der Roboterethik, nimmt die Perspektive der Robotik ein, erwähnt die Robotergesetze von Asimov und gibt eine Einschätzung der Disziplin und einen Ausblick auf ihre weitere Entwicklung. Der Beitrag ist direkt über wirtschaftslexikon.gabler.de/Definition/roboterethik.html abrufbar. Er wurde dem Sachgebiet „Grundlagen der Wirtschaftsinformatik“ zugewiesen. Für das Gabler Wirtschaftslexikon schreiben nach eigenen Angaben über „150 Experten aus Wissenschaft und Praxis“. Mehr als „25.000 Stichwörter stehen kostenlos“ bereit.
Ein Artikel in der UnternehmerZeitung vom 2. Juli 2013 geht auf das GOODBOT-Projekt ein, das im Juni 2013 an der Hochschule für Wirtschaft FHNW gestartet ist. Der „moralische Chatbot“ soll auch auf Selbstmorddrohungen oder Ankündigungen von Amokläufen adäquat reagieren und überhaupt ein angenehmer Zeitgenosse (und trotzdem kein Langweiler) sein. Es werden sieben Regeln genannt, die „hinsichtlich seiner Akte und Sprechakte gegenüber dem Benutzer“ gelten sollen. Dazu gehört auch eine Transparenzregel: „Der GOODBOT macht dem Benutzer klar, dass er eine Maschine ist.“ (Regel 1) Und eine Regel zur Beobachtung: „Der GOODBOT ist kein Spitzel und wertet Gespräche mit dem Benutzer nicht aus.“ (Regel 6) Für das Projekt wurden verschiedene konzeptionelle Vorleistungen wie der Regelkatalog erbracht. Von Juni 2013 bis Januar 2014 arbeiten sich drei Studierende der Hochschule in die Maschinenethik und die Roboterethik ein und entwickeln einen Prototyp. Initiator und Leiter des Projekts ist der Philosoph und Wirtschaftsinformatiker Oliver Bendel. Der Artikel ist in der siebten Ausgabe der UnternehmerZeitung auf den Seiten 30 und 31 zu finden.
Viele Benutzer mögen Chatbots auf Websites und unterhalten sich gerne mit ihnen. Dabei spielen Produkte und Dienstleistungen meist eine untergeordnete Rolle. Man will das virtuelle Gegenüber ausfragen, mit ihm flirten, es necken und reizen. Wenn man in Schwierigkeiten steckt, will man eine Antwort erhalten, die einen nicht noch mehr entmutigt und verstört. Die meisten Bots sind in dieser Hinsicht völlig überfordert. Auf Selbstmorddrohungen oder Ankündigungen von Amokläufen reagieren sie inadäquat. In einem Projekt an der Hochschule für Wirtschaft der Fachhochschule Nordwestschweiz FHNW wird unter der Leitung von Oliver Bendel eine moralische Maschine besonderer Art, nämlich ein sogenannter GOODBOT, konzipiert und prototypisch implementiert. Zunächst werden theoretische Grundlagen im Kontext der Maschinenethik erarbeitet. Es interessiert unter anderem, welche normativen Modelle maschinell verarbeitbar sind. Dann werden ausgewählte Chatbots auf Websites sowie Sprachassistenten wie Siri analysiert und verglichen sowie Erkenntnisse zu Systemen solcher Art gewonnen. Ein vorhandener Regelkatalog soll daraufhin überprüft werden, ob er in einem regelbasierten System umgesetzt bzw. wie er angepasst werden kann. Nicht nur Top-down-, sondern auch Bottom-up-Ansätze sollen erwogen werden. Zudem ist relevant, inwieweit soziale Medien und leibhaftige Menschen moralische Referenzpunkte bilden können. Das Projekt hat im Juni 2013 begonnen. Informationen zum Initiator und Projektleiter über http://www.fhnw.ch/personen/oliver-bendel.
Das Buch „Können Roboter lügen?“ von Raúl Rojas enthält „Essays zur Robotik und Künstlichen Intelligenz“, die von 2011 bis 2013 in der Online-Zeitschrift Telepolis erschienen sind. Rojas ist Professor für Künstliche Intelligenz an der Freien Universität Berlin. Im Kontext der Maschinenethik (und der Roboterethik) ist vor allem der dritte Teil interessant. Im Vorwort heißt es: „Der dritte Teil über Robotik und KI gibt einen Einblick in die Arbeit, die in den letzten Jahren auf diesem Gebiet geleistet worden ist. Wir wären froh, mit Robotern die Eleganz eines Insekts bei der Bewältigung von Hindernissen zu erreichen. Wir können aber schon heute kleine und große Roboter – z.B. autonome Fahrzeuge – mit kognitiven Architekturen ausstatten, die eine effiziente und nützliche Funktionalität erlauben. Die Kapitel über Roboter, die lügen, bzw. über das Watson-System zeigen die zwei Seiten der Medaille: Wie weit die künstliche Intelligenz gekommen ist und wie weit entfernt sie doch noch vom Ziel bleibt.“ Rojas gelangt zum Schluss: „Roboter kennen die Wahrheit nicht, deswegen können sie nicht lügen.“ Das Buch wurde Ende Mai 2013 im Heise Zeitschriften Verlag veröffentlicht und ist u.a. in der Kindle-Edition erhältlich.
Ein neues Beratungsangebot findet sich seit Anfang April 2013 auf der Website des Instituts für Wirtschaftsinformatik an der Hochschule für Wirtschaft der Fachhochschule Nordwestschweiz FHNW. Es richtet sich auf die Maschinenethik, die mit der Algorithmenethik verwandt ist und zu der die Roboterethik gehört. Die Mitarbeiterinnen und Mitarbeiter des Kompetenzschwerpunkts Digital Innovation & Learning (DIL) unter der Leitung von Prof. Dr. Oliver Bendel stellen dar, welche normativen Modelle in einem bestimmten Bereich in Frage kommen, und vermitteln Kontakte zu internationalen Forschungs- und Anwendungspartnern. Sie erarbeiten Studien, die das Potenzial der Maschinenethik sowie Chancen und Risiken für das jeweilige Geschäftsfeld aufzeigen. Die Schwerpunkte liegen in der Verbesserung von Systemen mit natürlichsprachlichen Fähigkeiten (etwa von pädagogischen Agenten, mobilen Sprachassistenten und Chatbots) in ethischer Hinsicht und in der Entwicklung von Szenarien zu kommerziellen Anwendungen von moralischen Maschinen.
Michael Anderson und Susan Leigh Anderson gehen als Herausgeber des 2011 in der Cambridge University Press erschienenen Buchs “Machine Ethics” der Frage nach, ob und wie autonome Systeme in moralischer Weise handeln sollen und können. Schon vor Jahrzehnten hat man in Literatur und Wissenschaft über diese Frage nachgedacht; aber eine entsprechende Disziplin ist erst in den letzten Jahren entstanden. Offensichtlich wird die Notwendigkeit gesehen, das Verhalten von Maschinen im Kontext der Moral zu reflektieren und Philosophen (vor allem Ethiker) und Vertreter der Künstlichen Intelligenz darüber nachdenken zu lassen. In der Einführung heißt es: “The subject of this book is a new field of research: Developing ethics for machines, in contrast to developing ethics for human beings who use machines.” Wir benutzen Maschinen, und Maschinen benutzen uns. Wie sollen die Maschinen mit uns umgehen, und wie sollen sie sich entscheiden in Situationen, in denen wir in unserer Identität und in unserer Existenz bedroht werden? Die Beiträge enthalten bemerkenswerte Vorschläge und verdienen eine aufmerksame Lektüre.
Abb.: Immer mehr Bücher widmen sich der Maschinenethik