Die Maschinenethik arbeitet mit Künstlicher Intelligenz und Robotik zusammen. Sie bringt maschinelle Moral hervor und untersucht sie. Ausgangspunkt sind teilautonome und autonome Systeme, etwa selbstständig fahrende Autos, Serviceroboter, Kampfroboter und Chatbots. Das „Handbuch Maschinenethik“, herausgegeben von Prof. Dr. Oliver Bendel, liefert Grundlagen zur Maschinenethik, erkundet Anwendungsgebiete der Disziplin und stellt Prototypen moralischer Maschinen vor. Neben der Maschinenethik kommen Roboterethik und Rechtswissenschaft zu Wort. Die Beiträge des Handbuchs werden seit 2017 laufend über link.springer.com/referencework/10.1007/978-3-658-17484-2 veröffentlicht. Die Autorinnen und Autoren gehören zu den bekanntesten Wissenschaftlerinnen und Wissenschaftlern in Europa auf den Gebieten der Maschinenethik, der Roboterethik und des Roboterrechts. In gedruckter Form kommt das Buch mit allen 22 Beiträgen im Sommer oder Herbst 2019 heraus. Weitere Informationen über www.springer.com/gp/book/9783658174828.
Die Frage der Verantwortung
Das Wissenschaftsjahr 2019 widmet sich der Künstlichen Intelligenz. In diesem Kontext führte Vision Kino ein Interview mit dem Informations- und Maschinenethiker Oliver Bendel. Zuerst wurde er danach gefragt, welche Themen im Zusammenspiel von Künstlicher Intelligenz und Ethik er aktuell für besonders wichtig hält. Er antwortete: „In der Informationsethik ist das Thema Überwachung im Augenblick sehr zentral, hier insbesondere Gesichts- und Emotionserkennung. Sehr problematisch wird es, wenn das mit der so genannten Physiognomik kombiniert wird, einer Pseudowissenschaft. Beispielsweise will man aus Gesichtsmerkmalen und -ausdrücken kriminelle Absichten ableiten.“ Später ging es dann um Fragen der Verantwortung. Nach Oliver Bendel kann ein Computer oder Roboter keine Verantwortung tragen, höchstens in einem sehr rudimentären Sinne, indem er eine Aufgabe übernimmt. Es ergibt nach ihm auch keinen Sinn, ihn in moralischer Hinsicht zur Verantwortung zu ziehen. Das Interview kann hier nachgelesen werden.

Abb.: Können Roboter Verantwortung tragen?
Sollten wir Roboter köpfen?
Sollten wir Roboter köpfen oder anderweitig bestrafen? Im Moment sicherlich nicht. Im „Handbuch Maschinenethik“, seit 2016 von Prof. Dr. Oliver Bendel herausgegeben, ist der 18. Beitrag erschienen, mit dem Titel „Maschinenethik und strafrechtliche Verantwortlichkeit“. Autorin ist Dr. Monika Simmler. Aus dem Abstract: „Handlungen sind zunehmend das Resultat eines Zusammenwirkens von Mensch und (teil-)autonomer Maschine. Das Verhalten dieser Maschinen lässt sich weder dem Menschen noch der Technik selbst ohne Weiteres als Handlung zurechnen. Dieser Herausforderung für die strafrechtliche Verantwortungszuschreibung nimmt sich der vorliegende Beitrag an. Es wird festgestellt, dass Maschinen keine Strafrechtssubjekte darstellen, was allerdings nicht für alle Zeiten gelten muss. Insbesondere die Emergenz moralischer Handlungsfähigkeit von Technik könnte zu einem Wandel beitragen. Bis dahin steht jedoch die Verantwortlichkeit der Menschen im Zentrum. Sie sind gefordert, adäquate Sorgfalt walten zu lassen. Dabei kann gerade das Anliegen der Maschinenethik – die Moralimplementation – zur eigentlichen Sorgfaltspflicht werden. Die Disziplin entfaltet damit Relevanz für das Strafrecht, hängen doch maschinelle Moral, Handlungsträgerschaft und Verantwortung eng zusammen.“ Die letzten vier Beiträge erscheinen in den nächsten Wochen. Alle bisherigen sind über link.springer.com/referencework/10.1007/978-3-658-17484-2 verfügbar.

Abb.: Sollten wir Roboter köpfen?
Die programmierte Moral
Im Februar 2019 ist „Roboter in der Gesellschaft: Technische Möglichkeiten und menschliche Verantwortung“ bei Springer erschienen, herausgegeben von Christiane Woopen und Marc Jannes. Die Beiträge stammen von Alin Albu-Schäffer („Von drehmomentgeregelten Roboterarmen zum intrinsisch nachgiebigen humanoiden Roboter“), Jochen J. Steil („Roboterlernen ohne Grenzen? Lernende Roboter und ethische Fragen“), Oliver Bendel („Die programmierte Moral“), Catrin Misselhorn („Moralische Maschinen in der Pflege? Grundlagen und eine Roadmap für ein moralisch lernfähiges Altenpflegesystem“), Hartmut Hirsch-Kreinsen („Autonome Systeme in der industriellen Arbeitswelt“) und Johannes Weyer („Autonome Technik außer Kontrolle? Möglichkeiten und Grenzen der Steuerung komplexer Systeme in der Echtzeitgesellschaft“). Norbert Lammert schreibt zu „Roboterethik. Zur Rolle der Politik“. Das Buch geht zurück auf die Tagung „Roboterethik – Sie sind stark, klug, selbstständig. Und was wird aus uns?“, veranstaltet von ceres und Daimler und Benz Stiftung am 24. November 2015 in Berlin. Weitere Informationen über www.springer.com/gp/book/9783662577646#.

Abb.: Maschinelle Moral gibt es seit Jahren
Über den Einsatz von Pflegerobotern
„Noch ist nicht ausgemacht, wohin, fest aber steht: Im Zuge der Digitalisierung verschieben sich Grenzen.“ So beginnt die Einführung von Andreas Vierecke in der neuen Ausgabe der Blätter der Wohlfahrtspflege (1/2019). „Was … zunächst einmal ansteht, ist die Notwendigkeit, uns in irgendeiner Weise zu den mit der Digitalisierung unabweisbar einhergehenden Herausforderungen zu verhalten und eine Strategie für die eigene Organisation zu entwickeln.“ (BdW 1/2019) Identifiziert werden müssen die konkreten Technologien, die konkreten Anwendungsfelder und die konkreten Herausforderungen. Das Spektrum ist breit, von einfachen Warnsystemen bis hin zu komplexen Robotern. „Über ethische Aspekte des Einsatzes von Pflegerobotern … hat sich Oliver Bendel Gedanken gemacht, von denen er in diesem Heft einige mit uns teilt.“ (BdW 1/2019) Weitere Informationen über www.nomos-elibrary.de/10.5771/0340-8574-2019-1/bdw-blaetter-der-wohlfahrtspflege-jahrgang-166-2019-heft-1.

Abb.: Eine menschliche Hand wird gereicht
Roboterphilosophie bei den Freidenkern
„Die Freidenker-Vereinigung der Schweiz setzt sich für die Anliegen der Konfessionsfreien ein. Sie tritt ein für die Trennung von Staat und Kirche und für eine weltlich-humanistische Ethik, in der die Menschenrechte eine zentrale Rolle einnehmen. Und sie vertritt ein wissenschaftlich plausibles Weltbild.“ (Website Freidenker Schweiz) Eingeladen haben die Freidenkenden Mittelland den Roboterphilosophen und Freidenker Oliver Bendel aus Zürich. Er spricht am 11. Februar 2019 im Jugendstilsaal des Atrium-Hotels Blume in Baden zum Thema „Der Roboter entdeckt die Philosophie“. Er wird die Zuhörer laut Programm auf eine Reise mitnehmen. „Bei einer Station geht er der Frage nach, ob Roboter Rechte haben oder haben werden.“ Einer solchen Frage widmet sich traditionell die Roboterethik. Bendel ist der Meinung, dass Roboter und KI-Systeme bis auf weiteres keine Rechte haben und haben sollten. Bei einer nächsten – nun geht es um Maschinenethik – „wird er darstellen, wie man Entwickler und ihre Geschöpfe für die Philosophie gewinnt und wie man Roboterautos, Serviceroboter und Chatbots zu moralischen und unmoralischen Maschinen machen kann“ (Programm). Der Flyer zur Veranstaltung kann hier heruntergeladen werden.

Abb.: Das Zeichen für Atheismus
Politik informiert sich über Pflegeroboter
Im Deutschen Bundestag widmet man sich am 20. Februar 2019 den Chancen und Risiken von Pflegerobotern. Robotikerin Dr. Birgit Graf spricht über „Potenziale und Grenzen der Robotik für die Pflege – Stand der Technik und Anwendung, Herausforderungen für Forschung und Entwicklung“, Pflegewissenschaftler Prof. Dr. Manfred Hülsken-Giesler nimmt eine „Einordnung und Bewertung aus Sicht der Pflegewissenschaft“ vor. „Ethisch-normative Herausforderungen der Pflegerobotik“ ist der Titel des Vortrags von Prof. Dr. Oliver Bendel, Informations- und Maschinenethiker. Daneben gibt es Kommentare aus der Perspektive der Technikfolgenabschätzung (Dr. Bettina-Johanna Krings, KIT/ITAS), der Forschungsförderung (Christine Weiß, VDI/VDE-IT), der Pflegeträger (Alexander Huhn, Caritas-Zentrum Garmisch-Partenkirchen) und der Pflegekräfte (Peter Tackenberg, Deutscher Berufsverband für Pflegeberufe (DBfK)). Die Einführung wird Dr. Christoph Kehl vom Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) halten. Das Programm kann hier heruntergeladen werden.
Abb.: Das Brandenburger Tor
Der rote Kaugummiautomat deutscher Dörfer
„Automaten gibt es seit tausenden Jahren, von den dampfbetriebenen Altären der Antike über die Androiden im Spätbarock (Musikerin, Schreiber und Zeichner) bis hin zu modernen Maschinen.“ So beginnt ein Beitrag von Oliver Bendel für das Gabler Wirtschaftslexikon. Es werden mehrere Beispiele gegeben: „Automaten verrichten selbstständig eine bestimmte Tätigkeit, etwa das Zubereiten und Ausgeben von Kaffee (Kaffeeautomat), das Auswerfen von Zigaretten (Zigarettenautomat) oder das Anzeigen der Zeit (Uhr). Manche sind rein mechanisch, wie der rote Kaugummiautomat deutscher Dörfer und Städte, andere elektronisch und vernetzt.“ Und Abgrenzungen – wie zu Robotern – vorgenommen. Am Ende kommt die Ethik zu Wort: „Wirtschafts-, Technik- und Informationsethik widmen sich den Herausforderungen, die sich durch Automaten und Automation ergeben, sei es in Bezug auf die Ersetzung von Mitarbeitenden, sei es in Bezug auf die Möglichkeit der Gefährdung, Verletzung und Überwachung. Die genannten Bereichsethiken betrachten ebenso den Beitrag von Automaten und Automation zu einem guten Leben, nicht zuletzt vor dem Hintergrund, dass Arbeit idealisiert und ideologisiert wird.“ Der Beitrag ist im Januar 2019 erschienen und kann über wirtschaftslexikon.gabler.de/definition/automat-119939 aufgerufen werden.
Abb.: Ein roter Kaugummiautomat
Diskussion über autonome Kampfroboter
Die Heinrich-Böll-Stiftung kündigt eine Veranstaltung zu autonomen Kampfrobotern an: „Künstliche Intelligenz (KI) ist das große Glücksversprechen des 21. Jahrhunderts und wird viele Lebensbereiche moderner Industriegesellschaften dramatisch verändern, von der Mobilität zur industriellen Fertigung oder der Krankenpflege. KI wird auch die Sicherheits- und Verteidigungspolitik verändern. Sie wird dazu führen, dass moderne Waffensysteme zunehmend autonom agieren und die menschlichen Eingriffsmöglichkeiten auf ein Minimum reduzieren.“ (Information HBS) Dies werfe, so die Stiftung, ethische Fragen auf, insbesondere dann, wenn zukünftig Kampfroboter ihre Ziele autonom auswählen und bekämpfen. „Doch wie realistisch ist dieses Szenario? Wieviel Autonomie steckt schon heute in modernen Waffensystemen und welche Entwicklungstendenzen zeichnen sich ab?“ (Information HBS) Diese Fragen will man mit Noel Sharkey, „einem führenden Experten für Ethik und Robotik“, einer Vertreterin des Auswärtigen Amtes und einem Mitglied des Bundestags diskutieren. Die Veranstaltung findet am 23. Januar 2019 von 19.00 bis 20.30 Uhr bei der Heinrich-Böll-Stiftung in Berlin statt.
Abb.: Der will nur spielen
Moral Competence for Social Robots
At the end of 2018, the article entitled „Learning How to Behave: Moral Competence for Social Robots“ by Bertram F. Malle and Matthias Scheutz was published in the „Handbuch Maschinenethik“ („Handbook Machine Ethics“) (ed.: Oliver Bendel). An excerpt from the abstract: „We describe a theoretical framework and recent research on one key aspect of robot ethics: the development and implementation of a robot’s moral competence.“ The authors propose „that moral competence consists of five elements, two constituents (moral norms and moral vocabulary) and three activities (moral judgment, moral action, and moral communication)“. „A robot’s computational representations of social and moral norms is a prerequisite for all three moral activities. However, merely programming in advance the vast network of human norms is impossible, so new computational learning algorithms are needed that allow robots to acquire and update the context-specific and graded norms relevant to their domain of deployment. Moral vocabulary is needed primarily for moral communication, which expresses moral judgments of others’ violations and explains one’s own moral violations – to justify them, apologize, or declare intentions to do better. Current robots have at best rudimentary moral competence, but with improved learning and reasoning they may begin to show the kinds of capacities that humans will expect of future social robots.“ (Abstract) An overview of the contributions that have been published electronically since 2017 can be found on link.springer.com/referencework/10.1007/978-3-658-17484-2.
Robots and Rights
Robots have no rights from a philosophical and ethical point of view and cannot currently get any rights. You only have such rights if you can feel or suffer, if you have a consciousness or a will to live. Accordingly, animals can have certain rights, stones cannot. Only human beings have human rights. Certain animals can be granted basic rights, such as chimpanzees or gorillas. But to grant these animals human rights makes no sense. They are not human beings. If one day robots can feel or suffer, if they have a consciousness or a will to live, they must be granted rights. However, Oliver Bendel does not see any way to get there at the moment. According to him, one could at best develop „reverse cyborgs“, i.e. let brain and nerve cells grow on technical structures (or in a robot). Such reverse or inverted cyborgs might at some point feel something. The newspaper Daily Star dealt with this topic on 28 December 2018. The article can be accessed via www.dailystar.co.uk/news/latest-news/748890/robots-ai-human-rights-legal-status-eu-proposal.
Fig.: A human brain could be part of a reverse cyborg
Roboethics as Topical Issue in Paladyn Journal
In 2018, Paladyn Journal of Behavioral Robotics published several articles on robot and machine ethics. In a message to the authors, the editors noted: „Our special attention in recent months has been paid to ethical and moral issues that seem to be of daily debate of researchers from different disciplines.“ The current issue „Roboethics“ includes the articles „Towards animal-friendly machines“ by Oliver Bendel, „Liability for autonomous and artificially intelligent robots“ by Woodrow Barfield, „Corporantia: Is moral consciousness above individual brains/robots?“ by Christopher Charles Santos-Lang, „The soldier’s tolerance for autonomous systems“ by Jai Galliott and „GenEth: a general ethical dilemma analyzer“ by Michael Anderson and Susan Leigh Anderson. The following articles will be published in December 2019: „Autonomy in surgical robots and its meaningful human control“ by Fanny Ficuciello, Guglielmo Tamburrini, Alberto Arezzo, Luigi Villani, and Bruno Siciliano, and „AI for the Common Good?! Pitfalls, challenges, and Ethics Pen-Testing“ by Bettina Berendt. More information via www.degruyter.com.
Fig.: Machines can be friendly to beetles
Chinesische Nachrichten
Wie verschiedene Medien melden, hat die chinesische Nachrichtenagentur Xinhua ein System vorgestellt, das im Fernsehen Nachrichten verlesen kann. Die verfügbaren Avatare sind realen Sprechern nachgebildet, nämlich Qiu Hao und Zhang Zhao. Die digitale Kopie von Qiu spricht chinesisch, die von Zhang englisch. „Das System nutzt Künstliche Intelligenz (KI) und maschinelles Lernen, um die Stimme, Lippenbewegungen, Mimik und Gestik der Vorbilder möglichst realistisch zu imitieren. Dadurch solle ein möglichst lebensnahes Abbild entstehen und kein kalter Roboter, erklärte Xinhua. Das System ist zudem lernfähig. Das bedeutet, die Avatare lernen von Videos menschlicher Sprecher und werden dadurch mit der Zeit besser.“ (Golem, 9. November 2018) Im Moment klingt die Stimme von Zhang erstaunlich künstlich. Die Stimmen üblicher Text-to-Speech-Engines erreichen eine bessere Qualität. Mit Hilfe von SSML kann man sie noch menschenähnlicher gestalten. Virtuelle Nachrichtensprecher sind insgesamt ein alter Hut. Ananova, eine virtuelle Nachrichtensprecherin, hatte vor 20 Jahren eine gewisse Popularität erlangt. Sie wechselte 2000 für eine Ablösesumme von 95 Millionen Pfund zum Telefonanbieter Orange.
Abb.: Ein chinesischer Avatar?
„Pflegeroboter“ bei Springer erschienen
Das Buch „Pflegeroboter“, herausgegeben von Oliver Bendel, ist im November 2018 bei Springer Gabler erschienen, herunterladbar bei SpringerLink (bis Ende des Jahres folgt die Printausgabe). Es bündelt technische, wirtschaftliche, medizinische und ethische Reflexionen über Pflegeroboter. Autorinnen und Autoren sind (in alphabetischer Reihenfolge) Elisabeth André, Heidrun Becker, Oliver Bendel, Hans Buxbaum, Sabine Daxberger, Nicola Döring, Michael Früh, Alina Gasser, Christoph Gisinger, Klaus Hauer, Manfred Hülsken-Giesler, Kathrin Janowski, Christoph Kehl, Jeanne Kreis, Birgit Lugrin, Katja Mombaur, Hartmut Remmers, Hannes Ritschel, Daniel Schilberg, Sumona Sen und Bernd Carsten Stahl. Manche Autoren gehen Fragen aus Wirtschafts-, Medizin- und Informationsethik nach: Wer trägt die Verantwortung bei einer fehlerhaften Betreuung und Versorgung durch die Maschine? Inwieweit kann diese die persönliche und informationelle Autonomie des Patienten unterstützen oder gefährden? Ist der Roboter eine Entlastung oder ein Konkurrent für Pflegekräfte? Weitere Informationen über www.springer.com/de/book/9783658226978. Zur Verfügung steht auch ein Flyer.
Proceedings of Robophilosophy 2018
In November 2018 the „Proceedings of Robophilosophy 2018“ with the title „Envisioning robots in society – power, politics, and public space“ were published. Editors are Mark Coeckelbergh, Janina Loh, Michael Funk, Johanna Seibt, and Marco Nørskov. In addition to the contributions of the participants, the book also contains abstracts and extended abstracts of the keynotes by Simon Penny, Raja Chatila, Hiroshi Ishiguro, Guy Standing, Catelijne Muller, Juha Heikkilä, Joanna Bryson, and Oliver Bendel (his article about service robots from the perspective of ethics is available here). Robophilosophy is the most important international conference for robophilosophy and roboethics. In February 2018 it took place at the University of Vienna. Machine ethics was also an issue this time. „Robots are predicted to play a role in many aspects of our lives in the future, affecting work, personal relationships, education, business, law, medicine and the arts. As they become increasingly intelligent, autonomous, and communicative, they will be able to function in ever more complex physical and social surroundings, transforming the practices, organizations, and societies in which they are embedded.“ (IOS Press) More information via www.ios.com.
Fig.: Robophilosophy in Vienna
Therapie und Robotik
„Therapieroboter unterstützen therapeutische Maßnahmen oder wenden selbst, häufig als autonome Maschinen, solche an. Sie sind mit ihrem Aussehen und in ihrer Körperlichkeit wie traditionelle Therapiegeräte präsent, machen aber darüber hinaus selbst Übungen mit Gelähmten, unterhalten Betagte und fordern Demente und Autisten mit Fragen und Spielen heraus. Manche verfügen über mimische, gestische und sprachliche Fähigkeiten und sind in einem bestimmten Umfang denk- und lernfähig (wenn man diese Begriffe auf Computersysteme anwenden will).“ Mit diesen Worten beginnt der Beitrag „Therapieroboter“ von Oliver Bendel für das Wirtschaftslexikon von Springer Gabler, erschienen im November 2018. Auch die Perspektive der Ethik wird eingenommen: „Der Frage der Verantwortung widmen sich Informationsethik und Medizinethik sowie Roboterethik. Der Hersteller (respektive der Entwickler) muss, zusammen mit dem Heim oder der Anstalt bzw. einer sonstigen Einrichtung, die Verantwortung tragen und die Haftung übernehmen. Allerdings kann er sich darauf berufen, dass die Effekte insgesamt positiv sein mögen, und darauf beharren, dass Einzelfälle mit negativen Implikationen in Kauf zu nehmen und zu verkraften seien.“ Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/therapieroboter-100563 abgerufen werden.
Abb.: Massagetherapie