Das Moralmenü (MOME)

Die Maschinenethik bringt moralische und unmoralische Maschinen hervor. Die maschinelle Moral ist in der Regel festgelegt; es sind bestimmte Aktionen möglich, andere nicht. Ein alternativer Ansatz ist das Moralmenü. Über dieses überträgt der Besitzer oder Benutzer seine eigene Moral auf die Maschine. Diese agiert und reagiert so, wie er dies auch tun würde. Die Vorteile und Nachteile werden in dem Beitrag „Das Moralmenü: Moralische Maschinen mit einer Stellvertretermoral“ von Oliver Bendel diskutiert, veröffentlicht am 27. Januar 2019 in Telepolis. Telepolis, gegründet 1996, widmet sich seit Jahren immer wieder Roboterethik und Maschinenethik. Bei Heise Medien ist 2016 auch „Die Moral in der Maschine: Beiträge zu Roboter- und Maschinenethik“ von Oliver Bendel erschienen. Der Beitrag kann über www.heise.de/tp/features/Das-Moralmenue-4285297.html abgerufen werden.

Abb.: Soll der Saugroboter mit den Katzen spielen?

Politik informiert sich über Pflegeroboter

Im Deutschen Bundestag widmet man sich am 20. Februar 2019 den Chancen und Risiken von Pflegerobotern. Robotikerin Dr. Birgit Graf spricht über „Potenziale und Grenzen der Robotik für die Pflege – Stand der Technik und Anwendung, Herausforderungen für Forschung und Entwicklung“, Pflegewissenschaftler Prof. Dr. Manfred Hülsken-Giesler nimmt eine „Einordnung und Bewertung aus Sicht der Pflegewissenschaft“ vor. „Ethisch-normative Herausforderungen der Pflegerobotik“ ist der Titel des Vortrags von Prof. Dr. Oliver Bendel, Informations- und Maschinenethiker. Daneben gibt es Kommentare aus der Perspektive der Technikfolgenabschätzung (Dr. Bettina-Johanna Krings, KIT/ITAS), der Forschungsförderung (Christine Weiß, VDI/VDE-IT), der Pflegeträger (Alexander Huhn, Caritas-Zentrum Garmisch-Partenkirchen) und der Pflegekräfte (Peter Tackenberg, Deutscher Berufsverband für Pflegeberufe (DBfK)). Die Einführung wird Dr. Christoph Kehl vom Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) halten. Das Programm kann hier heruntergeladen werden.

Abb.: Das Brandenburger Tor

Der rote Kaugummiautomat deutscher Dörfer

„Automaten gibt es seit tausenden Jahren, von den dampfbetriebenen Altären der Antike über die Androiden im Spätbarock (Musikerin, Schreiber und Zeichner) bis hin zu modernen Maschinen.“ So beginnt ein Beitrag von Oliver Bendel für das Gabler Wirtschaftslexikon. Es werden mehrere Beispiele gegeben: „Automaten verrichten selbstständig eine bestimmte Tätigkeit, etwa das Zubereiten und Ausgeben von Kaffee (Kaffeeautomat), das Auswerfen von Zigaretten (Zigarettenautomat) oder das Anzeigen der Zeit (Uhr). Manche sind rein mechanisch, wie der rote Kaugummiautomat deutscher Dörfer und Städte, andere elektronisch und vernetzt.“ Und Abgrenzungen – wie zu Robotern – vorgenommen. Am Ende kommt die Ethik zu Wort: „Wirtschafts-, Technik- und Informationsethik widmen sich den Herausforderungen, die sich durch Automaten und Automation ergeben, sei es in Bezug auf die Ersetzung von Mitarbeitenden, sei es in Bezug auf die Möglichkeit der Gefährdung, Verletzung und Überwachung. Die genannten Bereichsethiken betrachten ebenso den Beitrag von Automaten und Automation zu einem guten Leben, nicht zuletzt vor dem Hintergrund, dass Arbeit idealisiert und ideologisiert wird.“ Der Beitrag ist im Januar 2019 erschienen und kann über wirtschaftslexikon.gabler.de/definition/automat-119939 aufgerufen werden.

Abb.: Ein roter Kaugummiautomat

Podcast zur Maschinenethik

In seinem Vortrag „Die Entdeckung der Philosophie – ethische Dimensionen der Robotik“ am 9. Januar 2019 im Haus Huth am Potsdamer Platz in Berlin erklärte Prof. Dr. Oliver Bendel, wie man Roboterautos, Serviceroboter und Chatbots zu moralischen oder zu unmoralischen Maschinen machen kann. Der Vortrag fand vor vollbesetztem Haus statt und rief lebhafte Diskussionen hervor. Bei der Daimler und Benz Stiftung, die die Reihe verantwortet, ist nun ein Podcast zum Vortrag erschienen. Er kann hier abgerufen werden. Zur Vortragsreihe heißt es auf der Website: „Am Potsdamer Platz in Berlin lädt die Daimler und Benz Stiftung regelmäßig zur akademischen Debatte, die die rhetorische Form pflegt. So ist das inhaltliche Portfolio dieser offenen Veranstaltungsreihe im historischen Haus Huth weit gefächert: In Plädoyers, Lamenti, Antithesen oder anderen Formaten vertreten Wissenschaftler engagiert ihren Standpunkt und begründen ihn mit den Erkenntnissen ihrer Forschung.“ (Website Daimler und Benz Stiftung)

Über moralische und unmoralische Maschinen

„Moralische Maschinen sind mehr oder weniger autonome Systeme, die über moralische Fähigkeiten verfügen. Entwickelt werden sie von der Maschinenethik, einer Gestaltungsdisziplin im spezifischen Sinne. ‚Maschinelle Moral‘ ist ein Terminus technicus wie ‚künstliche Intelligenz‘. Man spielt auf ein Setting an, das Menschen haben, und man will Komponenten davon imitieren bzw. simulieren. So kann man etwa moralische Regeln adaptieren. Moralische und unmoralische Maschinen sind nicht gut oder böse, sie haben keinen freien Willen und kein Bewusstsein, keine Intuition und keine Empathie.“ So beginnt ein neuer Beitrag von Oliver Bendel im Gabler Wirtschaftslexikon. Es werden mehrere Beispiele für moralische Maschinen genannt, etwa spezifische Pflegeroboter und spezifische Chatbots. Am Ende heißt es: „Gerade bei komplexen moralischen Maschinen, die über Leben und Tod befinden sollen, ist Vorsicht angezeigt. Das autonome Auto könnte Menschen quantifizieren und qualifizieren, aber es gibt gute Gründe gegen den Versuch, ihm dies beizubringen.“ Der Beitrag ist Ende Januar 2019 erschienen und kann über wirtschaftslexikon.gabler.de/definition/moralische-maschinen-119940 aufgerufen werden.

Abb.: Autos sollten nicht über Leben und Tod von Menschen entscheiden

Robots and Rights

Robots have no rights from a philosophical and ethical point of view and cannot currently get any rights. You only have such rights if you can feel or suffer, if you have a consciousness or a will to live. Accordingly, animals can have certain rights, stones cannot. Only human beings have human rights. Certain animals can be granted basic rights, such as chimpanzees or gorillas. But to grant these animals human rights makes no sense. They are not human beings. If one day robots can feel or suffer, if they have a consciousness or a will to live, they must be granted rights. However, Oliver Bendel does not see any way to get there at the moment. According to him, one could at best develop „reverse cyborgs“, i.e. let brain and nerve cells grow on technical structures (or in a robot). Such reverse or inverted cyborgs might at some point feel something. The newspaper Daily Star dealt with this topic on 28 December 2018. The article can be accessed via www.dailystar.co.uk/news/latest-news/748890/robots-ai-human-rights-legal-status-eu-proposal.

Fig.: A human brain could be part of a reverse cyborg

Ein Chatbot mit Gesichtserkennung

Der BESTBOT ist eine unmoralische Maschine in einer moralischen. Er ähnelt einer Matrjoschka, der Holzpuppe, in der weitere Holzpuppen stecken. Dies betonte Oliver Bendel in einem Gespräch mit dem Tages-Anzeiger. In die offene Welt würde er den Chatbot deshalb nicht entlassen. Dieser bleibt im Labor der Maschinenethik. Der BESTBOT wurde 2018 an der Hochschule für Wirtschaft FHNW entwickelt. Bereits im März 2018 stellte der Informations- und Maschinenethiker im Rahmen der AAAI Spring Symposia sein Paper „From GOODBOT to BESTBOT“ vor, das die Grundlage für das Projekt legte. David Studer programmierte den Chatbot in Java. Der BESTBOT ist ein vernetztes System, das Suchmaschinen und Lexika benutzt. Er analysiert die Texteingaben des Benutzers mit textbasierter Emotionserkennungssoftware. Zugleich wird Gesichtserkennung eingesetzt, wiederum mit Emotionserkennung. Wenn der Benutzer zum Beispiel angibt, dass es ihm gut geht, sein Gesicht aber anderes verrät, spricht der Chatbot diesen Widerspruch an. Dieser erkennt sowohl kleine als auch große Sorgen. Dies ist ohne Zweifel von hohem Nutzen, gerade wenn der Benutzer sich etwas antun will. Zugleich kann Gesichtserkennung, vor allem im Zusammenhang mit Emotionserkennung, hochproblematisch sein. Oliver Bendel rät davon ab, solche Systeme bei der automatisierten Kommunikation und im öffentlichen Raum einzusetzen. Der ganzseitige Artikel im Tages-Anzeiger zum BESTBOT ist am 12. Dezember 2018 erschienen und kann hier heruntergeladen werden.

Abb.: Was erkennt der Chatbot im Gesicht?

Zu Grundeinkommen und -eigentum

Die Studien zur Arbeitsmarktentwicklung ab 2020 gelangen zu unterschiedlichen Ergebnissen. Man kann aber auf jeden Fall sagen, dass bestimmte Arbeitsplätze wegfallen und viele Menschen ohne ihre vertraute Arbeit sein werden. Es ist auch anzunehmen, dass insgesamt weniger menschliche Arbeit im Auftrag (etwa für Arbeitgeber) verrichtet werden muss. Als Lösungen der wirtschaftlichen und sozialen Probleme werden oft bedingungsloses Grundeinkommen und Robotersteuer genannt. Der Beitrag „Are Robot Tax, Basic Income or Basic Property Solutions to the Social Problems of Automation?“ von Oliver Bendel diskutiert und kritisiert diese Ansätze im Kontext von Automatisierung und Digitalisierung. Zudem entwickelt er einen weitgehend unbekannten Vorschlag, das bedingungslose Grundeigentum, weiter und stellt dessen Potenziale ebenso dar wie dessen Risiken. Der Informations- und Maschinenethiker aus Zürich präsentiert seine Ergebnisse zwischen dem 25. und 27. März 2019 bei den AAAI Spring Symposia. Es ist sein sechster Vortrag an der Stanford University innerhalb von vier Jahren.

Abb.: Klein, aber mein

Moralische Maschinen mit maschinellem Lernen

Michael und Susan Leigh Anderson stellen beim Berliner Kolloquium 2019 ihre neuesten Ergebnisse aus der Disziplin der Maschinenethik vor. Üblicherweise werden sogenannten moralischen Maschinen starre Regeln gegeben, an die sie sich sozusagen sklavisch halten. Dies hat einige Vorteile, aber auch ein paar Nachteile, denen man mit Hilfe von maschinellem Lernen entgegentreten kann. Genau diesen Ansatz haben die Andersons zusammen mit einem Forscher vom Max-Planck-Institut für Intelligente Systeme verfolgt, wobei die Altenpflege als Kontext diente: „Contrary to those who regard such a goal as unattainable, Michael and Susan Leigh Anderson … and Vincent Berenz … have succeeded in programming a SoftBank Nao robot with a set of values that determines its behavior while aiding a person in a simulated eldercare environment. This unprecedented accomplishment uses machine learning to enable the robot to discern how each of its actions would satisfy or violate its ethical duties in the current situation and decide the best action to take.“ (Machine Ethics) Die Ergebnisse werden 2019 in den Proceedings of the IEEE publiziert. Der wissenschaftliche Leiter des 23. Berliner Kolloquiums zu Pflegerobotern ist Oliver Bendel. Die Anmeldung erfolgt über die Website der Daimler und Benz Stiftung.

Abb.: Ein Nao-Roboter (Foto: SoftBank/Philippe Dureuil, CC-BY-SA-4.0)

Proceedings of Robophilosophy 2018

In November 2018 the „Proceedings of Robophilosophy 2018“ with the title „Envisioning robots in society – power, politics, and public space“ were published. Editors are Mark Coeckelbergh, Janina Loh, Michael Funk, Johanna Seibt, and Marco Nørskov. In addition to the contributions of the participants, the book also contains abstracts and extended abstracts of the keynotes by Simon Penny, Raja Chatila, Hiroshi Ishiguro, Guy Standing, Catelijne Muller, Juha Heikkilä, Joanna Bryson, and Oliver Bendel (his article about service robots from the perspective of ethics is available here). Robophilosophy is the most important international conference for robophilosophy and roboethics. In February 2018 it took place at the University of Vienna. Machine ethics was also an issue this time. „Robots are predicted to play a role in many aspects of our lives in the future, affecting work, personal relationships, education, business, law, medicine and the arts. As they become increasingly intelligent, autonomous, and communicative, they will be able to function in ever more complex physical and social surroundings, transforming the practices, organizations, and societies in which they are embedded.“ (IOS Press) More information via www.ios.com.

Fig.: Robophilosophy in Vienna

Therapie und Robotik

„Therapieroboter unterstützen therapeutische Maßnahmen oder wenden selbst, häufig als autonome Maschinen, solche an. Sie sind mit ihrem Aussehen und in ihrer Körperlichkeit wie traditionelle Therapiegeräte präsent, machen aber darüber hinaus selbst Übungen mit Gelähmten, unterhalten Betagte und fordern Demente und Autisten mit Fragen und Spielen heraus. Manche verfügen über mimische, gestische und sprachliche Fähigkeiten und sind in einem bestimmten Umfang denk- und lernfähig (wenn man diese Begriffe auf Computersysteme anwenden will).“ Mit diesen Worten beginnt der Beitrag „Therapieroboter“ von Oliver Bendel für das Wirtschaftslexikon von Springer Gabler, erschienen im November 2018. Auch die Perspektive der Ethik wird eingenommen: „Der Frage der Verantwortung widmen sich Informationsethik und Medizinethik sowie Roboterethik. Der Hersteller (respektive der Entwickler) muss, zusammen mit dem Heim oder der Anstalt bzw. einer sonstigen Einrichtung, die Verantwortung tragen und die Haftung übernehmen. Allerdings kann er sich darauf berufen, dass die Effekte insgesamt positiv sein mögen, und darauf beharren, dass Einzelfälle mit negativen Implikationen in Kauf zu nehmen und zu verkraften seien.“ Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/therapieroboter-100563 abgerufen werden.

Abb.: Massagetherapie

The Effects of Voices

The University of Potsdam dedicates its current research to voices. The scientists – among them Dr. Yuefang Zhou and Katharina Kühne – are studying the first impression during communication. The survey website says: „The current study will last approximately 20 minutes. You will be asked some questions about the voice you hear. Please answer them honestly and spontaneously. There are no right or wrong answers; we are interested in your subjective perception. Just choose one out of the suggested alternatives.“ Prof. Dr. Oliver Bendel, FHNW School of Business, produced three samples and donated them to the project. „Your responses will be treated confidentially and your anonymity will be ensured. Your responses cannot be identified and related to you as an individual, if you choose to leave your e-mail address at the end of the study this cannot be linked back to your responses. All responses will be compiled together and analysed as a group.“ The questionnaire can be accessed via www.soscisurvey.de/impress/ (Link nicht mehr gültig).

Fig.: The effects of voices

Über Liebespuppen in der Schweiz

Unter der Überschrift “Die Maschine als Gespielin” berichtete die SonntagsZeitung am 21. Oktober 2018 über den zunehmenden Gebrauch von Liebespuppen und die Weiterentwicklung von Sexrobotern. Ein ähnlicher Artikel war bereits am 29. September des Jahres in der Süddeutschen Zeitung erschienen. Oliver Bendel und Christian Weber hatten sich im Münchner Excelsior am Hauptbahnhof getroffen und waren von dort in Gedanken nach Dortmund gereist, wo sich das Bordoll befindet, und nach Barcelona und Moskau. Auch in der Schweiz, erzählte der Informations- und Maschinenethiker aus Zürich, legt sich das eine oder andere Etablissement eine Liebespuppe zu. Beispiele sind das Studio Elite in Luzern, die OltenGirls in Olten und der Lust-Tempel in Wohlen. Die Bereitstellung und Nutzung von Liebespuppen muss nach seiner Meinung erforscht werden, wie auch die Frage, ob man sie in Pflege und Therapie einsetzen kann. Der Beitrag in der SonntagsZeitung kann hier heruntergeladen werden.

Abb.: Auch in der Schweiz verbreiten sich Liebespuppen

Die Liebe zu Elfen

Unter der Überschrift „AI love you“ berichtete die Süddeutsche Zeitung am 29. September 2018 über den zunehmenden Gebrauch von Liebespuppen und die Weiterentwicklung von Sexrobotern. Vorausgegangen war ein einstündiges Interview mit Oliver Bendel, der als Informations- und Maschinenethiker dieses Phänomen erforscht. Der Journalist und er trafen sich im Münchner Excelsior am Hauptbahnhof und reisten von dort in Gedanken nach Dortmund, wo sich das Bordoll befindet, und nach Barcelona und Moskau. Auch in der Schweiz, erzählte der Ethiker, legt sich das eine oder andere Etablissement eine Liebespuppe zu. So weit wie das Bordoll, wo es keine Menschen mehr gibt, die Besitzerin und die Kunden ausgenommen, treibt es aber noch niemand. Im Bordoll interessieren sich die meist jungen Männer auch für Fantasyfiguren, für Elfen und Manga- und Animemädchen. So etwas muss erforscht werden, wie auch die Frage, ob man Liebespuppen in Pflege und Therapie einsetzen kann. Dieser Frage widmet sich wiederum ein aktueller Beitrag von Oliver Bendel in der IT for Health. Der Beitrag in der Süddeutschen kann hier kostenpflichtig abgerufen werden.

Abb.: Die Liebe zu Elfen

Der fröhliche Roboter

„Können Roboter fröhlich sein?“ So lautet der Titel eines Beitrags im neuen Aufbruch, der im Herbst 2018 erschienen ist. Das Google-Magazin ist seit wenigen Jahren auf dem Markt und wird von einer Agentur der Süddeutschen Zeitung produziert. „Künstliche Intelligenz“ ist der Titel der aktuellen Ausgabe, die u.a. dem Spiegel beiliegt. Die Antwort auf die genannte und die eine oder andere Frage gibt der Informations- und Maschinenethiker Oliver Bendel. Er ist der Meinung, dass Roboter bzw. KI-Systeme keine Gefühle haben und haben können. Der Forschung dazu will er sich dennoch nicht verschließen. So plant er, das Symposium „Towards Conscious AI Systems“ im Rahmen der AAAI 2019 Spring Symposium Series an der Stanford University zu besuchen. Wer oder was Bewusstsein hat, kann Gefühle entwickeln, so könnte man postulieren. Ein fröhlicher Roboter könnte ein Gewinn sein, ein trauriger ein Problem. Selbst wenn solche Maschinen nie erschaffen werden können – wir werden im Rahmen der Forschung viel über die Gefühle von Menschen erfahren. Das Interview kann hier heruntergeladen werden.

Abb.: Ein fröhlicher Mensch

Roboter gegen den Pflegenotstand?

Am 10. September 2018 wurde die Sendung „Pflege – Was kann sie leisten, was muss sich ändern?“ in Bayern 2 ausgestrahlt. Zu Wort kommt Oliver Bendel, Informations- und Maschinenethiker aus Zürich. Er beschäftigt sich seit mehreren Jahren mit Robotern in der Pflege. Er ist nicht der Meinung, dass diese den Pflegenotstand beheben können. Dafür braucht es andere Maßnahmen. Sie können aber die Pflegekraft unterstützen. Oliver Bendel hält es für wichtig, diese Perspektive einzunehmen und nicht ausschließlich auf den Patienten zu schauen. Natürlich ist dieser ebenso wichtig, und er ist sozusagen der Ausgangspunkt aller einschlägigen Strukturen und Prozesse. Für ihn bedeuten Pflegeroboter sowohl Vor- als auch Nachteile. Einerseits stärken sie seine persönliche Autonomie, machen ihn unabhängiger und beweglicher. Andererseits schwächen sie seine informationelle Autonomie. Manche der Roboter, die sich in Pflegeheimen und Krankenhäusern finden, verfügen über Kameras und Mikrofone und damit zusammenhängend über Gesichts- und Stimmerkennung. Das ist ebenso nützlich wie gefährlich. Der Podcast kann hier angehört werden (Link nicht mehr gültig).