Kategorie: Maschinenethik

The Morality Menu Project

„Once we place so-called ’social robots‘ into the social practices of our everyday lives and lifeworlds, we create complex, and possibly irreversible, interventions in the physical and semantic spaces of human culture and sociality. The long-term socio-cultural consequences of these interventions is currently impossible to gauge.“ (Website Robophilosophy Conference) With these words the next Robophilosophy conference was announced. It would have taken place in Aarhus, Denmark, from 18 to 21 August 2019, but due to the COVID 19 pandemic it is being conducted online. One lecture will be given by Oliver Bendel. The abstract of the paper „The Morality Menu Project“ states: „Machine ethics produces moral machines. The machine morality is usually fixed. Another approach is the morality menu (MOME). With this, owners or users transfer their own morality onto the machine, for example a social robot. The machine acts in the same way as they would act, in detail. A team at the School of Business FHNW implemented a MOME for the MOBO chatbot. In this article, the author introduces the idea of the MOME, presents the MOBO-MOME project and discusses advantages and disadvantages of such an approach. It turns out that a morality menu can be a valuable extension for certain moral machines.“ In 2018 Hiroshi Ishiguro, Guy Standing, Catelijne Muller, Joanna Bryson, and Oliver Bendel had been keynote speakers. In 2020, Catrin Misselhorn, Selma Sabanovic, and Shannon Vallor will be presenting. More information via conferences.au.dk/robo-philosophy/.

Fig.: The morality menu project

Bessere Menschen?

Im Sommer 2020 erscheint das Buch „Bessere Menschen?“ (Untertitel: „Technische und ethische Fragen in der transhumanistischen Zukunft“), mit Beiträgen u.a. von Karlheinz Steinmüller, Stefan Sorgner, Tanja Kubes, Melike Şahinol und Oliver Bendel. Aus der Verlagsinformation: „Das 21. turmdersinne-Symposium beschäftigte sich mit der laut Francis Fukuyama gefährlichsten Idee der Welt. Es wurden Chancen und Gefahren der technischen Erweiterbarkeit des Menschen diskutiert. Wie wird sich die Menschheit und der einzelne Mensch in Zukunft entwickeln – insbesondere angesichts der voranschreitenden Technologisierung unseres Alltags? Wie eng arbeiten wir zukünftig mit Robotern zusammen? Tritt der Mensch bald in einen Wettstreit mit intelligenten Maschinen? Und wie verändert sich die Natur des Menschen durch den Einsatz von Implantaten und durch gentechnische Verfahren – kann es sogar zu einer Verschmelzung von Mensch und Maschine kommen?“ (Information Springer) Herausgeber sind Michael Bauer und Laura Deinzer. Der Beitrag von Oliver Bendel trägt den Titel „Das Verschmelzen von menschlicher und maschineller Moral“. Weitere Informationen über www.springer.com/gp/book/9783662615690#aboutBook.

Abb.: Bessere Menschen?

Brave New World

Mathias Lindenau und Marcel Meier Kressig sind die Herausgeber des Buchs „Schöne neue Welt? Zwischen technischen Möglichkeiten und ethischen Herausforderungen“. Von der Website des Verlags: „Schon immer hat der Mensch die technischen Möglichkeiten zur Kompensation seiner lebensweltlichen Defizite genutzt. Zudem dienen sie ihm zur Optimierung seiner selbst und seiner Umwelt. Im Zuge dieses Strebens wird der Möglichkeitsraum menschlichen Handelns ins schier Unermessliche ausgeweitet. Doch ob aus der Möglichkeit des Könnens zwangsläufig immer auch ein Gebot des Sollens folgt, ist umstritten – gerade in der Zeit der digitalen Transformation. Die Beiträger*innen des Bandes befassen sich daher insbesondere mit dem Phänomen des Enhancement, ethischen Implikationen bei Servicerobotern, der Auswirkung von Künstlichkeit auf den Menschen sowie dem allgemeinen Diskurs um Digitalisierung.“ (Website transcript) Von Oliver Bendel, dem Informations- und Maschinenethiker aus Zürich, stammt der Beitrag „Serviceroboter aus Sicht der Ethik“. Dieser geht zurück auf seinen Vortrag bei den Vadian Lectures in St. Gallen, gehalten am 9. Mai 2019. Das Buch erscheint im Sommer 2020 und ist hier vorbestellbar.

Abb.: Schöne neue Welt?

Serviceroboter aus ethischer Sicht

Der Vortrag „Serviceroboter aus der Perspektive der Ethik“ von Prof. Dr. Oliver Bendel am 12. März 2020 an der ZHAW in Wädenswil war der erste Vortrag im Forum des Frühjahrssemesters – und wegen COVID-19 wohl auch der letzte. Roboter waren lange Zeit besondere Maschinen, die in Käfigen in Fabriken eingesperrt und als Werkzeuge für bestimmte Aufgaben verwendet wurden, sei es zur Bombenentschärfung oder zur Umfelderkundung, auf der Erde wie auf dem Mond. Nur wenige Menschen bekamen sie zu Gesicht. Seit der Jahrtausendwende ändert sich das drastisch. Zuerst waren es Saug-, Mäh- und Poolroboter, die uns unterstützt und an die wir uns gewöhnt haben. Sie helfen uns im Haushalt und im Außenbereich, sozusagen in „geschlossenen“ und „halboffenen“ Welten. Inzwischen sind immer mehr Serviceroboter in „offenen“ Welten anzutreffen. Sie sind an Orten unterwegs, die wir uns teilen bzw. die öffentlich sind. Dabei stellen sich – vor allem, aber nicht nur bei sozialen Robotern – diverse Herausforderungen. Diese thematisierte der Vortrag, in moralischer und sozialer Hinsicht, und er schlug Lösungen u.a. auf ethischer, technischer und organisationaler Ebene vor. Das Video des Vortrags kann hier aufgerufen werden.

Abb.: Service ist anstrengend

Die Freiheit des menschlichen Cyborgs

„Die Veränderung ist die Freiheit des menschlichen Cyborgs. Sein Körper gehört ihm. Allerdings könnte man ihm vorhalten, dass er zum Vorbild wird, selbst für diejenigen, die nicht mit dem Transhumanismus sympathisieren, der Ideologie des neuen Menschen, und für die das Stechen der Ohrlöcher oder das Setzen eines Piercings der bisher schwerste Eingriff war. Nun gehört zur Freiheit ebenso, gegen die allgemeine Vernunft und das eigene Wohl zu handeln. Problematisch wird es bei Kindern, die die Folgen nicht einschätzen können.“ So heißt es in einem Beitrag von Oliver Bendel für Bosch-Zünder, die legendäre Mitarbeiterzeitschrift, die es seit 1919 gibt. Erschienen ist er im März 2020 in zehn Sprachen, in deutscher, aber auch in englischer, chinesischer und japanischer. In einem Buchbeitrag, der noch 2020 publiziert wird, geht der Wirtschaftsinformatiker und Ethiker noch einen Schritt weiter und stellt die Verbindung zwischen Biohacking und Maschinenethik her. „Das Verschmelzen von menschlicher und maschineller Moral“ ist Teil des Buchs „Bessere Menschen? Technische und ethische Fragen in der transhumanistischen Zukunft“ (Springer, Berlin 2020).

Abb.: Die Freiheit des menschlichen Cyborgs

AI, ME und MC

Immer wieder hört man, oft von Theologen, manchmal von Philosophen, dass Maschinen nicht autonom seien, nicht intelligent, nicht moralisch etc. Sie übertragen den Begriff, den sie aus ihrem Bereich kennen, auf technische Wissenschaften wie Informatik, Künstliche Intelligenz (KI) und Maschinenethik (die technisch geprägt ist und eng mit KI und Robotik zusammenarbeitet). Sie anerkennen nicht, dass jede Disziplin ihre eigenen Begriffe haben kann (und in der Regel hat). Bei einer Tagung im Jahre 2015 beschimpfte Bundestagspräsident Prof. Dr. Norbert Lammert, ein zutiefst religiöser Mann, die Referenten mit den Worten, Maschinen seien nicht autonom, sie hätten sich nämlich nicht selbst ein Gesetz gegeben. Nun sprechen Informatik und Robotik aber nun einmal von autonomen Systemen und Maschinen, und selbstverständlich dürfen sie das, wenn sie darlegen, wie sie das meinen. Eine solche Begriffsklärung und -aneignung steht sogar am Anfang jeder wissenschaftlichen Betätigung, und dass die Begriffe gleich lauten wie die anderer Bereiche, heißt keineswegs, dass sie dasselbe bedeuten und bedeuten müssen. Eine neue Grafik von Prof. Dr. Oliver Bendel, die auf früheren Entwürfen aufbaut, stellt dar, was der Gegenstandsbereich der Disziplinen oder Arbeitsbereiche der KI, der Maschinenethik und des Maschinellen Bewusstseins ist, und macht für sie terminologische Vorschläge. Im Kern geht es diesen darum, etwas in bestimmten Aspekten ab- oder nachzubilden bzw. zu simulieren. So schafft es die Künstliche Intelligenz eben, künstliche Intelligenz hervorzubringen, etwa Dialogsysteme oder Maschinen, die bestimmte Probleme lösen. Ob diese „wirklich“ intelligent sind oder nicht, ist keine sinnvolle Frage, und der Terminus technicus benutzt nicht umsonst das Adjektiv „künstlich“ – hier wäre noch einfacher als im Falle von „autonom“ zu verstehen, dass es sich um eine „neue“ (immerhin seit über 50 Jahren erklärte) Bedeutung handelt.

Abb.: AI, ME und MC

Schwarzer Schwan

Bereits im Buch „300 Keywords Informationsethik“ (2016) von Oliver Bendel und dann im Nachfolgewerk „400 Keywords Informationsethik“ (2019) war erklärt worden, was schwarze Schwäne sind. Dabei war auch ein Bezug zur Maschinenethik und zu Technik- und Informationsethik hergestellt worden: „Moralische Maschinen können als schwarze Schwäne angesehen werden. Tauchten sie lange Zeit nur in Science-Fictions auf und hielten die meisten Menschen ihre Umsetzung für unmöglich, werden sie nun von der Maschinenethik konzipiert und implementiert. Technik- und Informationsethik berücksichtigen schwarze Schwäne in Technikgeschichte und Informationsgesellschaft.“ Eine grundlegende und ausführliche Definition des gleichen Autors findet sich nun im Gabler Wirtschaftslexikon. Der Begriff geht bekanntlich auf Publikationen von Nassim Nicholas Taleb zurück, nämlich auf „Fooled By Randomness“ (2001) und „The Black Swan“ (2007), das Bild auf Juvenal, der in den Satiren VI eine treue Ehefrau mit dem schwarzen Schwan vergleicht, der in der Antike in Europa unbekannt war. Aber was man mit ihm heute verbindet und ob COVID-19 damit zu tun hat, kann über wirtschaftslexikon.gabler.de/definition/covid-19-122147 nachgelesen werden.

Abb.: Ein schwarzer Schwan

Lost in Space

Space travel includes travel and transport to, through and from space for civil or military purposes. The take-off on earth is usually done with a launch vehicle. The spaceship, like the lander, is manned or unmanned. The target can be the orbit of a celestial body, a satellite, planet or comet. Man has been to the moon several times, now man wants to go to Mars. The astronaut will not greet the robots that are already there as if he or she had been lonely for months. For on the spaceship he or she had been in the best of company. SPACE THEA spoke to him or her every day. When she noticed that he or she had problems, she changed her tone of voice, the voice became softer and happier, and what she said gave the astronaut hope again. How SPACE THEA really sounds and what she should say is the subject of a research project that will start in spring 2020 at the School of Business FHNW. Under the supervision of Prof. Dr. Oliver Bendel, a student is developing a voicebot that shows empathy towards an astronaut. The scenario is a proposal that can also be rejected. Maybe in these times it is more important to have a virtual assistant for crises and catastrophes in case one is in isolation or quarantine. However, the project in the fields of social robotics and machine ethics is entitled THE EMPATHIC ASSISTANT IN SPACE (SPACE THEA). The results – including the prototype – will be available by the end of 2020.

Fig.: A spaceship

Die Entwicklung einer MOML

Es existieren mehrere Markup Languages. Die bekannteste ist sicherlich die Hypertext Markup Language (HTML). Im Bereich der KI hat sich AIML etabliert. Für synthetische Stimmen wird SSML eingesetzt. Die Frage ist, ob damit die Möglichkeiten mit Blick auf autonome Systeme ausgeschöpft sind. In dem Beitrag „Das Moralmenü: Moralische Maschinen mit einer Stellvertretermoral“ von Prof. Dr. Oliver Bendel wurde zum ersten Mal eine Morality Markup Language (MOML) vorgeschlagen. Eine Studienarbeit unter der Betreuung des Informations- und Maschinenethikers hat 2019 untersucht, welche Möglichkeiten bestehende Sprachen hinsichtlich moralischer Aspekte haben und ob eine MOML gerechtfertigt ist. Die Ergebnisse wurden im Januar 2020 vorgestellt. Eine Bachelorarbeit an der Hochschule für Wirtschaft FHNW geht ab Ende März 2020 einen Schritt weiter. In ihr sollen Grundzüge einer Morality Markup Language erarbeitet werden. Es sollen die Grundstruktur und spezifische Befehle vorgeschlagen und beschrieben werden. Es sind die Anwendungsbereiche, Vorteile und Nachteile einer solchen Markierungssprache darzustellen. Auftraggeber der Arbeit ist Prof. Dr. Oliver Bendel, Betreuerin Dr. Elzbieta Pustulka.

Abb.: Die Entwicklung einer MOML

Hugged by a Robot

The first phase of the HUGGIE project will start at the School of Business FHNW in March 2020. Oliver Bendel was able to recruit two students from the International Management program. The project idea is to create a social robot that contributes directly to a good life and economic success by touching and hugging people and especially customers. HUGGIE should be able to warm up in some places, and it should be possible to change the materials it is covered with. A research question will be: What are the possibilities besides warmth and softness? Are optical stimuli (also on displays), vibrations, noises, voices etc. important for a successful hug? HUGGIE could also play a role in crises and disasters, in epidemics and pandemics and in cases of permanent social distancing. Of course it would be bad if only a robot would hug us, and of course it would be good if humans could hug us every day if we wanted them to do so – but maybe in extreme situations a hug by a robot is better than nothing. The HUGGIE project is located in the heart of social robotics and on the periphery of machine ethics. By summer 2020, the students will conduct an online survey to find out the attitudes and expectations of the users.

Fig.: Hugged by a robot

Was sind und tun soziale Roboter?

„Soziale Roboter sind sensomotorische Maschinen, die für den Umgang mit Menschen oder Tieren geschaffen wurden. Sie können über fünf Dimensionen bestimmt werden, nämlich die Interaktion mit Lebewesen, die Kommunikation mit Lebewesen, die Nähe zu Lebewesen, die Abbildung von (Aspekten von) Lebewesen sowie – im Zentrum – den Nutzen für Lebewesen. Bei einem weiten Begriff können neben Hardwarerobotern auch Softwareroboter wie gewisse Chatbots, Voicebots (Sprachassistenten oder virtuelle Assistenten) und Social Bots dazu zählen. Die Disziplin, die soziale Roboter – ob als Spielzeugroboter, als Serviceroboter (Pflegeroboter, Therapieroboter, Sexroboter, Sicherheitsroboter etc.) oder als Industrieroboter in der Art von Kooperations- und Kollaborationsrobotern (Co-Robots bzw. Cobots) – erforscht und hervorbringt, ist die soziale Robotik.“ So beginnt ein Beitrag im Gabler Wirtschaftslexikon. Er knüpft an die Definition an, die der Verfasser 2014 am selben Ort zu sozialer Robotik geliefert hat. Besonders an ihm ist neben den Dimensionen, die für jeden einzelnen Typ beschrieben werden können, die Einbeziehung von Tieren, nicht nur auf der Seite des Roboters, der Lebewesen aller Art imitieren kann, sondern auch auf der Seite seines Gegenübers. Nach dieser Sichtweise können soziale Roboter nicht nur Menschen, sondern auch Tiere erfreuen und unterstützen, mit Hilfe von Gestaltungsformen und Verhaltensweisen, die als angemessen wahrgenommen und die verstanden werden. Weiter unten heißt es: „Wenn die Maschinen zu moralisch adäquaten Entscheidungen fähig sein sollen, ist die Maschinenethik gefragt.“ Der Artikel von Oliver Bendel ist am 10. März 2020 erschienen und kann über wirtschaftslexikon.gabler.de/definition/soziale-roboter-122268 aufgerufen werden.

Abb.: Ein berühmter sozialer Roboter

Towards SPACE THEA

Living, working, and sleeping in small spaces next to the same people for months or years would be stressful for even the fittest and toughest astronauts. Neel V. Patel underlines this fact in a current article for MIT Technology Review. If they are near Earth, they can talk to psychologists. But if they are far away, it will be difficult. Moreover, in the future there could be astronauts in space whose clients cannot afford human psychological support. „An AI assistant that’s able to intuit human emotion and respond with empathy could be exactly what’s needed, particularly on future missions to Mars and beyond. The idea is that it could anticipate the needs of the crew and intervene if their mental health seems at risk.“ (MIT Technology Review, 14 January 2020) NASA wants to develop such an assistant together with the Australian tech firm Akin. They could build on research by Prof. Dr. Oliver Bendel. Together with his teams, he has developed the GOODBOT in 2013 and the BESTBOT in 2018. Both can detect users’ problems and react adequately to these problems. The more recent chatbot even has face recognition in combination with emotion recognition. If it detects discrepancies with what the user has said or written, it will make this a subject of discussion. Oliver Bendel is currently examining the possibilities of a follow-up project. It could be called THE EMPATHIC ASSISTANT IN SPACE (SPACE THEA). SPACE THEA is a voicebot for space ships that reacts with empathy (compassion, concern, possibly even pity). It is certainly available before humans fly to Mars.

Fig.: Lost in space