Kategorie: Maschinenethik

Lost in Space

Space travel includes travel and transport to, through and from space for civil or military purposes. The take-off on earth is usually done with a launch vehicle. The spaceship, like the lander, is manned or unmanned. The target can be the orbit of a celestial body, a satellite, planet or comet. Man has been to the moon several times, now man wants to go to Mars. The astronaut will not greet the robots that are already there as if he or she had been lonely for months. For on the spaceship he or she had been in the best of company. SPACE THEA spoke to him or her every day. When she noticed that he or she had problems, she changed her tone of voice, the voice became softer and happier, and what she said gave the astronaut hope again. How SPACE THEA really sounds and what she should say is the subject of a research project that will start in spring 2020 at the School of Business FHNW. Under the supervision of Prof. Dr. Oliver Bendel, a student is developing a voicebot that shows empathy towards an astronaut. The scenario is a proposal that can also be rejected. Maybe in these times it is more important to have a virtual assistant for crises and catastrophes in case one is in isolation or quarantine. However, the project in the fields of social robotics and machine ethics is entitled „THE EMPHATIC ASSISTANT IN SPACE (SPACE THEA)“. The results – including the prototype – will be available by the end of 2020.

Fig.: A spaceship

Die Entwicklung einer MOML

Es existieren mehrere Markup Languages. Die bekannteste ist sicherlich die Hypertext Markup Language (HTML). Im Bereich der KI hat sich AIML etabliert. Für synthetische Stimmen wird SSML eingesetzt. Die Frage ist, ob damit die Möglichkeiten mit Blick auf autonome Systeme ausgeschöpft sind. In dem Beitrag „Das Moralmenü: Moralische Maschinen mit einer Stellvertretermoral“ von Prof. Dr. Oliver Bendel wurde zum ersten Mal eine Morality Markup Language (MOML) vorgeschlagen. Eine Studienarbeit unter der Betreuung des Informations- und Maschinenethikers hat 2019 untersucht, welche Möglichkeiten bestehende Sprachen hinsichtlich moralischer Aspekte haben und ob eine MOML gerechtfertigt ist. Die Ergebnisse wurden im Januar 2020 vorgestellt. Eine Bachelorarbeit an der Hochschule für Wirtschaft FHNW geht ab Ende März 2020 einen Schritt weiter. In ihr sollen Grundzüge einer Morality Markup Language erarbeitet werden. Es sollen die Grundstruktur und spezifische Befehle vorgeschlagen und beschrieben werden. Es sind die Anwendungsbereiche, Vorteile und Nachteile einer solchen Markierungssprache darzustellen. Auftraggeber der Arbeit ist Prof. Dr. Oliver Bendel, Betreuerin Dr. Elzbieta Pustulka.

Abb.: Die Entwicklung einer MOML

Hugged by a Robot

The first phase of the HUGGIE project will start at the School of Business FHNW in March 2020. Oliver Bendel was able to recruit two students from the International Management program. The project idea is to create a social robot that contributes directly to a good life and economic success by touching and hugging people and especially customers. HUGGIE should be able to warm up in some places, and it should be possible to change the materials it is covered with. A research question will be: What are the possibilities besides warmth and softness? Are optical stimuli (also on displays), vibrations, noises, voices etc. important for a successful hug? HUGGIE could also play a role in crises and disasters, in epidemics and pandemics and in cases of permanent social distancing. Of course it would be bad if only a robot would hug us, and of course it would be good if humans could hug us every day if we wanted them to do so – but maybe in extreme situations a hug by a robot is better than nothing. The HUGGIE project is located in the heart of social robotics and on the periphery of machine ethics. By summer 2020, the students will conduct an online survey to find out the attitudes and expectations of the users.

Fig.: Hugged by a robot

Was sind und tun soziale Roboter?

„Soziale Roboter sind sensomotorische Maschinen, die für den Umgang mit Menschen oder Tieren geschaffen wurden. Sie können über fünf Dimensionen bestimmt werden, nämlich die Interaktion mit Lebewesen, die Kommunikation mit Lebewesen, die Nähe zu Lebewesen, die Abbildung von (Aspekten von) Lebewesen sowie – im Zentrum – den Nutzen für Lebewesen. Bei einem weiten Begriff können neben Hardwarerobotern auch Softwareroboter wie gewisse Chatbots, Voicebots (Sprachassistenten oder virtuelle Assistenten) und Social Bots dazu zählen. Die Disziplin, die soziale Roboter – ob als Spielzeugroboter, als Serviceroboter (Pflegeroboter, Therapieroboter, Sexroboter, Sicherheitsroboter etc.) oder als Industrieroboter in der Art von Kooperations- und Kollaborationsrobotern (Co-Robots bzw. Cobots) – erforscht und hervorbringt, ist die soziale Robotik.“ So beginnt ein Beitrag im Gabler Wirtschaftslexikon. Er knüpft an die Definition an, die der Verfasser 2014 am selben Ort zu sozialer Robotik geliefert hat. Besonders an ihm ist neben den Dimensionen, die für jeden einzelnen Typ beschrieben werden können, die Einbeziehung von Tieren, nicht nur auf der Seite des Roboters, der Lebewesen aller Art imitieren kann, sondern auch auf der Seite seines Gegenübers. Nach dieser Sichtweise können soziale Roboter nicht nur Menschen, sondern auch Tiere erfreuen und unterstützen, mit Hilfe von Gestaltungsformen und Verhaltensweisen, die als angemessen wahrgenommen und die verstanden werden. Weiter unten heißt es: „Wenn die Maschinen zu moralisch adäquaten Entscheidungen fähig sein sollen, ist die Maschinenethik gefragt.“ Der Artikel von Oliver Bendel ist am 10. März 2020 erschienen und kann über wirtschaftslexikon.gabler.de/definition/soziale-roboter-122268 aufgerufen werden.

Abb.: Ein berühmter sozialer Roboter

Towards SPACE THEA

Living, working, and sleeping in small spaces next to the same people for months or years would be stressful for even the fittest and toughest astronauts. Neel V. Patel underlines this fact in a current article for MIT Technology Review. If they are near Earth, they can talk to psychologists. But if they are far away, it will be difficult. Moreover, in the future there could be astronauts in space whose clients cannot afford human psychological support. „An AI assistant that’s able to intuit human emotion and respond with empathy could be exactly what’s needed, particularly on future missions to Mars and beyond. The idea is that it could anticipate the needs of the crew and intervene if their mental health seems at risk.“ (MIT Technology Review, 14 January 2020) NASA wants to develop such an assistant together with the Australian tech firm Akin. They could build on research by Prof. Dr. Oliver Bendel. Together with his teams, he has developed the GOODBOT in 2013 and the BESTBOT in 2018. Both can detect users’ problems and react adequately to these problems. The more recent chatbot even has face recognition in combination with emotion recognition. If it detects discrepancies with what the user has said or written, it will make this a subject of discussion. Oliver Bendel is currently examining the possibilities of a follow-up project. It could be called THE EMPHATIC ASSISTANT IN SPACE (SPACE THEA). SPACE THEA is a voicebot for space ships that reacts with empathy (compassion, concern, possibly even pity). It is certainly available before humans fly to Mars.

Fig.: Lost in space

Alle tierfreundlichen Maschinen der Welt

An der FHNW wurden LADYBIRD und HAPPY HEDGEHOG gebaut, zwei Prototypen tierfreundlicher Maschinen. LADYBIRD hat inzwischen einige Bekanntheit erlangt und gilt als Vorzeigebeispiel der Maschinenethik. Aber was findet weltweit auf diesem Gebiet statt? Es ist bekannt, dass es Mähdrescher gibt, denen Drohnen voranfliegen, die Rehkitze im Feld zurückmelden. Auch Windkraftanlagen, die sich für nahende Vogelschwärme ausstellen, wurden ausprobiert. Aber was gibt es sonst, und was ist geplant? Die Studie, die im Februar 2020 im Studiengang Energie, Umwelt, Technik (EUT) begonnen wird, soll eine Bestandsaufnahme machen und eine Systematisierungsleistung vornehmen: In welchen Gebieten treffen Tiere mit Maschinen zusammen, auf dem Boden, im Wasser, in der Luft? Um welche Tiere handelt es sich, um Haus-, Nutz-, Versuchs- oder Wildtiere? Um welche Maschinen, um von Menschen gesteuerte, teilautonome oder autonome? Wie treffen Maschine und Tier aufeinander, wie ist das Tierwohl gefährdet und wie kann es gesichert werden? Welche Disziplinen nehmen sich dieses Themas an, Tier-Computer-Interaktion, Tier-Maschine-Interaktion, Tierethik, Umweltethik, Maschinenethik? Welche Projekte sind für die Zukunft geplant? Was sind die Gründe für die Projekte, ökonomische, ökologische, ethische? Der Betreuer ist der Informations- und Maschinenethiker Oliver Bendel. Als Auftraggeber hat er Animal Rights Switzerland gewonnen.

Abb.: Auch leopardenfreundliche Maschinen könnte es geben

DBW-Artikel zur Maschinenethik

Im Jahre 2014 erschien in der Zeitschrift DBW der Artikel „Wirtschaftliche und technische Implikationen der Maschinenethik“ von Oliver Bendel. Nach über 70 Jahren wurde die renommierte Fachzeitschrift zum Jahresende 2016 eingestellt. Der Verlag begründete dies damals u.a. wie folgt: „Der Diskurs wirtschaftswissenschaftlicher Themen hat sich in den letzten Jahren zunehmend auf angelsächsische Medien und angelsächsische Publikationsgepflogenheiten verlagert.“ (Medienmitteilung) Seit 14. Februar 2020 steht der Artikel mit freundlicher Genehmigung des Verlags kostenlos zur Verfügung. Aus dem Abstract: „Der Beitrag führt in die Maschinenethik ein, arbeitet die Merkmale moralischer Maschinen und Situationen heraus und beschreibt mit Hilfe der Merkmale ausgewählte Typen. Es zeigt sich, dass moralische Maschinen ökonomische Implikationen haben und ein geeigneter Gegenstand für Wirtschaftswissenschaftler und -informatiker sind.“ Der Artikel kann hier heruntergeladen werden.

Abb.: Maschinenethik und Künstliche Intelligenz

About MOBO-MOME

From June 2019 to January 2020 the Morality Menu (MOME) was developed under the supervision of Prof. Dr. Oliver Bendel. With it you can transfer your own morality to the chatbot called MOBO. First of all, the user must provide various personal details. He or she opens the „User Personality“ panel in the „Menu“ and can then enter his or her name, age, nationality, gender, sexual orientation, and hair color. These details are important for communication and interaction with the chatbot. In a further step, the user can call up the actual morality menu („Rules of conduct“) via „Menu“. It consists of 9 rules, which a user (or an operator) can activate (1) or deactivate (0). The behaviors 1 – 8, depending on how they are activated, result in the proxy morality of the machine (the proxy machine). It usually represents the morality of the user (or the operator). But you can also give the system the freedom to generate its morality randomly. This is exactly what happens with this option. After the morality menu has been completely set, the dialogue can begin. To do this, the user calls up „Chatbot“ in the „Menu“. The Chatbot MOBO is started. The adventure can begin! A video of the MOBO-MOME is available here.

Fig.: How the MOBO-MOME works

13 Artefakte der Maschinenethik

Seit 2012 wurden von Oliver Bendel 13 Artefakte der Maschinenethik erfunden. Neun von ihnen wurden dann tatsächlich umgesetzt, darunter LADYBIRD, der tierfreundliche Saugroboter, und LIEBOT, der Chatbot, der systematisch lügen kann. Bei haben es zu einer gewissen Bekanntheit gebracht. Ethik muss nicht unbedingt das Gute hervorbringen, ist der Informations- und Maschinenethiker überzeugt. Sie sollte das Gute und das Böse erforschen und wie jede Wissenschaft dem Erkenntnisgewinn dienen. Entsprechend baut er sowohl moralische als auch unmoralische Maschinen. Die unmoralischen behält er aber in seinem Lab. 2020 wird, wenn das Projekt angenommen wird, der HUGGIE das Licht der Welt erblicken. Die Projektidee ist, einen sozialen Roboter zu schaffen, der unmittelbar zu einem guten Leben und zum wirtschaftlichen Erfolg beiträgt, indem er Menschen bzw. Kunden berührt und umarmt. HUGGIE soll sich an manchen Stellen erwärmen, und es sollen die Materialien, mit denen er bezogen ist, gewechselt werden können. Eine Forschungsfrage wird sein: Welche Möglichkeiten stehen neben Wärme und Weichheit zur Verfügung? Sind optische Reize (auch auf Displays), Vibrationen, Geräusche, Stimmen etc. für eine gelungene Umarmung wichtig? Alle moralischen und unmoralischen Maschinen, die zwischen 2012 und 2020 entstanden sind, sind in einer neuen Illustration zusammengestellt, die hier zum ersten Mal gezeigt wird.

Abb.: 13 Artefakte der Maschinenethik

Pflegeroboter im Spektrum Spezial

Spektrum Spezial (Biologie, Medizin, Hirnforschung) widmet sich in Ausgabe 1/2020 (Erscheinungsdatum: 24. Januar 2020) KI und Robotik und speziell auch Pflegerobotern. Der achtzehnseitige Beihefter zu diesem Thema ist in dieser Form einzigartig. So stellt Michael Anderson, einer der weltweit führenden Maschinenethiker, die Umwandlung eines sozialen Roboters in eine moralische Maschine im Pflegekontext vor. Florian Coulmas, der verdiente Ostasienexperte (Universität Duisburg-Essen), relativiert die Annahme, dass Japaner zu Dingen ein völlig anderes Verhältnis als Europäer haben. Gundula Hübner und Stephanie Müller von der Martin-Luther-Universität Halle-Wittenberg und Andreas Keibel von KUKA geben Hinweise in Bezug auf Akzeptanz, Technik und Markt von Pflegerobotern. Armin Grunwald – der renommierte Technikphilosoph – und Christoph Kehl vom KIT bzw. TAB gehen auf ihre Studie für den Deutschen Bundestag ein. Oliver Bendel, der wissenschaftliche Direktor des 23. Berliner Kolloquiums der Daimler und Benz Stiftung, aus dem die Artikel hervorgingen, leitet in die Thematik ein. Das elektronische Pendant – das Spektrum Kompakt zu Pflegerobotern – ist bereits im November 2019 erschienen, mit Beiträgen von Karsten Schwarz und Patrick Jahn, Susan L. Anderson und Oliver Bendel.

Abb.: Wer pflegt und betreut uns, wenn wir alt sind?