„Die Veränderung ist die Freiheit des menschlichen Cyborgs. Sein Körper gehört ihm. Allerdings könnte man ihm vorhalten, dass er zum Vorbild wird, selbst für diejenigen, die nicht mit dem Transhumanismus sympathisieren, der Ideologie des neuen Menschen, und für die das Stechen der Ohrlöcher oder das Setzen eines Piercings der bisher schwerste Eingriff war. Nun gehört zur Freiheit ebenso, gegen die allgemeine Vernunft und das eigene Wohl zu handeln. Problematisch wird es bei Kindern, die die Folgen nicht einschätzen können.“ So heißt es in einem Beitrag von Oliver Bendel für Bosch-Zünder, die legendäre Mitarbeiterzeitschrift, die es seit 1919 gibt. Erschienen ist er im März 2020 in zehn Sprachen, in deutscher, aber auch in englischer, chinesischer und japanischer. In einem Buchbeitrag, der noch 2020 publiziert wird, geht der Wirtschaftsinformatiker und Ethiker noch einen Schritt weiter und stellt die Verbindung zwischen Biohacking und Maschinenethik her. „Das Verschmelzen von menschlicher und maschineller Moral“ ist Teil des Buchs „Bessere Menschen? Technische und ethische Fragen in der transhumanistischen Zukunft“ (Springer, Berlin 2020).
Immer wieder hört man, oft von Theologen, manchmal von Philosophen, dass Maschinen nicht autonom seien, nicht intelligent, nicht moralisch etc. Sie übertragen den Begriff, den sie aus ihrem Bereich kennen, auf technische Wissenschaften wie Informatik, Künstliche Intelligenz (KI) und Maschinenethik (die technisch geprägt ist und eng mit KI und Robotik zusammenarbeitet). Sie anerkennen nicht, dass jede Disziplin ihre eigenen Begriffe haben kann (und in der Regel hat). Bei einer Tagung im Jahre 2015 beschimpfte Bundestagspräsident Prof. Dr. Norbert Lammert, ein zutiefst religiöser Mann, die Referenten mit den Worten, Maschinen seien nicht autonom, sie hätten sich nämlich nicht selbst ein Gesetz gegeben. Nun sprechen Informatik und Robotik aber nun einmal von autonomen Systemen und Maschinen, und selbstverständlich dürfen sie das, wenn sie darlegen, wie sie das meinen. Eine solche Begriffsklärung und -aneignung steht sogar am Anfang jeder wissenschaftlichen Betätigung, und dass die Begriffe gleich lauten wie die anderer Bereiche, heißt keineswegs, dass sie dasselbe bedeuten und bedeuten müssen. Eine neue Grafik von Prof. Dr. Oliver Bendel, die auf früheren Entwürfen aufbaut, stellt dar, was der Gegenstandsbereich der Disziplinen oder Arbeitsbereiche der KI, der Maschinenethik und des Maschinellen Bewusstseins ist, und macht für sie terminologische Vorschläge. Im Kern geht es diesen darum, etwas in bestimmten Aspekten ab- oder nachzubilden bzw. zu simulieren. So schafft es die Künstliche Intelligenz eben, künstliche Intelligenz hervorzubringen, etwa Dialogsysteme oder Maschinen, die bestimmte Probleme lösen. Ob diese „wirklich“ intelligent sind oder nicht, ist keine sinnvolle Frage, und der Terminus technicus benutzt nicht umsonst das Adjektiv „künstlich“ – hier wäre noch einfacher als im Falle von „autonom“ zu verstehen, dass es sich um eine „neue“ (immerhin seit über 50 Jahren erklärte) Bedeutung handelt.
Bereits im Buch „300 Keywords Informationsethik“ (2016) von Oliver Bendel und dann im Nachfolgewerk „400 Keywords Informationsethik“ (2019) war erklärt worden, was schwarze Schwäne sind. Dabei war auch ein Bezug zur Maschinenethik und zu Technik- und Informationsethik hergestellt worden: „Moralische Maschinen können als schwarze Schwäne angesehen werden. Tauchten sie lange Zeit nur in Science-Fictions auf und hielten die meisten Menschen ihre Umsetzung für unmöglich, werden sie nun von der Maschinenethik konzipiert und implementiert. Technik- und Informationsethik berücksichtigen schwarze Schwäne in Technikgeschichte und Informationsgesellschaft.“ Eine grundlegende und ausführliche Definition des gleichen Autors findet sich nun im Gabler Wirtschaftslexikon. Der Begriff geht bekanntlich auf Publikationen von Nassim Nicholas Taleb zurück, nämlich auf „Fooled By Randomness“ (2001) und „The Black Swan“ (2007), das Bild auf Juvenal, der in den Satiren VI eine treue Ehefrau mit dem schwarzen Schwan vergleicht, der in der Antike in Europa unbekannt war. Aber was man mit ihm heute verbindet und ob COVID-19 damit zu tun hat, kann über wirtschaftslexikon.gabler.de/definition/covid-19-122147 nachgelesen werden.
Space travel includes travel and transport to, through and from space for civil or military purposes. The take-off on earth is usually done with a launch vehicle. The spaceship, like the lander, is manned or unmanned. The target can be the orbit of a celestial body, a satellite, planet or comet. Man has been to the moon several times, now man wants to go to Mars. The astronaut will not greet the robots that are already there as if he or she had been lonely for months. For on the spaceship he or she had been in the best of company. SPACE THEA spoke to him or her every day. When she noticed that he or she had problems, she changed her tone of voice, the voice became softer and happier, and what she said gave the astronaut hope again. How SPACE THEA really sounds and what she should say is the subject of a research project that will start in spring 2020 at the School of Business FHNW. Under the supervision of Prof. Dr. Oliver Bendel, a student is developing a voicebot that shows empathy towards an astronaut. The scenario is a proposal that can also be rejected. Maybe in these times it is more important to have a virtual assistant for crises and catastrophes in case one is in isolation or quarantine. However, the project in the fields of social robotics and machine ethics is entitled THE EMPATHIC ASSISTANT IN SPACE (SPACE THEA). The results – including the prototype – will be available by the end of 2020.
Es existieren mehrere Markup Languages. Die bekannteste ist sicherlich die Hypertext Markup Language (HTML). Im Bereich der KI hat sich AIML etabliert. Für synthetische Stimmen wird SSML eingesetzt. Die Frage ist, ob damit die Möglichkeiten mit Blick auf autonome Systeme ausgeschöpft sind. In dem Beitrag „Das Moralmenü: Moralische Maschinen mit einer Stellvertretermoral“ von Prof. Dr. Oliver Bendel wurde zum ersten Mal eine Morality Markup Language (MOML) vorgeschlagen. Eine Studienarbeit unter der Betreuung des Informations- und Maschinenethikers hat 2019 untersucht, welche Möglichkeiten bestehende Sprachen hinsichtlich moralischer Aspekte haben und ob eine MOML gerechtfertigt ist. Die Ergebnisse wurden im Januar 2020 vorgestellt. Eine Bachelorarbeit an der Hochschule für Wirtschaft FHNW geht ab Ende März 2020 einen Schritt weiter. In ihr sollen Grundzüge einer Morality Markup Language erarbeitet werden. Es sollen die Grundstruktur und spezifische Befehle vorgeschlagen und beschrieben werden. Es sind die Anwendungsbereiche, Vorteile und Nachteile einer solchen Markierungssprache darzustellen. Auftraggeber der Arbeit ist Prof. Dr. Oliver Bendel, Betreuerin Dr. Elzbieta Pustulka.
The first phase of the HUGGIE project will start at the School of Business FHNW in March 2020. Oliver Bendel was able to recruit two students from the International Management program. The project idea is to create a social robot that contributes directly to a good life and economic success by touching and hugging people and especially customers. HUGGIE should be able to warm up in some places, and it should be possible to change the materials it is covered with. A research question will be: What are the possibilities besides warmth and softness? Are optical stimuli (also on displays), vibrations, noises, voices etc. important for a successful hug? HUGGIE could also play a role in crises and disasters, in epidemics and pandemics and in cases of permanent social distancing. Of course it would be bad if only a robot would hug us, and of course it would be good if humans could hug us every day if we wanted them to do so – but maybe in extreme situations a hug by a robot is better than nothing. The HUGGIE project is located in the heart of social robotics and on the periphery of machine ethics. By summer 2020, the students will conduct an online survey to find out the attitudes and expectations of the users.
„Soziale Roboter sind sensomotorische Maschinen, die für den Umgang mit Menschen oder Tieren geschaffen wurden. Sie können über fünf Dimensionen bestimmt werden, nämlich die Interaktion mit Lebewesen, die Kommunikation mit Lebewesen, die Nähe zu Lebewesen, die Abbildung von (Aspekten von) Lebewesen sowie – im Zentrum – den Nutzen für Lebewesen. Bei einem weiten Begriff können neben Hardwarerobotern auch Softwareroboter wie gewisse Chatbots, Voicebots (Sprachassistenten oder virtuelle Assistenten) und Social Bots dazu zählen. Die Disziplin, die soziale Roboter – ob als Spielzeugroboter, als Serviceroboter (Pflegeroboter, Therapieroboter, Sexroboter, Sicherheitsroboter etc.) oder als Industrieroboter in der Art von Kooperations- und Kollaborationsrobotern (Co-Robots bzw. Cobots) – erforscht und hervorbringt, ist die soziale Robotik.“ So beginnt ein Beitrag im Gabler Wirtschaftslexikon. Er knüpft an die Definition an, die der Verfasser 2014 am selben Ort zu sozialer Robotik geliefert hat. Besonders an ihm ist neben den Dimensionen, die für jeden einzelnen Typ beschrieben werden können, die Einbeziehung von Tieren, nicht nur auf der Seite des Roboters, der Lebewesen aller Art imitieren kann, sondern auch auf der Seite seines Gegenübers. Nach dieser Sichtweise können soziale Roboter nicht nur Menschen, sondern auch Tiere erfreuen und unterstützen, mit Hilfe von Gestaltungsformen und Verhaltensweisen, die als angemessen wahrgenommen und die verstanden werden. Weiter unten heißt es: „Wenn die Maschinen zu moralisch adäquaten Entscheidungen fähig sein sollen, ist die Maschinenethik gefragt.“ Der Artikel von Oliver Bendel ist am 10. März 2020 erschienen und kann über wirtschaftslexikon.gabler.de/definition/soziale-roboter-122268 aufgerufen werden.
Living, working, and sleeping in small spaces next to the same people for months or years would be stressful for even the fittest and toughest astronauts. Neel V. Patel underlines this fact in a current article for MIT Technology Review. If they are near Earth, they can talk to psychologists. But if they are far away, it will be difficult. Moreover, in the future there could be astronauts in space whose clients cannot afford human psychological support. „An AI assistant that’s able to intuit human emotion and respond with empathy could be exactly what’s needed, particularly on future missions to Mars and beyond. The idea is that it could anticipate the needs of the crew and intervene if their mental health seems at risk.“ (MIT Technology Review, 14 January 2020) NASA wants to develop such an assistant together with the Australian tech firm Akin. They could build on research by Prof. Dr. Oliver Bendel. Together with his teams, he has developed the GOODBOT in 2013 and the BESTBOT in 2018. Both can detect users’ problems and react adequately to these problems. The more recent chatbot even has face recognition in combination with emotion recognition. If it detects discrepancies with what the user has said or written, it will make this a subject of discussion. Oliver Bendel is currently examining the possibilities of a follow-up project. It could be called THE EMPATHIC ASSISTANT IN SPACE (SPACE THEA). SPACE THEA is a voicebot for space ships that reacts with empathy (compassion, concern, possibly even pity). It is certainly available before humans fly to Mars.
An der FHNW wurden LADYBIRD und HAPPY HEDGEHOG gebaut, zwei Prototypen tierfreundlicher Maschinen. LADYBIRD hat inzwischen einige Bekanntheit erlangt und gilt als Vorzeigebeispiel der Maschinenethik. Aber was findet weltweit auf diesem Gebiet statt? Es ist bekannt, dass es Mähdrescher gibt, denen Drohnen voranfliegen, die Rehkitze im Feld zurückmelden. Auch Windkraftanlagen, die sich für nahende Vogelschwärme ausstellen, wurden ausprobiert. Aber was gibt es sonst, und was ist geplant? Die Studie, die im Februar 2020 im Studiengang Energie, Umwelt, Technik (EUT) begonnen wird, soll eine Bestandsaufnahme machen und eine Systematisierungsleistung vornehmen: In welchen Gebieten treffen Tiere mit Maschinen zusammen, auf dem Boden, im Wasser, in der Luft? Um welche Tiere handelt es sich, um Haus-, Nutz-, Versuchs- oder Wildtiere? Um welche Maschinen, um von Menschen gesteuerte, teilautonome oder autonome? Wie treffen Maschine und Tier aufeinander, wie ist das Tierwohl gefährdet und wie kann es gesichert werden? Welche Disziplinen nehmen sich dieses Themas an, Tier-Computer-Interaktion, Tier-Maschine-Interaktion, Tierethik, Umweltethik, Maschinenethik? Welche Projekte sind für die Zukunft geplant? Was sind die Gründe für die Projekte, ökonomische, ökologische, ethische? Der Betreuer ist der Informations- und Maschinenethiker Oliver Bendel. Als Auftraggeber hat er Animal Rights Switzerland gewonnen.
Abb.: Auch leopardenfreundliche Maschinen könnte es geben
Im Jahre 2014 erschien in der Zeitschrift DBW der Artikel „Wirtschaftliche und technische Implikationen der Maschinenethik“ von Oliver Bendel. Nach über 70 Jahren wurde die renommierte Fachzeitschrift zum Jahresende 2016 eingestellt. Der Verlag begründete dies damals u.a. wie folgt: „Der Diskurs wirtschaftswissenschaftlicher Themen hat sich in den letzten Jahren zunehmend auf angelsächsische Medien und angelsächsische Publikationsgepflogenheiten verlagert.“ (Medienmitteilung) Seit 14. Februar 2020 steht der Artikel mit freundlicher Genehmigung des Verlags kostenlos zur Verfügung. Aus dem Abstract: „Der Beitrag führt in die Maschinenethik ein, arbeitet die Merkmale moralischer Maschinen und Situationen heraus und beschreibt mit Hilfe der Merkmale ausgewählte Typen. Es zeigt sich, dass moralische Maschinen ökonomische Implikationen haben und ein geeigneter Gegenstand für Wirtschaftswissenschaftler und -informatiker sind.“ Der Artikel kann hier heruntergeladen werden.
From June 2019 to January 2020 the Morality Menu (MOME) was developed under the supervision of Prof. Dr. Oliver Bendel. With it you can transfer your own morality to the chatbot called MOBO. First of all, the user must provide various personal details. He or she opens the „User Personality“ panel in the „Menu“ and can then enter his or her name, age, nationality, gender, sexual orientation, and hair color. These details are important for communication and interaction with the chatbot. In a further step, the user can call up the actual morality menu („Rules of conduct“) via „Menu“. It consists of 9 rules, which a user (or an operator) can activate (1) or deactivate (0). The behaviors 1 – 8, depending on how they are activated, result in the proxy morality of the machine (the proxy machine). It usually represents the morality of the user (or the operator). But you can also give the system the freedom to generate its morality randomly. This is exactly what happens with this option. After the morality menu has been completely set, the dialogue can begin. To do this, the user calls up „Chatbot“ in the „Menu“. The Chatbot MOBO is started. The adventure can begin! A video of the MOBO-MOME is available here.
Seit 2012 wurden von Oliver Bendel 13 Artefakte der Maschinenethik erfunden. Neun von ihnen wurden dann tatsächlich umgesetzt, darunter LADYBIRD, der tierfreundliche Saugroboter, und LIEBOT, der Chatbot, der systematisch lügen kann. Beide haben es zu einer gewissen Bekanntheit gebracht. Ethik muss nicht unbedingt das Gute hervorbringen, ist der Informations- und Maschinenethiker überzeugt. Sie sollte das Gute und das Böse erforschen und wie jede Wissenschaft dem Erkenntnisgewinn dienen. Entsprechend baut er sowohl moralische als auch unmoralische Maschinen. Die unmoralischen behält er aber in seinem Lab. 2020 wird, wenn das Projekt angenommen wird, der HUGGIE das Licht der Welt erblicken. Die Projektidee ist, einen sozialen Roboter zu schaffen, der unmittelbar zu einem guten Leben und zum wirtschaftlichen Erfolg beiträgt, indem er Menschen bzw. Kunden berührt und umarmt. HUGGIE soll sich an manchen Stellen erwärmen, und es sollen die Materialien, mit denen er bezogen ist, gewechselt werden können. Eine Forschungsfrage wird sein: Welche Möglichkeiten stehen neben Wärme und Weichheit zur Verfügung? Sind optische Reize (auch auf Displays), Vibrationen, Geräusche, Stimmen etc. für eine gelungene Umarmung wichtig? Alle moralischen und unmoralischen Maschinen, die zwischen 2012 und 2020 entstanden sind, sind in einer neuen Illustration zusammengestellt, die hier zum ersten Mal gezeigt wird.
Spektrum Spezial (Biologie, Medizin, Hirnforschung) widmet sich in Ausgabe 1/2020 (Erscheinungsdatum: 24. Januar 2020) KI und Robotik und speziell auch Pflegerobotern. Der achtzehnseitige Beihefter zu diesem Thema ist in dieser Form einzigartig. So stellt Michael Anderson, einer der weltweit führenden Maschinenethiker, die Umwandlung eines sozialen Roboters in eine moralische Maschine im Pflegekontext vor. Florian Coulmas, der verdiente Ostasienexperte (Universität Duisburg-Essen), relativiert die Annahme, dass Japaner zu Dingen ein völlig anderes Verhältnis als Europäer haben. Gundula Hübner und Stephanie Müller von der Martin-Luther-Universität Halle-Wittenberg und Andreas Keibel von KUKA geben Hinweise in Bezug auf Akzeptanz, Technik und Markt von Pflegerobotern. Armin Grunwald – der renommierte Technikphilosoph – und Christoph Kehl vom KIT bzw. TAB gehen auf ihre Studie für den Deutschen Bundestag ein. Oliver Bendel, der wissenschaftliche Direktor des 23. Berliner Kolloquiums der Daimler und Benz Stiftung, aus dem die Artikel hervorgingen, leitet in die Thematik ein. Das elektronische Pendant – das Spektrum Kompakt zu Pflegerobotern – ist bereits im November 2019 erschienen, mit Beiträgen von Karsten Schwarz und Patrick Jahn, Susan L. Anderson und Oliver Bendel.
Abb.: Wer pflegt und betreut uns, wenn wir alt sind?
Die Idee eines Moralmenüs (MOME) entstand 2018 im Kontext der Maschinenethik. Damit sollte es möglich sein, die Moral einer Person auf eine Maschine zu übertragen. Auf einem Display bekommt man verschiedene Verhaltensregeln angezeigt und kann diese über Schieberegler aktivieren oder deaktivieren. Oliver Bendel entwickelte zwei Designstudien, eine für einen tierfreundlichen Staubsaugroboter namens LADYBIRD, eine andere für einen Sprachassistenten wie Google Duplex. Ende 2018 schrieb er an der Hochschule für Wirtschaft FHNW ein Projekt aus. Drei Studenten – Ozan Firat, Levin Padayatty and Yusuf Or – implementierten von Juni 2019 bis Januar 2020 das MOME für einen Chatbot mit dem Namen MOBO. Der Benutzer macht Angaben zu seiner Person und aktiviert oder deaktiviert dann neun verschiedene Verhaltensregeln. MOBO gibt Komplimente oder gibt keine Komplimente, antwortet voller Vorurteile oder ohne Vorurteile, bedroht den Gesprächspartner oder bedroht ihn nicht. Dabei geht er auf jeden Benutzer individuell ein, nennt dessen Namen – und spricht ihn je nach Einstellung formell oder informell an. Ein Video zum MOBO-MOME ist hier abrufbar.
Zwischen Juni 2019 und Januar 2020 wurde an der Hochschule für Wirtschaft FHNW unter der Leitung von Oliver Bendel das Projekt HAPPY HEDGEHOG (HHH) durchgeführt. Die Studierenden Emanuel Graf, Kevin Bollier, Michel Beugger und Vay Lien Chang entwickelten im Kontext der Maschinenethik den Prototyp eines Mähroboters, der seine Arbeit einstellt, sobald er einen Igel entdeckt hat. HHH verfügt über eine Wärmebildkamera. Wenn er auf ein warmes Objekt stößt, wird dieses mittels Bilderkennung weiter untersucht. Nachts hilft eine oben angebrachte Lampe dabei. Nach dem Training mit hunderten Fotos kann HHH recht treffsicher einen Igel identifizieren. Es ist nicht nur eine weitere moralische Maschine im Labor entstanden. Das Team liefert mit ihr auch einen Lösungsvorschlag für ein Problem, das in der Praxis häufig auftritt. Handelsübliche Mähroboter töten nämlich immer wieder Igelbabys in der Dunkelheit. HAPPY HEDGEHOG könnte dabei helfen, sie zu retten. Das Video auf youtu.be/ijIQ8lBygME zeigt ihn ohne Verkleidung; ein Foto mit Verkleidung findet sich hier. Der Roboter steht in der Tradition von LADYBIRD.
Zusammen mit dem Zentrum für Wissenschaftstheorie (Philosophisches Seminar der Universität Münster) veranstaltet das Centrum für Bioethik im Wintersemester 2019/2020 eine gemeinsame Ringvorlesung zur Maschinenethik, wobei auch Informationsethik und Roboterethik sowie Roboterrecht ein Thema sind. Die einzelnen Vortragsveranstaltungen finden jeweils donnerstags von 18 bis 20 Uhr statt. Oliver Bendel (Windisch, Schweiz) trägt am 9. Januar 2020 über „Pflege- und Therapieroboter aus ethischer Sicht“ vor, Armin Grunwald (Karlsruhe) am 23. Januar 2020 über „Digitalisierung als Schicksal? Plädoyer für eine Rückeroberung von Gestaltungsoptionen“. Bereits im letzten Jahr referierten Klaus Mainzer (München), Jürgen Altmann (Dortmund), Michael Hauskeller (Liverpool, England) und Susanne Beck (Hannover). Ein Plakat zur Veranstaltung kann hier heruntergeladen werden. Weitere Informationen über www.uni-muenster.de/Bioethik/aktuelles/index.html.