Kategorie: Maschinenethik

Soziale Roboter in der Hochschullehre

An der Hochschule für Wirtschaft FHNW wird ab Frühjahrssemester 2021 das Wahlmodul „Soziale Roboter“ angeboten. Es steht WirtschaftsinformatikerInnen und BetriebsökonomInnen offen. Dozent ist Prof. Dr. Oliver Bendel. Das Wahlmodul „Soziale Roboter“ klärt Grundbegriffe und -konzepte, stellt den Zusammenhang zwischen der sozialen Robotik und anderen Disziplinen (Künstliche Intelligenz, Maschinenethik, Künstliches Bewusstsein) her, nennt Beispiele sozialer Roboter und geht auf Anwendungsgebiete sozialer Roboter ein. Die Studierenden lernen ausgewählte soziale Roboter kennen, nach Möglichkeit auch im direkten Kontakt. Sie entwickeln Szenarien, die folgende Komponenten umfassen: Beschreibung eines fiktiven sozialen Roboters (Zeichnung, Produktbeschreibung), Skizze einer Organisation oder Situation, in der der Roboter eingesetzt wird (Organigramm, Firmenbeschreibung), Darstellung der Interaktion und Kommunikation sowie der Datenflüsse (Modellierung), Diskussion technischer, ethischer und rechtlicher Fragen. Die Ergebnisse werden in Gruppen im Plenum präsentiert.

Abb.: Auch der Zusammenhang mit der Maschinenethik wird aufgezeigt

Keine Angst vor der KI

„Wer hat Angst vor der KI?“ Dieser Frage geht Carmen Gräf am 16. Juli 2020 von 22 bis 23 Uhr bei RBB Kultur nach. „Erst lernten die Computer rechnen, dann organisieren, analysieren, sprechen und schließlich – denken. Dank Künstlicher Intelligenz. Nun ist die Forschung dabei, den Computern auch das Fühlen beizubringen. Eine neue Stufe Künstlicher Intelligenz entsteht. Das sorgt für jede Menge Hoffnung und Euphorie, aber auch für Angst und Unbehagen. Wird die Maschine den Menschen überholen oder kann der Mensch die digitalen Potentiale sinnvoll nutzen? Ein Einblick in aktuelle Diskussionen, Forschungen und Anwendungen.“ (RBB Kultur) Erwähnt werden auch die Entwicklungen des Informations- und Maschinenethikers Oliver Bendel, konkret der LIEBOT, der systematisch die Unwahrheit sagt, und HAPPY HEDGEHOG, der igelfreundliche Rasenmähroboter. Die Sendung ist ein Jahr lang in der ARD-Mediathek abrufbar. Weitere Informationen sind hier erhältlich.

Abb.: Wer hat Angst vor der KI?

Interviews zu künstlicher Intelligenz und Moral

Kinofenster ist ein Projekt der Bundeszentrale für politische Bildung (bpb). Es wurde 1996 als Printmagazin initiiert. Im Jahre 2000 erfolgte die Umstellung zu einem Onlineangebot. Der aktuelle Schwerpunkt im Juli 2020 widmet sich, ausgehend von dem Film „Hi, AI“, künstlicher Intelligenz und moralischen Maschinen. „Humanoide Roboter sind nicht mehr nur Science Fiction. Im Dokumentarfilm Hi, AI beobachtet Regisseurin Isa Willlinger den Einzug solcher menschenähnlicher Maschinen in unseren Alltag. Begleitend zum Film stellt eine Sequenzanalyse drei Visionen von künstlerischer Intelligenz und ein Hintergrundtext das Motiv des Androiden-Roboters im Kino vor. Zudem sprechen wir mit Kate Darling und Oliver Bendel über Chancen und Gefahren künstlicher Intelligenz.“ (Website Kinofenster) Der Informations- und Maschinenethiker geht insbesondere auf künstliche oder maschinelle Moral ein. Die Interviews und die Materialien sind über www.kinofenster.de abrufbar.

Abb.: Nao wurde im Kontext der Maschinenethik moralisiert

The Morality Menu Project

„Once we place so-called ’social robots‘ into the social practices of our everyday lives and lifeworlds, we create complex, and possibly irreversible, interventions in the physical and semantic spaces of human culture and sociality. The long-term socio-cultural consequences of these interventions is currently impossible to gauge.“ (Website Robophilosophy Conference) With these words the next Robophilosophy conference was announced. It would have taken place in Aarhus, Denmark, from 18 to 21 August 2019, but due to the COVID 19 pandemic it is being conducted online. One lecture will be given by Oliver Bendel. The abstract of the paper „The Morality Menu Project“ states: „Machine ethics produces moral machines. The machine morality is usually fixed. Another approach is the morality menu (MOME). With this, owners or users transfer their own morality onto the machine, for example a social robot. The machine acts in the same way as they would act, in detail. A team at the School of Business FHNW implemented a MOME for the MOBO chatbot. In this article, the author introduces the idea of the MOME, presents the MOBO-MOME project and discusses advantages and disadvantages of such an approach. It turns out that a morality menu can be a valuable extension for certain moral machines.“ In 2018 Hiroshi Ishiguro, Guy Standing, Catelijne Muller, Joanna Bryson, and Oliver Bendel had been keynote speakers. In 2020, Catrin Misselhorn, Selma Sabanovic, and Shannon Vallor will be presenting. More information via conferences.au.dk/robo-philosophy/.

Fig.: The morality menu project

Bessere Menschen?

Im Sommer 2020 erscheint das Buch „Bessere Menschen?“ (Untertitel: „Technische und ethische Fragen in der transhumanistischen Zukunft“), mit Beiträgen u.a. von Karlheinz Steinmüller, Stefan Sorgner, Tanja Kubes, Melike Şahinol und Oliver Bendel. Aus der Verlagsinformation: „Das 21. turmdersinne-Symposium beschäftigte sich mit der laut Francis Fukuyama gefährlichsten Idee der Welt. Es wurden Chancen und Gefahren der technischen Erweiterbarkeit des Menschen diskutiert. Wie wird sich die Menschheit und der einzelne Mensch in Zukunft entwickeln – insbesondere angesichts der voranschreitenden Technologisierung unseres Alltags? Wie eng arbeiten wir zukünftig mit Robotern zusammen? Tritt der Mensch bald in einen Wettstreit mit intelligenten Maschinen? Und wie verändert sich die Natur des Menschen durch den Einsatz von Implantaten und durch gentechnische Verfahren – kann es sogar zu einer Verschmelzung von Mensch und Maschine kommen?“ (Information Springer) Herausgeber sind Michael Bauer und Laura Deinzer. Der Beitrag von Oliver Bendel trägt den Titel „Das Verschmelzen von menschlicher und maschineller Moral“. Weitere Informationen über www.springer.com/gp/book/9783662615690#aboutBook.

Abb.: Bessere Menschen?

Brave New World

Mathias Lindenau und Marcel Meier Kressig sind die Herausgeber des Buchs „Schöne neue Welt? Zwischen technischen Möglichkeiten und ethischen Herausforderungen“. Von der Website des Verlags: „Schon immer hat der Mensch die technischen Möglichkeiten zur Kompensation seiner lebensweltlichen Defizite genutzt. Zudem dienen sie ihm zur Optimierung seiner selbst und seiner Umwelt. Im Zuge dieses Strebens wird der Möglichkeitsraum menschlichen Handelns ins schier Unermessliche ausgeweitet. Doch ob aus der Möglichkeit des Könnens zwangsläufig immer auch ein Gebot des Sollens folgt, ist umstritten – gerade in der Zeit der digitalen Transformation. Die Beiträger*innen des Bandes befassen sich daher insbesondere mit dem Phänomen des Enhancement, ethischen Implikationen bei Servicerobotern, der Auswirkung von Künstlichkeit auf den Menschen sowie dem allgemeinen Diskurs um Digitalisierung.“ (Website transcript) Von Oliver Bendel, dem Informations- und Maschinenethiker aus Zürich, stammt der Beitrag „Serviceroboter aus Sicht der Ethik“. Dieser geht zurück auf seinen Vortrag bei den Vadian Lectures in St. Gallen, gehalten am 9. Mai 2019. Das Buch erscheint im Sommer 2020 und ist hier vorbestellbar.

Abb.: Schöne neue Welt?

Serviceroboter aus ethischer Sicht

Der Vortrag „Serviceroboter aus der Perspektive der Ethik“ von Prof. Dr. Oliver Bendel am 12. März 2020 an der ZHAW in Wädenswil war der erste Vortrag im Forum des Frühjahrssemesters – und wegen COVID-19 wohl auch der letzte. Roboter waren lange Zeit besondere Maschinen, die in Käfigen in Fabriken eingesperrt und als Werkzeuge für bestimmte Aufgaben verwendet wurden, sei es zur Bombenentschärfung oder zur Umfelderkundung, auf der Erde wie auf dem Mond. Nur wenige Menschen bekamen sie zu Gesicht. Seit der Jahrtausendwende ändert sich das drastisch. Zuerst waren es Saug-, Mäh- und Poolroboter, die uns unterstützt und an die wir uns gewöhnt haben. Sie helfen uns im Haushalt und im Außenbereich, sozusagen in „geschlossenen“ und „halboffenen“ Welten. Inzwischen sind immer mehr Serviceroboter in „offenen“ Welten anzutreffen. Sie sind an Orten unterwegs, die wir uns teilen bzw. die öffentlich sind. Dabei stellen sich – vor allem, aber nicht nur bei sozialen Robotern – diverse Herausforderungen. Diese thematisierte der Vortrag, in moralischer und sozialer Hinsicht, und er schlug Lösungen u.a. auf ethischer, technischer und organisationaler Ebene vor. Das Video des Vortrags kann hier aufgerufen werden.

Abb.: Service ist anstrengend

Die Freiheit des menschlichen Cyborgs

„Die Veränderung ist die Freiheit des menschlichen Cyborgs. Sein Körper gehört ihm. Allerdings könnte man ihm vorhalten, dass er zum Vorbild wird, selbst für diejenigen, die nicht mit dem Transhumanismus sympathisieren, der Ideologie des neuen Menschen, und für die das Stechen der Ohrlöcher oder das Setzen eines Piercings der bisher schwerste Eingriff war. Nun gehört zur Freiheit ebenso, gegen die allgemeine Vernunft und das eigene Wohl zu handeln. Problematisch wird es bei Kindern, die die Folgen nicht einschätzen können.“ So heißt es in einem Beitrag von Oliver Bendel für Bosch-Zünder, die legendäre Mitarbeiterzeitschrift, die es seit 1919 gibt. Erschienen ist er im März 2020 in zehn Sprachen, in deutscher, aber auch in englischer, chinesischer und japanischer. In einem Buchbeitrag, der noch 2020 publiziert wird, geht der Wirtschaftsinformatiker und Ethiker noch einen Schritt weiter und stellt die Verbindung zwischen Biohacking und Maschinenethik her. „Das Verschmelzen von menschlicher und maschineller Moral“ ist Teil des Buchs „Bessere Menschen? Technische und ethische Fragen in der transhumanistischen Zukunft“ (Springer, Berlin 2020).

Abb.: Die Freiheit des menschlichen Cyborgs

AI, ME und MC

Immer wieder hört man, oft von Theologen, manchmal von Philosophen, dass Maschinen nicht autonom seien, nicht intelligent, nicht moralisch etc. Sie übertragen den Begriff, den sie aus ihrem Bereich kennen, auf technische Wissenschaften wie Informatik, Künstliche Intelligenz (KI) und Maschinenethik (die technisch geprägt ist und eng mit KI und Robotik zusammenarbeitet). Sie anerkennen nicht, dass jede Disziplin ihre eigenen Begriffe haben kann (und in der Regel hat). Bei einer Tagung im Jahre 2015 beschimpfte Bundestagspräsident Prof. Dr. Norbert Lammert, ein zutiefst religiöser Mann, die Referenten mit den Worten, Maschinen seien nicht autonom, sie hätten sich nämlich nicht selbst ein Gesetz gegeben. Nun sprechen Informatik und Robotik aber nun einmal von autonomen Systemen und Maschinen, und selbstverständlich dürfen sie das, wenn sie darlegen, wie sie das meinen. Eine solche Begriffsklärung und -aneignung steht sogar am Anfang jeder wissenschaftlichen Betätigung, und dass die Begriffe gleich lauten wie die anderer Bereiche, heißt keineswegs, dass sie dasselbe bedeuten und bedeuten müssen. Eine neue Grafik von Prof. Dr. Oliver Bendel, die auf früheren Entwürfen aufbaut, stellt dar, was der Gegenstandsbereich der Disziplinen oder Arbeitsbereiche der KI, der Maschinenethik und des Maschinellen Bewusstseins ist, und macht für sie terminologische Vorschläge. Im Kern geht es diesen darum, etwas in bestimmten Aspekten ab- oder nachzubilden bzw. zu simulieren. So schafft es die Künstliche Intelligenz eben, künstliche Intelligenz hervorzubringen, etwa Dialogsysteme oder Maschinen, die bestimmte Probleme lösen. Ob diese „wirklich“ intelligent sind oder nicht, ist keine sinnvolle Frage, und der Terminus technicus benutzt nicht umsonst das Adjektiv „künstlich“ – hier wäre noch einfacher als im Falle von „autonom“ zu verstehen, dass es sich um eine „neue“ (immerhin seit über 50 Jahren erklärte) Bedeutung handelt.

Abb.: AI, ME und MC

Schwarzer Schwan

Bereits im Buch „300 Keywords Informationsethik“ (2016) von Oliver Bendel und dann im Nachfolgewerk „400 Keywords Informationsethik“ (2019) war erklärt worden, was schwarze Schwäne sind. Dabei war auch ein Bezug zur Maschinenethik und zu Technik- und Informationsethik hergestellt worden: „Moralische Maschinen können als schwarze Schwäne angesehen werden. Tauchten sie lange Zeit nur in Science-Fictions auf und hielten die meisten Menschen ihre Umsetzung für unmöglich, werden sie nun von der Maschinenethik konzipiert und implementiert. Technik- und Informationsethik berücksichtigen schwarze Schwäne in Technikgeschichte und Informationsgesellschaft.“ Eine grundlegende und ausführliche Definition des gleichen Autors findet sich nun im Gabler Wirtschaftslexikon. Der Begriff geht bekanntlich auf Publikationen von Nassim Nicholas Taleb zurück, nämlich auf „Fooled By Randomness“ (2001) und „The Black Swan“ (2007), das Bild auf Juvenal, der in den Satiren VI eine treue Ehefrau mit dem schwarzen Schwan vergleicht, der in der Antike in Europa unbekannt war. Aber was man mit ihm heute verbindet und ob COVID-19 damit zu tun hat, kann über wirtschaftslexikon.gabler.de/definition/covid-19-122147 nachgelesen werden.

Abb.: Ein schwarzer Schwan

Lost in Space

Space travel includes travel and transport to, through and from space for civil or military purposes. The take-off on earth is usually done with a launch vehicle. The spaceship, like the lander, is manned or unmanned. The target can be the orbit of a celestial body, a satellite, planet or comet. Man has been to the moon several times, now man wants to go to Mars. The astronaut will not greet the robots that are already there as if he or she had been lonely for months. For on the spaceship he or she had been in the best of company. SPACE THEA spoke to him or her every day. When she noticed that he or she had problems, she changed her tone of voice, the voice became softer and happier, and what she said gave the astronaut hope again. How SPACE THEA really sounds and what she should say is the subject of a research project that will start in spring 2020 at the School of Business FHNW. Under the supervision of Prof. Dr. Oliver Bendel, a student is developing a voicebot that shows empathy towards an astronaut. The scenario is a proposal that can also be rejected. Maybe in these times it is more important to have a virtual assistant for crises and catastrophes in case one is in isolation or quarantine. However, the project in the fields of social robotics and machine ethics is entitled „THE EMPHATIC ASSISTANT IN SPACE (SPACE THEA)“. The results – including the prototype – will be available by the end of 2020.

Fig.: A spaceship

Die Entwicklung einer MOML

Es existieren mehrere Markup Languages. Die bekannteste ist sicherlich die Hypertext Markup Language (HTML). Im Bereich der KI hat sich AIML etabliert. Für synthetische Stimmen wird SSML eingesetzt. Die Frage ist, ob damit die Möglichkeiten mit Blick auf autonome Systeme ausgeschöpft sind. In dem Beitrag „Das Moralmenü: Moralische Maschinen mit einer Stellvertretermoral“ von Prof. Dr. Oliver Bendel wurde zum ersten Mal eine Morality Markup Language (MOML) vorgeschlagen. Eine Studienarbeit unter der Betreuung des Informations- und Maschinenethikers hat 2019 untersucht, welche Möglichkeiten bestehende Sprachen hinsichtlich moralischer Aspekte haben und ob eine MOML gerechtfertigt ist. Die Ergebnisse wurden im Januar 2020 vorgestellt. Eine Bachelorarbeit an der Hochschule für Wirtschaft FHNW geht ab Ende März 2020 einen Schritt weiter. In ihr sollen Grundzüge einer Morality Markup Language erarbeitet werden. Es sollen die Grundstruktur und spezifische Befehle vorgeschlagen und beschrieben werden. Es sind die Anwendungsbereiche, Vorteile und Nachteile einer solchen Markierungssprache darzustellen. Auftraggeber der Arbeit ist Prof. Dr. Oliver Bendel, Betreuerin Dr. Elzbieta Pustulka.

Abb.: Die Entwicklung einer MOML