Soll man nett zu einem Chatbot sein?

Der Spiegel hat mit Prof. Dr. Oliver Bendel ein Interview zu Chatbots, Sprachassistenten und sozialen Robotern geführt, das am 23. Juni 2025 veröffentlicht wurde. Es geht u.a. um Dialoge mit Artefakten. Der Technikphilosoph hält es für unproblematisch, danke und bitte zu einem Chatbot oder einem Sprachassistenten zu sagen. Damit überträgt man einfach bestehende Konventionen. Zudem reagiert ein LLM wie GPT-4o anders, wenn man zugewandt und ausführlich ist. Man erhält oft längere und hilfreichere Antworten und auch hilfreichere Rückfragen. Etwas anderes ist es, wenn es nicht nur um Konventionen, sondern auch um Emotionen geht. Wenn man dem Chatbot gegenüber sein Herz ausschüttet, muss einem klar sein, dass auf der einen Seite nichts ist, was sich für einen interessiert oder das versteht, was Menschen wünschen und brauchen. Hier liegen Täuschung und Betrug nahe, wie Oliver Bendel mit seinen Kollegen auch im Jahre 2023 in einer Studie zu sozialen Robotern herausgearbeitet hat. Das Interview kann über www.spiegel.de aufgerufen werden.

Abb.: Soll man nett zu einem Chatbot sein?

Claude nutzt Constitutional AI

Die Maschinenethik kennt ganz unterschiedliche Ansätze. Man kann moralische Regeln und Werte in Systeme und Maschinen einpflanzen. Sie können vom Entwickler stammen oder von einer Ethikkommission. Sie können auch in einem mehrstufigen Verfahren von verschiedenen Interessengruppen entwickelt worden sein. Die Maschinen halten sich strikt an die moralischen Regeln und Werte – dies ist der Normalfall und der Fall bei Maschinen wie GOODBOT, BESTBOT oder HAPPY HEDGEHOG – oder passen sie selbst an. Wenn sie sie selbst anpassen, kann Machine Learning zum Einsatz kommen. Eine Ergänzung ist das Moralmenü, das dem Benutzer oder Besitzer die Auswahl verschiedener Optionen erlaubt. Bei Sprachmodellen gibt es ebenfalls mehrere Möglichkeiten. Dass sie bestimmte Prompts verweigern, wurde ihnen i.d.R. einprogrammiert. Dass sie in eine bestimmte Richtung tendieren, etwa was Atomkraft angeht, kann am Reinforcement Learning from Human Feedback (RLFH) liegen. Das Unternehmen Anthropic, gegründet von ehemaligen Open-AI-Mitarbeitern, trainiert laut The Verge seinen Chatbot Claude – der auf einem Sprachmodell basiert – mit Hilfe von ethischen Prinzipien. Es greift u.a. auf die Allgemeine Erklärung der Menschenrechte der Vereinten Nationen und die Nutzungsbedingungen von Apple zurück. Es handelt sich laut Mitgründer Jared Kaplan um Constitutional AI – im Grunde nichts anderes als eine spezifische Methode der Maschinenethik. Er erklärt: „The basic idea is that instead of asking a person to decide which response they prefer [with RLHF], you can ask a version of the large language model, ‚which response is more in accord with a given principle?'“ (The Verge, 9 May 2023) Im Paper „Constitutional AI: Harmlessness from AI Feedback“ erklärt eine Forschergruppe um Yuntao Bai: „We experiment with methods for training a harmless AI assistant through self-improvement, without any human labels identifying harmful outputs. The only human oversight is provided through a list of rules or principles, and so we refer to the method as ‚Constitutional AI‘. The process involves both a supervised learning and a reinforcement learning phase.“ Das Paper erwähnt Maschinenethik nicht einmal – aber diese Disziplin wird durch die Anwendung bei Sprachmodellen einen weiteren Aufschwung erleben.

Abb.: Der Chatbot Claude (Foto: Anthropic)

Hello Deer, Go Back to the Forest!

We use our natural language, facial expressions and gestures when communicating with our fellow humans. Some of our social robots also have these abilities, and so we can converse with them in the usual way. Many highly evolved animals have a language in which there are sounds and signals that have specific meanings. Some of them – like chimpanzees or gorillas – have mimic and gestural abilities comparable to ours. Britt Selvitelle and Aza Raskin, founders of the Earth Species Project, want to use machine learning to enable communication between humans and animals. Languages, they believe, can be represented not only as geometric structures, but also translated by matching their structures to each other. They say they have started working on whale and dolphin communication. Over time, the focus will broaden to include primates, corvids, and others. It would be important for the two scientists to study not only natural language but also facial expressions, gestures and other movements associated with meaning (they are well aware of this challenge). In addition, there are aspects of animal communication that are inaudible and invisible to humans that would need to be considered. Britt Selvitelle and Aza Raskin believe that translation would open up the world of animals – but it could be the other way around that they would first have to open up the world of animals in order to decode their language. However, should there be breakthroughs in this area, it would be an opportunity for animal welfare. For example, social robots, autonomous cars, wind turbines, and other machines could use animal languages alongside mechanical signals and human commands to instruct, warn and scare away dogs, elks, pigs, and birds. Machine ethics has been developing animal-friendly machines for years. Among other things, the scientists use sensors together with decision trees. Depending on the situation, braking and evasive maneuvers are initiated. Maybe one day the autonomous car will be able to avoid an accident by calling out in deer dialect: Hello deer, go back to the forest!

Fig.: Three fawns

Das fünfte Artefakt der Maschinenethik

Am 8. April 2019 startet an der Hochschule für Wirtschaft FHNW das E-MOMA-Projekt. „E“ steht für „Enhancing“, „MOMA“ für „Moral Machine“. Wenig verfolgt wird in der Maschinenethik bisher der Ansatz, dass die Maschine selbst die Moral weiterentwickelt, etwa indem sie die Regeln adaptiert oder priorisiert, mit Hilfe von Machine Learning, speziell auch Deep Learning. Michael Anderson, Susan Leigh Anderson und Vincent Berenz haben einen NAO-Roboter mit Methoden des Machine Learning moralisch erweitert. Ein Beitrag dazu erschien kürzlich in den Proceedings of the IEEE. Im E-MOMA-Projekt soll eine eigene Implementierung entstehen, die diese Ansätze fortführt. Dabei können z.B. neuronale Netzwerke verwendet werden. Es bietet sich die Implementierung eines Chatbots an, aber auch die Modifizierung von Hardwarerobotern ist möglich. Letztlich geht es darum, eine moralische Maschine in die Welt zu bringen, die ihre Moral anpasst und weiterentwickelt, je nach Situation bzw. je nach eingegebenen Daten. Es ist das fünfte Artefakt der Maschinenethik, das nach Ideen, Skizzen und Vorgaben von Prof. Dr. Oliver Bendel entsteht. Das erste war der GOODBOT von 2013.

Abb.: Ein Vorbild ist der Nao der Andersons

Moralische Maschinen mit maschinellem Lernen

Michael und Susan Leigh Anderson stellen beim Berliner Kolloquium 2019 ihre neuesten Ergebnisse aus der Disziplin der Maschinenethik vor. Üblicherweise werden sogenannten moralischen Maschinen starre Regeln gegeben, an die sie sich sozusagen sklavisch halten. Dies hat einige Vorteile, aber auch ein paar Nachteile, denen man mit Hilfe von maschinellem Lernen entgegentreten kann. Genau diesen Ansatz haben die Andersons zusammen mit einem Forscher vom Max-Planck-Institut für Intelligente Systeme verfolgt, wobei die Altenpflege als Kontext diente: „Contrary to those who regard such a goal as unattainable, Michael and Susan Leigh Anderson … and Vincent Berenz … have succeeded in programming a SoftBank Nao robot with a set of values that determines its behavior while aiding a person in a simulated eldercare environment. This unprecedented accomplishment uses machine learning to enable the robot to discern how each of its actions would satisfy or violate its ethical duties in the current situation and decide the best action to take.“ (Machine Ethics) Die Ergebnisse werden 2019 in den Proceedings of the IEEE publiziert. Der wissenschaftliche Leiter des 23. Berliner Kolloquiums zu Pflegerobotern ist Oliver Bendel. Die Anmeldung erfolgt über die Website der Daimler und Benz Stiftung.

Abb.: Ein Nao-Roboter (Foto: SoftBank/Philippe Dureuil, CC-BY-SA-4.0)

Minds Mastering Machines

Die Minds Mastering Machines ist die Konferenz für Machine Learning und Künstliche Intelligenz. Sie findet in Köln vom 24. bis 26. April 2018 statt. Die Keynote am 25. April hält der Informations- und Maschinenethiker Oliver Bendel aus Zürich zum Thema „Das Moralisieren von Maschinen“. Zur Konferenz steht auf der Website: „Die Einsatzgebiete für Machine-Learning-Ansätze, die den Kern der KI ausmachen, sind vielfältig: Sie reichen von intelligenten Helfern und Bots, die online bei allerlei Aufgaben assistieren, über autonome Fahrzeugen bis hin zur Steuerung komplexer Verkehrsströme. Weitere Beispiele sind Wohnungen, die Heizungen regulieren lernen oder bei auffälligem Verhalten hilfsbedürftiger Bewohner Hilfe herbeirufen, und smarte Fabriken mit Maschinen, die sich selbst optimieren und mögliche Störungen bereits im Vorfeld ankündigen.“ (Website M3) Die Konferenz hat „es sich zum Ziel gesetzt, ihre Besucher beim Schritt von den Visionen der Science-Fiction-Autoren in die technische Realität zu unterstützen“ (Website M3).

Abb.: Von Science-Fiction und Fantasy zur technischen Realität