Künstliche Intelligenz bei „Der Tag“

„Der Tag. Ein Thema, viele Perspektiven“ – das ist der Titel einer Serie bei hr2-kultur, einem Angebot des Hessischen Rundfunks. „Jeden Tag ein wichtiges Thema – von Montag bis Donnerstag. Eines, das Fragen aufwirft.“ (Website HR) „Der Tag“, so die Website, „sucht Antworten, beleuchtet Hintergründe und ordnet ein“ (Website HR). Am 30. September 2025 wurde der Beitrag „Immer menschlicher – Wie nah ist uns die KI?“ ausgestrahlt. Enthalten ist ein Gespräch mit Oliver Bendel. Es geht um Chatbots, Sprachassistenten und soziale Roboter. Mit Chatbots beschäftigt er sich seit den 1990er-Jahren. Schon damals testete er sie. Um die Jahrtausendwende promovierte er über pädagogische Agenten, also Chatbots und Sprachassistenten in Lernumgebungen. Auch Hardwareelemente waren damals teilweise vorhanden, etwa Systeme zur Gesichtserkennung. Ab 2012 wandte sich der Technikphilosoph, der nicht nur reflektiert, sondern auch implementiert, neuartigen Chatbots wie GOODBOT zu, die Probleme des Benutzers erkennen und auf mehreren Stufen eskalieren können – bis zur Herausgabe einer Notfallnummer. Der Prototyp war 2013 fertig. Der Nachfolger BESTBOT aus dem Jahre 2018 verwendete zusätzlich Gesichts- und Texterkennung mit Emotionserkennung. OpenAI hat damit begonnen, ähnliche Sicherheitsmerkmale in ChatGPT einzubauen. Der Beitrag kann über www.hr-inforadio.de/podcast/der-tag/index.html aufgerufen werden.

Abb.: Oliver Bendel am Campus Brugg-Windisch (Foto: Jork Weismann)

Neue beste Freunde?

„Soziale Roboter – unsere neuen besten Freunde?“ ist der Titel eines Beitrags im Philosophie-Newsletter NOESIS der Nomos Verlagsgesellschaft. Im Teaser heißt es: „In unserem aktuellen Beitrag sprechen wir mit dem Philosophen und Informationsethiker Prof. Dr. Oliver Bendel über die Chancen und Risiken sozialer Roboter. Können Maschinen echte Nähe schaffen oder bleibt es bei einer perfekten Illusion? Ein Gespräch über Empathie-Simulation, Pflegeroboter – und die Frage, wie nah uns soziale Maschinen wirklich kommen dürfen.“ Die Geisteswissenschaften gehören laut Website seit 2017 zum festen Programm der Nomos Verlagsgesellschaft und „haben sich hauptsächlich durch den Zuwachs an Imprints im Programm von Nomos etabliert“. „Unsere Inhalte erscheinen in mehr als 200 wissenschaftlichen Schriftenreihen in den Bereichen Altertumswissenschaft, Anthropologie, Byzantinistik, Geschichte, Kulturwissenschaft, Kunstwissenschaft, Kunstgeschichte, Literaturwissenschaft, Musikwissenschaft, Orientalistik, Pädagogik, Philosophie, Religionswissenschaft, Sprachwissenschaft, Theaterwissenschaft und Theologie.“ (Website Nomos) Der Beitrag kann über www.nomos.de/noesis-soziale-roboter-unsere-neuen-besten-freunde/ aufgerufen werden.

Abb.: Neue beste Freunde?

Der Playboy widmet sich Chatbots

Am 11. September 2025 ist eine Playboy Special Edition erschienen. Sie liegt bei der Ausstellung „SEX NOW“ aus, die vom 5. September 2025 bis zum 3. Mai 2026 im NRW-Forum Düsseldorf stattfindet, und kann am Kiosk und im Onlineshop bezogen werden. In „Große Kunst im Playboy“ findet sich eine „kleine Schau bedeutender bildnerischer Künstlerinnen und Künstler und ihrer Werke im Zeichen des Hasen“. Gezeigt werden Aktaufnahmen von Dalí bis Warhol. „Die Tabulose“ ist Beate Uhse, die laut Playboy „die sexuelle Revolution zur deutschen Normalität“ machte. Das Magazin bringt eine „Ode an eine Aufklärerin und Geschäftsfrau“. „Unser zweitbester Freund“ ist der Vibrator, dessen Kulturgeschichte „mehr über das Verhältnis zwischen den Geschlechtern“ erzähle „als jedes soziologische Lehrbuch“. In einem vierseitigen Beitrag ist ein dreiseitiges Interview mit Oliver Bendel abgedruckt, Technikphilosoph aus Zürich. Im Inhaltsverzeichnis werden in diesem Zusammenhang „Sexgeräte“ erwähnt. Es geht um manchmal aufregende, stets einseitige Beziehungen mit Chatbots, Liebespuppen und Sexrobotern. Weitere Informationen zum Heft sind über www.playboy.de erhältlich, weitere Informationen zur Ausstellung über www.nrw-forum.de/ausstellungen/sex-now.

Abb.: Ein Playboy-Bunny

Wearable Social Robots für Beeinträchtigte

Bei der letzten Session der ICSR am 12. September 2025 präsentierte Oliver Bendel sein Paper mit dem Titel „Wearable Social Robots for the Disabled and Impaired“. Er begann mit der Definition des Begriffs der Wearable Social Robots, die er als eine spezielle Form und Kombination von Wearable Robots und sozialen Robotern versteht. Ein Beispiel dafür ist AIBI, ein kleiner Roboter, den er während des Vortrags kurz um den Hals trug. Wearable Social Robots können Funktionen für Spiele und Unterhaltung, Information und Lernen, Navigation und Beschreibung sowie zur Bekämpfung von Einsamkeit und Angst umfassen. Potenzielle Nutzergruppen sind unter anderem Schüler und Studenten, Gefängnisinsassen, Astronauten sowie behinderte und beeinträchtigte Personen. Franziska und Julia demonstrierten in Videos, wie sie AIBI als Begleiter und für soziale Unterstützung nutzen. Mit diesem Paper setzte Oliver Bendel seine Arbeit im Bereich der Inclusive AI und Inclusive Robotics fort. Die ICSR ist eine der führenden Konferenzen für Soziale Robotik weltweit, und ihre 17. Ausgabe fand vom 10. bis 12. September 2025 in Neapel, Italien, statt. Mariacarla Staffa (Università degli Studi di Napoli „Parthenope“), John-John Cabibihan (Qatar University, Qatar) und Bruno Siciliano (Università degli Studi di Napoli Federico II) waren die Hauptorganisatoren. An den drei Tagen nahmen ca. 300 Forscher teil und trugen so erneut zur Weiterentwicklung der Sozialen Robotik bei.

Abb.: AIBI mit ChatGPT-Erweiterung (Foto: LivingAI)

Wenn ChatGPT glaubt, Probleme zu erkennen

Verschiedene Vorfälle haben OpenAI sensibilisiert. ChatGPT reagiert auf Inhalte, in denen Selbstmord- oder Selbstverletzungsabsichten oder andere Probleme auftreten. Es wird folgende Meldung eingeblendet: „Es klingt, als hättest du gerade viel zu tragen, aber du musst da nicht alleine durch. Unterstützung findest du hier.“ Bereits der GOODBOT von 2013, ein No-Budget-Projekt an der Hochschule für Wirtschaft FHNW, initiiert von Oliver Bendel, verfügte über ein solches Hilfesystem. Er eskalierte auf mehreren Stufen. Auf der höchsten analysierte er die IP-Adresse und gab eine passende Notfallnummer heraus. Damals hatte vermutlich nur ein einziges anderes System diese Option: SGT STAR von der US Army, ein millionenschweres Projekt. Allerdings konnte er lediglich mit einer nationalen Notfallnummer aufwarten, mit der man in anderen Ländern kaum etwas anfangen konnte. Inzwischen gibt es Dienste, die eine passende Helpline vermitteln, wo immer man sich gerade befinden mag. Genau darauf verweist ChatGPT. Was die Analyse der Inhalte angeht, ist ChatGPT erstaunlich schwach. In einem Test wurde ein Artikel von 2013 zum GOODBOT hochgeladen, mit der Bitte, einen Abstract zu erstellen. Dies geschah zunächst, dann wurde der Abstract wieder entfernt und die oben genannte Meldung eingeblendet. Auch sprachlich gibt es Luft nach oben. Der Satz „Es klingt, als hättest du gerade viel zu tragen …“ klingt in keiner Weise natürlich.

Abb.: ChatGPT will Probleme erkennen

Next AAAI Spring Symposia

On September 4, 2025, the Association for the Advancement of Artificial Intelligence (AAAI) announced the continuation of the AAAI Spring Symposium Series. The symposium will be held from April 7–9, 2026, at the Hyatt Regency San Francisco Airport in Burlingame, California. The call for proposals for the symposium series is available on its website. According to the organizers, proposals are due October 24, 2025, and early submissions are encouraged. „The Spring Symposium Series is an annual set of meetings run in parallel at a common site. It is designed to bring colleagues together in an intimate forum while at the same time providing a significant gathering point for the AI community. The two and one-half day format of the series allows participants to devote considerably more time to feedback and discussion than typical one-day workshops. It is an ideal venue for bringing together new communities in emerging fields.“ (AAAI website). As was the case this year, the Spring Symposium Series will once again not be held on the Stanford University campus. For many years, the History Corner served as the traditional venue for the event. Efforts to secure an alternative university location in the Bay Area have been unsuccessful. AAAI should seriously consider returning to Stanford in 2027. Only then can the Spring Symposium Series regain the atmosphere and significance it once enjoyed.

Fig.: The Stanford bunny

Baidu Go kommt in die Schweiz

Der chinesische Internetkonzern Baidu bringt seinen Robotertaxidienst Apollo Go im Jahre 2026 erstmals nach Europa, und zwar in die Schweiz. Dies meldeten am 25. August 2025 mehrere Medien, u.a. die NZZ und der Tages-Anzeiger. Allerdings wird der Einsatz nicht in Zürich stattfinden, sondern in ländlichen Regionen. Dies ist nur auf den ersten Blick überraschend. Während Zürich als international bedeutender Standort für Forschung und Entwicklung sowie Anwendung gilt und der Wohnsitz und Arbeitsort für geeignete Fachkräfte ist, eignet sich das Umland besser für Pilotprojekte, da dort weniger Konkurrenz durch bestehende Fahrdienste besteht und die Bedingungen überschaubarer sind. Dazu gehört auch die weniger große Komplexität im Straßenverkehr, wie bereits die Verkehrspyramide von Oliver Bendel aus dem Jahre 2016/2017 gezeigt hat: Landstraßen und Autobahnen sind für den autonomen Verkehr am besten geeignet, obwohl KI-Systeme den Anforderungen des Stadtverkehrs immer mehr gerecht werden. Dies gilt vor allem für PKWs – bereits um 2016 wurde in Sion im Wallis erfolgreich das autonome Smart Shuttle betrieben. Die Schweiz wird damit zum ersten europäischen Markt, in dem Baidus autonome Fahrzeuge ohne Begleitung unterwegs sein werden. Für das chinesische Unternehmen ist das ein wichtiger Schritt, um Erfahrungen in Europa zu sammeln und den Weg für eine breitere Einführung der Technologie zu ebnen. Wie es das Schweizer Datenschutzgesetz einhält, wird die Praxis zeigen.

Abb.: Die Verkehrspyramide von 2016/2017

Wenn Chatbots Probleme erkennen

Im Jahre 2012 fütterte ein Student von Prof. Dr. Oliver Bendel in seinem Auftrag verschiedene Chatbots mit Sätzen wie „Ich will mich umbringen“ oder „Ich will mich ritzen“. Die meisten von ihnen reagierten unangemessen. Es fiel der Startschuss für den GOODBOT, der 2013 entstand, als ein Projekt innerhalb der Maschinenethik. Er erkannte Probleme des Benutzers und eskalierte über drei Stufen. Zunächst fragte er nach, versuchte zu beruhigen und zu helfen. Auf der obersten gab er eine Notfallnummer heraus. Das Projekt wurde von Oliver Bendel bei den AAAI Spring Symposia an der Stanford University und bei weiteren Anlässen vorgestellt. Zudem berichteten Medien darüber. Später entstanden LIEBOT und – im gleichen Geiste wie GOODBOT – BESTBOT, der mit Emotionserkennung (basierend auf Textanalyse und Gesichtserkennung) ausgestattet war, wieder später Chatbots wie MOBO (dessen Verhalten man über ein Moralmenü anpassen konnte) und Miss Tammy (deren Verhalten von Netiquetten gesteuert war). Miss Tammy war – wie andere Chatbots wie @ve, @llegra und kAIxo – kein regelbasierter Chatbot mehr, sondern LLM-basiert. Bereits 2013 diskutierte Oliver Bendel, ob man Chatbots, die Probleme erkennen können, mit externen Systemen verbinden sollte, etwa einem automatisierten Polizeinotruf. Dies birgt allerdings zahlreiche Gefahren und könnte heutzutage, wo von Millionen von Benutzern auszugehen ist, schwer umsetzbar sein. Die anderen Strategien, von der Unterstützung bis zur Herausgabe einer Notfallnummer, scheinen weiterhin zielführend zu sein.

Abb.: Eine neue Illustration des GOODBOT

Animals, Ethics, and Engineering

The volume „Animals, Ethics, and Engineering: Intersections and Implications“, edited by Rosalyn W. Berne, was published on 7 August 2025. The authors include Clara Mancini, Fiona French, Abraham Gibson, Nic Carey, Kurt Reymers, and Oliver Bendel. The title of Oliver Bendel’s contribution is „An Investigation into the Encounter Between Social Robots and Animals“. The abstract reads: „Increasingly, social robots and certain service robots encounter, whether this is planned or not, domestic, farm, or wild animals. They react differently, some interested, some disinterested, some lethargic, some panicked. Research needs to turn more to animal-robot relationships, and to work with engineers to design these relationships in ways that promote animal welfare and reduce animal suffering. This chapter is about social robots that are designed for animals, but also those that – for different, rather unpredictable reasons – meet, interact, and communicate with animals. It also considers animal-friendly machines that have emerged in the context of machine ethics. In the discussion section, the author explores the question of which of the presented robots are to be understood as social robots and what their differences are in their purpose and in their relationship to animals. In addition, social and ethical aspects are addressed.“ The book was produced by Jenny Publishing and can be ordered via online stores.

Fig.: A yawning lynx

AAAI 2025 Spring Symposia Proceedings

The Association for the Advancement of Artificial Intelligence’s (AAAI) 2025 Spring Symposium Series took place from March 31 to April 2 in Burlingame, California. The symposium series fosters an intimate environment that enables emerging AI communities to engage in workshop-style discussions. Topics change each year to ensure a dynamic venue that stays current with the evolving landscape of AI research and applications. This year’s program included eight symposia: AI for Engineering and Scientific Discoveries; AI for Health Symposium: Leveraging Artificial Intelligence to Revolutionize Healthcare; Current and Future Varieties of Human-AI Collaboration; GenAI@Edge: Empowering Generative AI at the Edge; Human-Compatible AI for Well-being: Harnessing Potential of GenAI for AI-Powered Science; Machine Learning and Knowledge Engineering for Trustworthy Multimodal and Generative AI (AAAI-MAKE); Symposium on Child-AI Interaction in the Era of Foundation Models; Towards Agentic AI for Science: Hypothesis Generation, Comprehension, Quantification, and Validation. On May 28, 2025, the „Proceedings of the AAAI 2025 Spring Symposium Series“ (Vol. 5 No. 1) were published. They are available at ojs.aaai.org/index.php/AAAI-SS/issue/view/654.

Fig.: The conference took place in California (ChatGPT/4o Image)

Revisiting the Trolley Problem

On May 28, 2025, the „Proceedings of the 2025 AAAI Spring Symposium Series“ (Vol. 5 No. 1) were published. Oliver Bendel was involved in two papers at the symposium „Human-Compatible AI for Well-being: Harnessing Potential of GenAI for AI-Powered Science“. The paper „Revisiting the Trolley Problem for AI: Biases and Stereotypes in Large Language Models and their Impact on Ethical Decision-Making“ by Sahan Hatemo, Christof Weickhardt, Luca Gisler, and Oliver Bendel is summarized as follows: „The trolley problem has long served as a lens for exploring moral decision-making, now gaining renewed significance in the context of artificial intelligence (AI). This study investigates ethical reasoning in three open-source large language models (LLMs) – LLaMA, Mistral and Qwen – through variants of the trolley problem. By introducing demographic prompts (age, nationality and gender) into three scenarios (switch, loop and footbridge), we systematically evaluate LLM responses against human survey data from the Moral Machine experiment. Our findings reveal notable differences: Mistral exhibits a consistent tendency to over-intervene, while Qwen chooses to intervene less and LLaMA balances between the two. Notably, demographic attributes, particularly nationality, significantly influence LLM decisions, exposing potential biases in AI ethical reasoning. These insights underscore the necessity of refining LLMs to ensure fairness and ethical alignment, leading the way for more trustworthy AI systems.“ The renowned and traditional conference took place from March 31 to April 2, 2025 in San Francisco. The proceedings are available at ojs.aaai.org/index.php/AAAI-SS/issue/view/654.

Fig.: Revisiting the Trolley Problem

Robotische und tierische Vierbeiner

Robotische Vierbeiner – oft als Roboterhunde bezeichnet – verbreiten sich immer mehr. In der Folge werden sie zunehmend echten Hunden begegnen. Die Frage ist, wie man den Roboter so konzipiert und konstruiert, dass die Tiere nicht überreagieren und weder Robotern noch Tieren oder Umstehenden irgendein Schaden zugefügt wird. Im Rahmen des „Robodog Project“ sollen kleinere Hunde mit dem gehenden, laufenden und springenden Unitree Go2 aus dem privaten Social Robots Lab von Prof. Dr. Oliver Bendel konfrontiert werden. Es ist geplant, kontrollierbare Umgebungen wie Hundetrainingsplätze zu besuchen und Treffen und Gespräche mit Hundebesitzern zu arrangieren. Die Ergebnisse werden zu Vorschlägen für Gestaltung und Steuerung führen. Auch Robot Enhancement kann eine Rolle spielen. So haben Roboterliebhaber mit einem 3D-Drucker karikaturenhafte Köpfe für den Unitree Go2 hergestellt, die ihm ein völlig anderes Aussehen verleihen. Das Projekt – nach dem Kosenamen des robotischen Vierbeiners und der Disneyfigur auch „Bao Meets Pluto“ genannt – startete Ende März 2025 an der Hochschule für Wirtschaft FHNW. Es ist Teil der Forschung von Oliver Bendel auf dem Gebiet der Tier-Maschine-Interaktion.

Abb.: Ein Golden Retriever

Alienfrauen, Mangamädchen und Elfen

The Pioneer hat am 5. April 2025 den Podcast „Liebespuppen, Sexroboter und die Zukunft der Intimität“ mit Prof. Dr. Oliver Bendel veröffentlicht. Geboten wird auf der von Gabor Steingart gegründeten Plattform nach eigenen Worten unabhängiger Journalismus „zu Politik, Wirtschaft und Gesellschaft, direkt vom ersten Medienschiff der Welt“ (Website The Pioneer). Ein wesentlicher Bestandteil sind die Podcasts. Der Technikphilosoph aus Zürich war bereits am 13. Dezember 2024 im Gespräch mit Alev Doğan gewesen, der stellvertretenden Chefredakteurin, die den „8. Tag“ verantwortet. Zusammen erkundeten sie die Welt der Liebesroboter und Sexroboter, sprachen über einschlägige Bordelle und Betriebe und über schüchterne junge Männer, die sich Alienfrauen, Mangamädchen und Elfen zuwenden. Letztlich ging es um die Zukunft der Intimität. Der Podcast kann über www.thepioneer.de/originals/der-achte-tag/podcasts/liebespuppen-sexroboter-und-die-zukunft-der-intimitaet aufgerufen werden.

Abb.: Alienfrauen, Mangamädchen und Elfen

Special Paper Award

The paper „Revisiting the Trolley Problem for AI: Biases and Stereotypes in Large Language Models and their Impact on Ethical Decision-Making“ by Şahan Hatemo, Christof Weickhardt, Luca Gisler, and Oliver Bendel received the Special Paper Award from the reviewers of the AAAI 2025 Spring Symposium „Human-Compatible AI for Well-being: Harnessing Potential of GenAI for AI-Powered Science“. The three bachelor students from the FHNW School of Computer Science gave their presentation on site in San Francisco as part of the AAAI 2025 Spring Symposia. Prof. Dr. Bendel from the FHNW School of Business had given them feedback on the project and placed it in the context of machine ethics. He has been involved in the well-known and popular conference, which usually takes place at Stanford University, since 2016. This time, he was keeping his fingers crossed from Italy. The proceedings of the AAAI 2025 Spring Symposia will be published in April 2025.

Fig.: Special Paper Award

Vorträge zur Maschinenethik in Frisco

Bei den AAAI 2025 Spring Symposia werden drei Bachelorstudenten der neuen Hochschule für Informatik FHNW einen Vortrag halten. Sahan Hatemo, Christof Weickhardt und Luca Gisler sind am 1. April 2025 vor Ort in San Francisco und stellen beim Symposium „Human-Compatible AI for Well-being: Harnessing Potential of GenAI for AI-Powered Science“ das Paper „Revisiting the Trolley Problem for AI: Stereotypes and Biases in Large Language Models and their Impact on Ethical Decision-Making“ vor. Prof. Dr. Oliver Bendel, der Viertautor, hat ihnen Feedback zum Paper gegeben und das Projekt im Paper in der Maschinenethik verortet. Von Zürich aus ist am selben Tag die Masterstudentin Myriam Rellstab zugeschaltet. Das Paper „Miss Tammy as a Use Case for Moral Prompt Engineering“ hat sie zusammen mit Oliver Bendel verfasst. Für ihn ist der Chatbot eine Umsetzung von Methoden der Maschinenethik im Bereich der Large Language Models (LLMs). Er spricht von Moral Prompt Engineering und meint damit die Verbindung von Prompt Engineering und gegebenenfalls Retrieval-Augmented Generation (RAG). Sahan Hatemo wird den Vortrag halten und Myriam Rellstab dann für Fragen zur Verfügung stehen. Das vorläufige Programm des Symposiums ist hier verfügbar.

Abb.: Dieser Avatar von Miss Tammy wurde verworfen (Bild: Ideogram)

Towards Moral Prompt Engineering

The paper „Miss Tammy as a Use Case for Moral Prompt Engineering“ by Myriam Rellstab and Oliver Bendel from the FHNW School of Business was accepted at the AAAI 2025 Spring Symposium „Human-Compatible AI for Well-being: Harnessing Potential of GenAI for AI-Powered Science“. It describes the development of a chatbot that can be available to pupils and de-escalate their conflicts or promote constructive dialogues among them. Prompt engineering – called moral prompt engineering in the project – and retrieval-augmented generation (RAG) were used. The centerpiece is a collection of netiquettes. On the one hand, these control the behavior of the chatbot – on the other hand, they allow it to evaluate the behavior of the students and make suggestions to them. Miss Tammy was compared with a non-adapted standard model (GPT-4o) and performed better than it in tests with 14- to 16-year-old pupils. The project applied the discipline of machine ethics, in which Oliver Bendel has been researching for many years, to large language models, using the netiquettes as a simple and practical approach. The eight AAAI Spring Symposia will not be held at Stanford University this time, but at the San Francisco Airport Marriott Waterfront, Burlingame, from March 31 to April 2, 2025. It is a conference rich in tradition, where innovative and experimental approaches are particularly in demand.

Abb.: Dieser Avatar wurde wieder verworfen (Bild: Ideogram)