Der Playboy widmet sich Chatbots

Am 11. September 2025 ist eine Playboy Special Edition erschienen. Sie liegt bei der Ausstellung „SEX NOW“ aus, die vom 5. September 2025 bis zum 3. Mai 2026 im NRW-Forum Düsseldorf stattfindet, und kann am Kiosk und im Onlineshop bezogen werden. In „Große Kunst im Playboy“ findet sich eine „kleine Schau bedeutender bildnerischer Künstlerinnen und Künstler und ihrer Werke im Zeichen des Hasen“. Gezeigt werden Aktaufnahmen von Dalí bis Warhol. „Die Tabulose“ ist Beate Uhse, die laut Playboy „die sexuelle Revolution zur deutschen Normalität“ machte. Das Magazin bringt eine „Ode an eine Aufklärerin und Geschäftsfrau“. „Unser zweitbester Freund“ ist der Vibrator, dessen Kulturgeschichte „mehr über das Verhältnis zwischen den Geschlechtern“ erzähle „als jedes soziologische Lehrbuch“. In einem dreiseitigen Interview kommt der Technikphilosoph Oliver Bendel aus Zürich zu Wort. Im Inhaltsverzeichnis werden in diesem Zusammenhang „Sexgeräte“ erwähnt. Es geht um manchmal aufregende, stets einseitige Beziehungen mit Chatbots, Liebespuppen und Sexrobotern. Weitere Informationen zum Heft sind über www.playboy.de erhältlich, weitere Informationen zur Ausstellung über www.nrw-forum.de/ausstellungen/sex-now.

Abb.: Ein Playboy-Bunny

Wearable Social Robots im Weltraum

Am 10. September 2025 präsentierten Tamara Siegmann und Oliver Bendel ihr Paper „Wearable Social Robots in Space“ während der Postersession der ICSR, einer der führenden Konferenzen für Soziale Robotik weltweit. Die 17. Ausgabe fand vom 10. bis 12. September 2025 in Neapel statt. Der Begriff der Wearable Social Robots wurde von Oliver Bendel in seinem Artikel „Wearable Robots“ und in seinem Paper „Wearable Social Robots for the Disabled and Impaired“ (beide aus dem Jahre 2025) eingeführt. Dabei handelt es sich um soziale Roboter mit Merkmalen von Wearables und Wearable Robots. Ein Beispiel ist AIBI von LivingAI. Tamara Siegmann und Oliver Bendel, beide von der Hochschule für Wirtschaft FHNW, untersuchten die Möglichkeiten des Einsatzes tragbarer sozialer Roboter bei einer Marsmission. Sie zeigten, dass diese Roboter nützlich für die Unterstützung im Alltag, betriebliche Assistenz, Unterstützung im Bereich der Intimität, Verbesserung der Kommunikation und soziale Förderung sind. Dies ist vermutlich die erste Studie dieser Art. Es kann jedoch auf mehrere Projekte verwiesen werden, die humanoide und soziale Roboter für Raumfahrtmissionen beinhalten. Das Poster kann hier heruntergeladen werden.

Abb.: Wearable Social Robots können Astronauten helfen

Wenn ChatGPT glaubt, Probleme zu erkennen

Verschiedene Vorfälle haben OpenAI sensibilisiert. ChatGPT reagiert auf Inhalte, in denen Selbstmord- oder Selbstverletzungsabsichten oder andere Probleme auftreten. Es wird folgende Meldung eingeblendet: „Es klingt, als hättest du gerade viel zu tragen, aber du musst da nicht alleine durch. Unterstützung findest du hier.“ Bereits der GOODBOT von 2013, ein No-Budget-Projekt an der Hochschule für Wirtschaft FHNW, initiiert von Oliver Bendel, verfügte über ein solches Hilfesystem. Er eskalierte auf mehreren Stufen. Auf der höchsten analysierte er die IP-Adresse und gab eine passende Notfallnummer heraus. Damals hatte vermutlich nur ein einziges anderes System diese Option: SGT STAR von der US Army, ein millionenschweres Projekt. Allerdings konnte er lediglich mit einer nationalen Notfallnummer aufwarten, mit der man in anderen Ländern kaum etwas anfangen konnte. Inzwischen gibt es Dienste, die eine passende Helpline vermitteln, wo immer man sich gerade befinden mag. Genau darauf verweist ChatGPT. Was die Analyse der Inhalte angeht, ist ChatGPT erstaunlich schwach. In einem Test wurde ein Artikel von 2013 zum GOODBOT hochgeladen, mit der Bitte, einen Abstract zu erstellen. Dies geschah zunächst, dann wurde der Abstract wieder entfernt und die oben genannte Meldung eingeblendet. Auch sprachlich gibt es Luft nach oben. Der Satz „Es klingt, als hättest du gerade viel zu tragen …“ klingt in keiner Weise natürlich.

Abb.: ChatGPT will Probleme erkennen

Next AAAI Spring Symposia

On September 4, 2025, the Association for the Advancement of Artificial Intelligence (AAAI) announced the continuation of the AAAI Spring Symposium Series. The symposium will be held from April 7–9, 2026, at the Hyatt Regency San Francisco Airport in Burlingame, California. The call for proposals for the symposium series is available on its website. According to the organizers, proposals are due October 24, 2025, and early submissions are encouraged. „The Spring Symposium Series is an annual set of meetings run in parallel at a common site. It is designed to bring colleagues together in an intimate forum while at the same time providing a significant gathering point for the AI community. The two and one-half day format of the series allows participants to devote considerably more time to feedback and discussion than typical one-day workshops. It is an ideal venue for bringing together new communities in emerging fields.“ (AAAI website). As was the case this year, the Spring Symposium Series will once again not be held on the Stanford University campus. For many years, the History Corner served as the traditional venue for the event. Efforts to secure an alternative university location in the Bay Area have been unsuccessful. AAAI should seriously consider returning to Stanford in 2027. Only then can the Spring Symposium Series regain the atmosphere and significance it once enjoyed.

Fig.: The Stanford bunny

VISUAL-Video

Zum Projekt VISUAL liegt seit 29. August 2025 ein Video vor, das das System im Betrieb zeigt. „VISUAL“ steht für „Virtual Inclusive Safaris for Unique Adventures and Learning“. Überall auf der Welt gibt es Webcams, die wilde Tiere zeigen. Sehende können sie nutzen, um bequem vom Sofa aus auf Foto- bzw. Videosafari zu gehen. Blinde und sehbehinderte Menschen sind dabei im Nachteil. Im Projekt wurde im Rahmen von Inclusive AI ein Prototyp speziell für sie entwickelt. Es werden weltweit öffentliche Webcams angezapft, die auf Wildtiere gerichtet sind. Man kann sich zwischen mehreren Lebensräumen auf dem Boden oder im Wasser entscheiden. Zudem kann man „Adult“ oder „Child“ als Profil und eine Rolle („Safari Adventurer“, „Field Scientist“, „Calm Observer“) auswählen. Wenn man das Livevideo aufruft, werden drei Screenshots angefertigt und zu einem Bündel zusammengefügt. Dieses wird von GPT-4o, einem MLLM, analysiert und evaluiert. Der Benutzer bekommt dann die Beschreibung der Szene und der Aktivitäten vorgesprochen. Das Projekt dürfte eines der ersten sein, das Inclusive AI mit neuen Ansätzen der Animal-Computer Interaction (ACI) verbindet. Das Video kann über www.informationsethik.net/videos/ abgerufen werden.

Abb.: Die Wildnis im Wohnzimmer

Animals, Ethics, and Engineering

The volume „Animals, Ethics, and Engineering: Intersections and Implications“, edited by Rosalyn W. Berne, was published on 7 August 2025. The authors include Clara Mancini, Fiona French, Abraham Gibson, Nic Carey, Kurt Reymers, and Oliver Bendel. The title of Oliver Bendel’s contribution is „An Investigation into the Encounter Between Social Robots and Animals“. The abstract reads: „Increasingly, social robots and certain service robots encounter, whether this is planned or not, domestic, farm, or wild animals. They react differently, some interested, some disinterested, some lethargic, some panicked. Research needs to turn more to animal-robot relationships, and to work with engineers to design these relationships in ways that promote animal welfare and reduce animal suffering. This chapter is about social robots that are designed for animals, but also those that – for different, rather unpredictable reasons – meet, interact, and communicate with animals. It also considers animal-friendly machines that have emerged in the context of machine ethics. In the discussion section, the author explores the question of which of the presented robots are to be understood as social robots and what their differences are in their purpose and in their relationship to animals. In addition, social and ethical aspects are addressed.“ The book was produced by Jenny Publishing and can be ordered via online stores.

Fig.: A yawning lynx

The Robodog Project

Animal-machine interaction (AMI) is a discipline or field of work that deals with the interaction between animals and machines. This is how Prof. Dr. Oliver Bendel explains it in the Gabler Wirtschaftslexikon. It is primarily concerned with the design, evaluation, and implementation of complex machines and computer systems with which animals interact and which in turn interact and communicate with animals. There are close links to animal-computer interaction (ACI). Increasingly, the machine is a robot that is either remote-controlled or (partially) autonomous. In „The Robodog Project“ (also known as „Bao Meets Pluto„), the encounters between robotic quadrupeds and small to medium-sized dogs are explored. The project collaborator is Selinar Rohr, who is writing her bachelor’s thesis in this context. The walking, running, and jumping Unitree Go2 from Oliver Bendel’s private Social Robots Lab is in its original state or is wearing a head made with a 3D printer provided by Norman Eskera. The project is being carried out at the FHNW School of Business and will end on August 12, 2025, after which the results will be presented to the community and, if possible, to the general public.

Fig.: A drawing of Unitree Go2 (Image: Unitree)

Opportunities and Risks of Human-Likeness

The Research Topic „Exploring human-likeness in AI: From perception to ethics and interaction dynamics“, hosted by Frontiers in Cognition, invites submissions on how human-like features in robots and AI systems influence user perception, trust, interaction, and ethical considerations. As AI becomes more integrated into society, anthropomorphic design raises pressing questions: Do human-like traits improve communication and acceptance, or do they lead to unrealistic expectations? What ethical implications arise when machines simulate empathy or emotion? This interdisciplinary call welcomes contributions from fields such as psychology, engineering, philosophy, and education. Submissions may include empirical research, theoretical analysis, reviews, or case studies that explore how human-likeness shapes the way we engage with AI. The deadline for manuscript summaries is September 22, 2025; full manuscripts are due by January 10, 2026. Articles will undergo peer review and are subject to publication fees upon acceptance. Topic editors are Dr. Katharina Kühne (University of Potsdam, Germany) and Prof. Dr. Roger K. Moore (The University of Sheffield, United Kingdom). For full details and submission guidelines, visit: www.frontiersin.org/research-topics/72370/exploring-human-likeness-in-ai-from-perception-to-ethics-and-interaction-dynamics.

Fig.: Opportunities and risks of human-likeness

Wenn Maschinen besser sehen und hören als wir

„Tech Affair ist der VDW-Podcast zur zukunftsfähigen Industrie. Wissenschaftler sprechen mit Praktikern über aktuelle Entwicklungen und Ideen für eine Industrie mit und für Menschen. Welche neuen Technologien haben das Zeug, unsere Industrie zukunftsfähig zu machen? Wie sehen morgen unsere Arbeitsplätze aus? Lernen wir aus den Krisen unserer Zeit? Tech Affair bietet spannende Einblicke.“ (Website VDW) So heißt es auf der Website des VDW. Die neueste Folge mit Prof. Dr. Jan Peters (TU Darmstadt) und Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW) beschäftigt sich mit Industrie- und Servicerobotern und ihren Sensoren. Dazu heißt es auf der Website: „Roboter, die Unebenheiten auf Oberflächen millimetergenau ertasten können, austretende Schadstoffe sofort riechen oder mit uns kommunizieren, indem sie reagieren und antworten. All dies entspringt keiner Science-Fiction-Geschichte, sondern ist dank intensiver Forschung schon Realität. Die Sensoren von Robotern sind teilweise inzwischen so weit fortgeschritten, dass sie unsere menschlichen Sinne um ein Vielfaches übertreffen. Und das, obwohl diese Sinne von den Robotern lediglich imitiert werden, durch Kameras, Mikrofone, Geruchssensoren oder Kontaktsensoren.“ (Website VDW) Der Podcast kann über vdw.de/podcast/folge-19-robotik-wenn-maschinen-feinere-sinne-entwickeln-als-wir/ aufgerufen werden.

Abb.: Wenn Maschinen besser sehen und hören als wir

Soll man nett zu einem Chatbot sein?

Der Spiegel hat mit Prof. Dr. Oliver Bendel ein Interview zu Chatbots, Sprachassistenten und sozialen Robotern geführt, das am 23. Juni 2025 veröffentlicht wurde. Es geht u.a. um Dialoge mit Artefakten. Der Technikphilosoph hält es für unproblematisch, danke und bitte zu einem Chatbot oder einem Sprachassistenten zu sagen. Damit überträgt man einfach bestehende Konventionen. Zudem reagiert ein LLM wie GPT-4o anders, wenn man zugewandt und ausführlich ist. Man erhält oft längere und hilfreichere Antworten und auch hilfreichere Rückfragen. Etwas anderes ist es, wenn es nicht nur um Konventionen, sondern auch um Emotionen geht. Wenn man dem Chatbot gegenüber sein Herz ausschüttet, muss einem klar sein, dass auf der einen Seite nichts ist, was sich für einen interessiert oder das versteht, was Menschen wünschen und brauchen. Hier liegen Täuschung und Betrug nahe, wie Oliver Bendel mit seinen Kollegen auch im Jahre 2023 in einer Studie zu sozialen Robotern herausgearbeitet hat. Das Interview kann über www.spiegel.de aufgerufen werden.

Abb.: Soll man nett zu einem Chatbot sein?

Book on Animals, Ethics, and Engineering

The edited volume „Animals, Ethics, and Engineering: Intersections and Implications“ will be published by Jenny Stanford in August 2025. It can already be pre-ordered via online stores. These provide the following information: „‚Animals, Ethics, and Engineering: Intersections and Implications‘ is a seminal work that explores the intricate relationship between technology, ethics, and the welfare of nonhuman animals. Edited by Rosalyn W. Berne, this volume brings together leading scholars and practitioners to examine the ethical responsibilities inherent in technological progress and its impact on animal well-being.“ (Information Publisher) The authors include Clara Mancini, Fiona French, Abraham Gibson, Nic Carey, Kurt Reymers, and Oliver Bendel. Rosalyn W. Berne is the Anne Shirley Carter Olsson Professor of Applied Ethics and Chair of the Department of Engineering and Society, School of Engineering and Applied Sciences, University of Virginia, where she has been a faculty member since 1999 and co-directs the Online Ethics Center for Engineering and Science (OEC).

Fig.: Animals, Ethics, and Engineering

AAAI 2025 Spring Symposia Proceedings

The Association for the Advancement of Artificial Intelligence’s (AAAI) 2025 Spring Symposium Series took place from March 31 to April 2 in Burlingame, California. The symposium series fosters an intimate environment that enables emerging AI communities to engage in workshop-style discussions. Topics change each year to ensure a dynamic venue that stays current with the evolving landscape of AI research and applications. This year’s program included eight symposia: AI for Engineering and Scientific Discoveries; AI for Health Symposium: Leveraging Artificial Intelligence to Revolutionize Healthcare; Current and Future Varieties of Human-AI Collaboration; GenAI@Edge: Empowering Generative AI at the Edge; Human-Compatible AI for Well-being: Harnessing Potential of GenAI for AI-Powered Science; Machine Learning and Knowledge Engineering for Trustworthy Multimodal and Generative AI (AAAI-MAKE); Symposium on Child-AI Interaction in the Era of Foundation Models; Towards Agentic AI for Science: Hypothesis Generation, Comprehension, Quantification, and Validation. On May 28, 2025, the „Proceedings of the AAAI 2025 Spring Symposium Series“ (Vol. 5 No. 1) were published. They are available at ojs.aaai.org/index.php/AAAI-SS/issue/view/654.

Fig.: The conference took place in California (ChatGPT/4o Image)

Revisiting the Trolley Problem

On May 28, 2025, the „Proceedings of the 2025 AAAI Spring Symposium Series“ (Vol. 5 No. 1) were published. Oliver Bendel was involved in two papers at the symposium „Human-Compatible AI for Well-being: Harnessing Potential of GenAI for AI-Powered Science“. The paper „Revisiting the Trolley Problem for AI: Biases and Stereotypes in Large Language Models and their Impact on Ethical Decision-Making“ by Sahan Hatemo, Christof Weickhardt, Luca Gisler, and Oliver Bendel is summarized as follows: „The trolley problem has long served as a lens for exploring moral decision-making, now gaining renewed significance in the context of artificial intelligence (AI). This study investigates ethical reasoning in three open-source large language models (LLMs) – LLaMA, Mistral and Qwen – through variants of the trolley problem. By introducing demographic prompts (age, nationality and gender) into three scenarios (switch, loop and footbridge), we systematically evaluate LLM responses against human survey data from the Moral Machine experiment. Our findings reveal notable differences: Mistral exhibits a consistent tendency to over-intervene, while Qwen chooses to intervene less and LLaMA balances between the two. Notably, demographic attributes, particularly nationality, significantly influence LLM decisions, exposing potential biases in AI ethical reasoning. These insights underscore the necessity of refining LLMs to ensure fairness and ethical alignment, leading the way for more trustworthy AI systems.“ The renowned and traditional conference took place from March 31 to April 2, 2025 in San Francisco. The proceedings are available at ojs.aaai.org/index.php/AAAI-SS/issue/view/654.

Fig.: Revisiting the Trolley Problem

A Use Case for Moral Prompt Engineering

On May 28, 2025, the „Proceedings of the 2025 AAAI Spring Symposium Series“ (Vol. 5 No. 1) were published. Oliver Bendel was involved in two papers at the symposium „Human-Compatible AI for Well-being: Harnessing Potential of GenAI for AI-Powered Science“. The paper „Miss Tammy as a Use Case for Moral Prompt Engineering“ by Myriam Rellstab and Oliver Bendel is summarized as follows: „This paper describes an LLM-based chatbot as a use case for moral prompt engineering. Miss Tammy, as it is called, was created between February 2024 and February 2025 at the FHNW School of Business as a custom GPT. Different types of prompt engineering were used. In addition, RAG was applied by building a knowledge base with a collection of netiquettes. These usually guide the behavior of users in communities but also seem to be useful to control the actions of chatbots and make them competent in relation to the behavior of humans. The tests with pupils aged between 14 and 16 showed that the custom GPT had significant advantages over the standard GPT-4o model in terms of politeness, appropriateness, and clarity. It is suitable for de-escalating conflicts and steering dialogues in the right direction. It can therefore contribute to users’ well-being and is a step forward in human-compatible AI.“ The renowned and traditional conference took place from March 31 to April 2, 2025 in San Francisco. The proceedings are available at ojs.aaai.org/index.php/AAAI-SS/issue/view/654.

Fig.: Miss Tammy

Wenn Maschinen Gefühle haben

In der Zeitschrift Chip (6/2025), erschienen Anfang Mai 2025, findet sich unter dem Titel „Wenn Maschinen Gefühle haben“ ein dreiseitiges Interview mit Prof. Dr. Oliver Bendel. Der Technikphilosoph glaubt nicht, dass KI-Systeme jemals etwas empfinden und dass sie leiden können. Er glaubt nicht, dass sie jemals Glück empfinden können. In der Tierethik gehe man davon aus, dass etwas Rechte haben kann, wenn es empfinden und leiden kann – und das Glück müsse man unbedingt hinzunehmen. Ganz offensichtlich haben die meisten Tiere – so der Technikphilosoph, der sich in seinem Studium der Philosophie auch der Tierethik gewidmet hat – moralische Rechte. Und ganz offensichtlich haben KI-Systeme oder soziale Roboter keine. Er sieht nicht, wie sie mit generativer KI zum Empfinden und Leiden kommen könnten. Es existiere auch keinerlei Hinweis darauf, wenn man vom Marketing von Unternehmen und Evangelisten absehe. Seinem Interviewpartner Thomas Raukamp gegenüber hatte er ausgeführt: „Wenn eine Simulationsmaschine immer besser simuliert, bedeutet das nicht, dass sie plötzlich keine Simulationsmaschine mehr ist. Sie ist nur eine immer bessere Simulationsmaschine. Es gibt keinen Sprung zum Leben, es gibt keinen Sprung zum Bewusstsein, es gibt keinen Sprung zum Empfinden, Leiden und Glück. Sie verbleibt in der Simulation.“ Der Artikel ist in der Jubiläumsausgabe erschienen, der 555. Ausgabe der Zeitschrift, und kann am Kiosk oder über chip-shop.de bezogen werden.

Abb.: Das Inhaltsverzeichnis der Zeitschrift Chip (6/2025)

14 Concepts and Artifacts in the Field of ACI

Since 2012, Oliver Bendel has developed 14 concepts and artifacts in the field of animal-computer interaction (ACI) or animal-machine interaction (AMI) together with his students. They can be divided into three categories. The first are animal- and nature-friendly concepts. The second are animal-friendly machines and systems (i.e., forms of moral machines). The third are animal-inspired machines and systems that replace the animals or bring them closer to you. Articles and book chapters have been published on many of the projects. The names of the developers can be found in these. A few prototypes made it into the media, such as LADYBIRD and HAPPY HEDGEHOG. Oliver Bendel repeatedly refers to Clara Mancini, the pioneer in the field of animal-computer interaction. Recently, ethicists such as Peter Singer have also turned their attention to the topic. Current projects include „Robodog“ (in which a robot dog meets real dogs) and „VISUAL“ (which is designed to enable photo safaris for the blind).

Fig.: 14 concepts and artifacts