Wenn Chatbots Probleme erkennen

Im Jahre 2012 fütterte ein Student von Prof. Dr. Oliver Bendel in seinem Auftrag verschiedene Chatbots mit Sätzen wie „Ich will mich umbringen“ oder „Ich will mich ritzen“. Die meisten von ihnen reagierten unangemessen. Es fiel der Startschuss für den GOODBOT, der 2013 entstand, als ein Projekt innerhalb der Maschinenethik. Er erkannte Probleme des Benutzers und eskalierte über drei Stufen. Zunächst fragte er nach, versuchte zu beruhigen und zu helfen. Auf der obersten gab er eine Notfallnummer heraus. Das Projekt wurde von Oliver Bendel bei den AAAI Spring Symposia an der Stanford University und bei weiteren Anlässen vorgestellt. Zudem berichteten Medien darüber. Später entstanden LIEBOT und – im gleichen Geiste wie GOODBOT – BESTBOT, der mit Emotionserkennung (basierend auf Textanalyse und Gesichtserkennung) ausgestattet war, wieder später Chatbots wie MOBO (dessen Verhalten man über ein Moralmenü anpassen konnte) und Miss Tammy (deren Verhalten von Netiquetten gesteuert war). Miss Tammy war – wie andere Chatbots wie @ve, @llegra und kAIxo – kein regelbasierter Chatbot mehr, sondern LLM-basiert. Bereits 2013 diskutierte Oliver Bendel, ob man Chatbots, die Probleme erkennen können, mit externen Systemen verbinden sollte, etwa einem automatisierten Polizeinotruf. Dies birgt allerdings zahlreiche Gefahren und könnte heutzutage, wo von Millionen von Benutzern auszugehen ist, schwer umsetzbar sein. Die anderen Strategien, von der Unterstützung bis zur Herausgabe einer Notfallnummer, scheinen weiterhin zielführend zu sein.

Abb.: Eine neue Illustration des GOODBOT

Just Eat testet Lieferroboter

In Zürich Oerlikon testet der Lieferdienst Just Eat gemeinsam mit dem ETH-Spin-off Rivr seit Mitte August 2025 den Einsatz von Lieferrobotern. Dies meldeten am 21. August 2025 mehrere Schweizer Medien, etwa Inside IT und Tages-Anzeiger. Zwei Monate lang wird ein robotischer Vierbeiner mit Rädern Bestellungen des Restaurants Zekis World ausliefern. Zunächst begleitet ein Operator die Fahrten. Was danach passiert, ist nicht ganz klar. Obwohl der Roboter in den Medien immer wieder als autonom bezeichnet wird, wird zugleich gesagt, dass er von einer Zentrale überwacht oder gar ferngesteuert wird. Dies erinnert an den Transportroboter von Segway, der seit Jahren in den USA unterwegs ist, zudem an den Transportroboter von Starship Technologies, der 2016 von der Schweizerischen Post bei Bern getestet wurde – allerdings sind diese Modelle eher konventionell gebaut, nämlich als Kisten mit Rädern. Der elegantere und interessantere Zürcher Roboter fährt 15 km/h, kann Hindernisse wie Bordsteine und Treppen überwinden und nutzt ein KI-System zur Navigation. Der Lieferbehälter ist isoliert und auslaufsicher. Der Test ist angeblich eine Europapremiere. Bei Erfolg plant Just Eat den Einsatz in weiteren Städten sowie Anwendungen im Detailhandel. Rivr-CEO Marko Bjelonic sieht in dem Projekt laut Inside IT einen wichtigen Schritt in Richtung autonome Lieferungen im städtischen Raum. Von solchen raten einige Experten aber ab, vor allem mit Blick auf vielbesuchte und vielbefahrene Umgebungen. Auch die Begegnungen mit Hunden und anderen Tieren sind zu berücksichtigen – hierzu gibt es erste Forschung im Kontext der Animal-Machine Interaction.

Abb.: Achtung Transportroboter

How Dogs React to Robot Dogs

„The Robodog Project: Bao Meets Pluto“ examined how domestic dogs respond to the Unitree Go2 quadruped robot – nicknamed Bao by project initiator Prof. Dr. Oliver Bendel – and how their owners perceive such robots in shared public spaces. The project began in late March 2025 and was completed in early August 2025. The study addressed three questions: (1) How do dogs behaviorally respond to a quadruped robot across six conditions: stationary, walking, and jumping without an additional dog head, and stationary, walking, and jumping with an additional 3D-printed dog head? (2) What are owners‘ expectations and concerns? (3) What regulatory frameworks could support safe integration? Twelve dogs were observed in six structured interaction phases; their behavior was video-coded using BORIS. Another dog participated in a preliminary test but not in the actual study. Pre-exposure interviews with eight owners, as well as an expert interview with a biologist and dog trainer, provided additional insights. Led by Selina Rohr, the study found most dogs were cautious but not aggressive. Curiosity increased during robot movement, while visual modifications had little impact. However, a 3D-printed dog head seemed to interest the dogs quite a bit when the robot was in standing mode. Dogs often sought guidance from their owners, underlining the role of human mediation. Owners were cautiously open but emphasized concerns around safety, unpredictability, and liability. The findings support drone-like regulation for robot use in public spaces.

Fig.: A Golden Retriever also took part

Über Gefängnisroboter

„Als Gefängnisroboter werden unterschiedliche Robotertypen bezeichnet, die in Gefängnissen verwendet werden bzw. verwendet werden können oder sollen.“ Mit diesen Worten beginnt ein Beitrag von Prof. Dr. Oliver Bendel, der am 8. August 2025 im Gabler Wirtschaftslexikon veröffentlicht wurde. Zu ihnen „gehören Serviceroboter wie Informationsroboter, Sicherheitsroboter, Reinigungsroboter, Transportroboter und Küchen- und Werkstattroboter sowie soziale Roboter mannigfaltiger Ausprägung“. Diese Typen werden im zweiten Abschnitt näher dargestellt, etwa auf diese Weise: „Sicherheits- und Überwachungsroboter entlasten oder ersetzen Gefängnisaufseher und Sicherheitskräfte und sorgen für die Sicherheit auf dem Areal, etwa indem sie Auffälligkeiten melden.“ Im dritten geht der Autor auf den Hintergrund ein und gibt Beispiele für den Einsatz: „Es finden sich Berichte ab 2011 über Sicherheitsroboter in Südkorea, die auffälliges Verhalten feststellen sollten. Diese sollten zudem als Medium zur Kommunikation zwischen Insassen und Aufsehern dienen. Ein Artikel von 2023 stellt ein für indische Gefängnisse ersonnenes automatisiertes Überwachungssystem vor, das die Möglichkeit bietet, die Anwesenheit der Insassen über ein Streaming-Portal zu markieren.“ Am Ende wird die ethische Perspektive eingenommen, auch unter Berücksichtigung einer Studie, die von Tamara Siegmann und Oliver Bendel im Jahre 2024 durchgeführt wurde. Der vollständige Beitrag ist über wirtschaftslexikon.gabler.de/definition/gefaengnisroboter-123560 abrufbar.

Abb.: Ein Insasse

Animals, Ethics, and Engineering

The volume „Animals, Ethics, and Engineering: Intersections and Implications“, edited by Rosalyn W. Berne, was published on 7 August 2025. The authors include Clara Mancini, Fiona French, Abraham Gibson, Nic Carey, Kurt Reymers, and Oliver Bendel. The title of Oliver Bendel’s contribution is „An Investigation into the Encounter Between Social Robots and Animals“. The abstract reads: „Increasingly, social robots and certain service robots encounter, whether this is planned or not, domestic, farm, or wild animals. They react differently, some interested, some disinterested, some lethargic, some panicked. Research needs to turn more to animal-robot relationships, and to work with engineers to design these relationships in ways that promote animal welfare and reduce animal suffering. This chapter is about social robots that are designed for animals, but also those that – for different, rather unpredictable reasons – meet, interact, and communicate with animals. It also considers animal-friendly machines that have emerged in the context of machine ethics. In the discussion section, the author explores the question of which of the presented robots are to be understood as social robots and what their differences are in their purpose and in their relationship to animals. In addition, social and ethical aspects are addressed.“ The book was produced by Jenny Publishing and can be ordered via online stores.

Fig.: A yawning lynx

The Robodog Project

Animal-machine interaction (AMI) is a discipline or field of work that deals with the interaction between animals and machines. This is how Prof. Dr. Oliver Bendel explains it in the Gabler Wirtschaftslexikon. It is primarily concerned with the design, evaluation, and implementation of complex machines and computer systems with which animals interact and which in turn interact and communicate with animals. There are close links to animal-computer interaction (ACI). Increasingly, the machine is a robot that is either remote-controlled or (partially) autonomous. In „The Robodog Project“ (also known as „Bao Meets Pluto„), the encounters between robotic quadrupeds and small to medium-sized dogs are explored. The project collaborator is Selinar Rohr, who is writing her bachelor’s thesis in this context. The walking, running, and jumping Unitree Go2 from Oliver Bendel’s private Social Robots Lab is in its original state or is wearing a head made with a 3D printer provided by Norman Eskera. The project is being carried out at the FHNW School of Business and will end on August 12, 2025, after which the results will be presented to the community and, if possible, to the general public.

Fig.: A drawing of Unitree Go2 (Image: Unitree)

The 7 Lives of Pepper and NAO

Shenzhen-based Maxvision Technology Corp. has acquired the core assets of French robotics pioneer Aldebaran, including its iconic humanoid robots NAO and Pepper. This was reported by The Robot Report in its article „Maxvision buys core robot assets of Aldebaran, including Nao and Pepper“ from July 19, 2025. The move follows Aldebaran’s bankruptcy and receivership earlier this year. The company, founded in 2005, became known for designing approachable humanoid robots for education, healthcare, retail, and research. Maxvision stated that the acquisition will bolster its R&D in emotional interaction and motion control, expand its product portfolio into humanoid robotics, and support global expansion – particularly in Europe and North America. According to The Robot Report, strategic sectors include eldercare, education, border security, and emergency services. To honor Aldebaran’s legacy, Maxvision plans to establish a French subsidiary, retaining local teams and investing in continued innovation, especially in education and healthcare applications.

Fig.: A drawing of Pepper (Image: SoftBank)

Opportunities and Risks of Human-Likeness

The Research Topic „Exploring human-likeness in AI: From perception to ethics and interaction dynamics“, hosted by Frontiers in Cognition, invites submissions on how human-like features in robots and AI systems influence user perception, trust, interaction, and ethical considerations. As AI becomes more integrated into society, anthropomorphic design raises pressing questions: Do human-like traits improve communication and acceptance, or do they lead to unrealistic expectations? What ethical implications arise when machines simulate empathy or emotion? This interdisciplinary call welcomes contributions from fields such as psychology, engineering, philosophy, and education. Submissions may include empirical research, theoretical analysis, reviews, or case studies that explore how human-likeness shapes the way we engage with AI. The deadline for manuscript summaries is September 22, 2025; full manuscripts are due by January 10, 2026. Articles will undergo peer review and are subject to publication fees upon acceptance. Topic editors are Dr. Katharina Kühne (University of Potsdam, Germany) and Prof. Dr. Roger K. Moore (The University of Sheffield, United Kingdom). For full details and submission guidelines, visit: www.frontiersin.org/research-topics/72370/exploring-human-likeness-in-ai-from-perception-to-ethics-and-interaction-dynamics.

Fig.: Opportunities and risks of human-likeness

Wearable Social Robots on Mars Missions

The short paper „Wearable Social Robots in Space“ by Tamara Siegmann and Oliver Bendel (FHNW School of Business) has been accepted for presentation at the International Conference on Social Robotics (ICSR). The conference will take place from September 10 to 12, 2025, in Naples, Italy. Social robots have been explored on Earth since the 1990s, but this study considers their application beyond our planet – specifically, on manned missions to Mars. The focus lies on wearable social robots, a promising form factor due to their compact size and light weight. Using AIBI as a case study, the short paper examines how such a robot could support astronauts under the unique psychological and environmental conditions of deep space travel. The authors discuss the little robot’s potential roles and highlight directions for future development, particularly in improving human-robot interaction and communication. The findings suggest that wearable social robots like AIBI could offer valuable support on long-duration space missions.

Fig.: An astronaut on a mission

Wenn Maschinen besser sehen und hören als wir

„Tech Affair ist der VDW-Podcast zur zukunftsfähigen Industrie. Wissenschaftler sprechen mit Praktikern über aktuelle Entwicklungen und Ideen für eine Industrie mit und für Menschen. Welche neuen Technologien haben das Zeug, unsere Industrie zukunftsfähig zu machen? Wie sehen morgen unsere Arbeitsplätze aus? Lernen wir aus den Krisen unserer Zeit? Tech Affair bietet spannende Einblicke.“ (Website VDW) So heißt es auf der Website des VDW. Die neueste Folge mit Prof. Dr. Jan Peters (TU Darmstadt) und Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW) beschäftigt sich mit Industrie- und Servicerobotern und ihren Sensoren. Dazu heißt es auf der Website: „Roboter, die Unebenheiten auf Oberflächen millimetergenau ertasten können, austretende Schadstoffe sofort riechen oder mit uns kommunizieren, indem sie reagieren und antworten. All dies entspringt keiner Science-Fiction-Geschichte, sondern ist dank intensiver Forschung schon Realität. Die Sensoren von Robotern sind teilweise inzwischen so weit fortgeschritten, dass sie unsere menschlichen Sinne um ein Vielfaches übertreffen. Und das, obwohl diese Sinne von den Robotern lediglich imitiert werden, durch Kameras, Mikrofone, Geruchssensoren oder Kontaktsensoren.“ (Website VDW) Der Podcast kann über vdw.de/podcast/folge-19-robotik-wenn-maschinen-feinere-sinne-entwickeln-als-wir/ aufgerufen werden.

Abb.: Wenn Maschinen besser sehen und hören als wir

Soll man nett zu einem Chatbot sein?

Der Spiegel hat mit Prof. Dr. Oliver Bendel ein Interview zu Chatbots, Sprachassistenten und sozialen Robotern geführt, das am 23. Juni 2025 veröffentlicht wurde. Es geht u.a. um Dialoge mit Artefakten. Der Technikphilosoph hält es für unproblematisch, danke und bitte zu einem Chatbot oder einem Sprachassistenten zu sagen. Damit überträgt man einfach bestehende Konventionen. Zudem reagiert ein LLM wie GPT-4o anders, wenn man zugewandt und ausführlich ist. Man erhält oft längere und hilfreichere Antworten und auch hilfreichere Rückfragen. Etwas anderes ist es, wenn es nicht nur um Konventionen, sondern auch um Emotionen geht. Wenn man dem Chatbot gegenüber sein Herz ausschüttet, muss einem klar sein, dass auf der einen Seite nichts ist, was sich für einen interessiert oder das versteht, was Menschen wünschen und brauchen. Hier liegen Täuschung und Betrug nahe, wie Oliver Bendel mit seinen Kollegen auch im Jahre 2023 in einer Studie zu sozialen Robotern herausgearbeitet hat. Das Interview kann über www.spiegel.de aufgerufen werden.

Abb.: Soll man nett zu einem Chatbot sein?

Small Talk with a Robot Can Help

The paper „Small Talk with a Robot Reduces Stress and Improves Mood“ by Katharina Kühne, Antonia L. Z. Klöffel, Oliver Bendel, and Martin H. Fischer has been accepted for presentation at the ICSR 2025, which will take place in Naples from September 10 to 12, 2025. Previous research has shown that social support reduces stress and improves mood. This study tested whether small talk with a social robot could be helpful. After performing a stressful task, 98 participants either chatted with a NAO robot, listened to the robot tell a neutral story, or did not interact with the robot. Both robot interactions reduced stress, particularly small talk, which also boosted positive mood. The effects were stronger in those with high acute stress. Positive affect played a key role in stress reduction, suggesting that robot-mediated small talk may be a useful tool for providing emotional support. Dr. Katharina Kühne and Prof. Dr. Martin H. Fischer are researchers at the University of Potsdam. Antonia L. Z. Klöffel assists Katharina Kühne as a junior scientist. Martin Fischer is the head of the Potsdam Embodied Cognition Group (PECoG). Prof. Dr. Oliver Bendel is a PECoG associated researcher. Further information about the conference is available at icsr2025.eu.

Fig.: Small talk without a robot

Wearable Social Robots

The market for wearable social robots remains relatively small. As illustrated by the case of AIBI, early models often face typical teething problems, with user forums filled with questions and complaints. Nevertheless, these technologies hold potential for a wide range of future applications, offering support and benefits not only to healthy individuals but also to people with disabilities or impairments. The paper „Wearable Social Robots for the Disabled and Impaired“ by Oliver Bendel explores this topic in depth. It defines wearable social robots and situates them within the broader category of wearable robotics. The paper presents several examples and outlines potential application areas specifically for individuals with disabilities. It also addresses key social, ethical, economic, and technical challenges, building on the preceding analysis. The paper has been accepted for presentation at ICSR 2025, which will take place in Naples from September 10 to 12.

Fig.: Suitable places for wearable social robots

Book on Animals, Ethics, and Engineering

The edited volume „Animals, Ethics, and Engineering: Intersections and Implications“ will be published by Jenny Stanford in August 2025. It can already be pre-ordered via online stores. These provide the following information: „‚Animals, Ethics, and Engineering: Intersections and Implications‘ is a seminal work that explores the intricate relationship between technology, ethics, and the welfare of nonhuman animals. Edited by Rosalyn W. Berne, this volume brings together leading scholars and practitioners to examine the ethical responsibilities inherent in technological progress and its impact on animal well-being.“ (Information Publisher) The authors include Clara Mancini, Fiona French, Abraham Gibson, Nic Carey, Kurt Reymers, and Oliver Bendel. Rosalyn W. Berne is the Anne Shirley Carter Olsson Professor of Applied Ethics and Chair of the Department of Engineering and Society, School of Engineering and Applied Sciences, University of Virginia, where she has been a faculty member since 1999 and co-directs the Online Ethics Center for Engineering and Science (OEC).

Fig.: Animals, Ethics, and Engineering

Du bist mein Mensch

Unter dem Titel „Mensch 2.0: Die Vision des universellen Roboters“ hielt Prof. Dr. Oliver Bendel am 4. Juni 2025 ab 19 Uhr in der Stadtbibliothek Stuttgart den Eröffnungsvortrag zur Tagung „Next Frontiers“ … Dabei zeigte er auf, dass alle Elemente einer solchen Maschine vorhanden sind. Man muss sie nur noch zusammenfügen, was freilich keine triviale Aufgabe ist. Robotische Zweibeiner, die als Allzweckroboter vermarktet werden, können als Vorstufen universeller Roboter gelten. Figure, Digit und Apollo arbeiten bereits in Fabriken auf der ganzen Welt … Danach trug auf dem Podium die Autorin Emma Braslavsky („Ich bin dein Mensch“, verfilmt von Maria Schrader) aus einem Dialog mit Claude vor, einem LLM-basierten Chatbot. Dieser beeindruckte durch Beschreibungen seiner eigenen Existenz. Sie sprach mit Oliver Bendel, inzwischen auch auf dem Podium, über die neuesten Entwicklungen und ihre Folgen. Die Moderation oblag Thomas Klingenmaier, Redakteur der Stuttgarter Zeitung. Schließlich wurde das Publikum einbezogen. So groß war das Interesse, dass der Saal auch nach drei Stunden noch vollbesetzt war. Alle Erkenntnisse und Eindrücke hat der Zeichner und Illustrator Heyko Stöber eingefangen, einer der Besten seines Fachs.

Abb.: Zwei Roboter lernen sich kennen

AAAI 2025 Spring Symposia Proceedings

The Association for the Advancement of Artificial Intelligence’s (AAAI) 2025 Spring Symposium Series took place from March 31 to April 2 in Burlingame, California. The symposium series fosters an intimate environment that enables emerging AI communities to engage in workshop-style discussions. Topics change each year to ensure a dynamic venue that stays current with the evolving landscape of AI research and applications. This year’s program included eight symposia: AI for Engineering and Scientific Discoveries; AI for Health Symposium: Leveraging Artificial Intelligence to Revolutionize Healthcare; Current and Future Varieties of Human-AI Collaboration; GenAI@Edge: Empowering Generative AI at the Edge; Human-Compatible AI for Well-being: Harnessing Potential of GenAI for AI-Powered Science; Machine Learning and Knowledge Engineering for Trustworthy Multimodal and Generative AI (AAAI-MAKE); Symposium on Child-AI Interaction in the Era of Foundation Models; Towards Agentic AI for Science: Hypothesis Generation, Comprehension, Quantification, and Validation. On May 28, 2025, the „Proceedings of the AAAI 2025 Spring Symposium Series“ (Vol. 5 No. 1) were published. They are available at ojs.aaai.org/index.php/AAAI-SS/issue/view/654.

Fig.: The conference took place in California (ChatGPT/4o Image)