Eindrücklicher Start der Robophilosophy 2022 in Helsinki

Nach Worten der Begrüßung von Raul Hakli, Pekka Mäkelä und Johanna Seibt startete die Robophilosophy 2022 mit einem Vortrag von Sven Nyholm zum Thema „A New Control Problem? Humanoid Robots, AI, and the Value of Control“. In Session 1 („Robots in Law and Policing“) sprachen danach Oliver Bendel („Robots in Policing“), Cindy Friedman („Granting Negative Rights to Humanoid Robots“) und Jakob Stenseke („The Use and Abuse of Normative Ethics for Moral Machines“). Parallel fanden drei Workshops statt, darunter „Regulation of the Use of Social Robotics in Care Settings: A Simulation“. Im Anschluss wurden vier Poster präsentiert, eines davon von Katharina Kühne, Melinda A. Jeglinski-Mende und Oliver Bendel („Tamagotchi on our couch: Are social robots perceived as pets?“). Am späteren Nachmittag referierte David Gunkel zum Thema „Robots Should Not be Slaves“ – eine Auffassung, die etwa Joanna Bryson oder Oliver Bendel nicht in dieser Weise teilen. Er leitete den Workshop, bei dem mehrere Vorträge gehalten und ganz unterschiedliche Ansichten ausgetauscht wurden. Parallel fanden ein weiterer Workshop sowie Session 2 („Robots in Education“) statt. Die Robophilosophy gilt als die wichtigste Konferenz zu sozialen Robotern aus gesellschaftlicher Perspektive. Sie findet vom 16. bis zum 19. August 2022 an der Universität Helsinki statt.

Abb.: Der soziale Roboter Pepper mit einer Lernanwendung

Technikphilosophie in den Medien

Die Medien interessieren sich stark für die Sicht der Technikphilosophie und der Informations-, Roboter- und Maschinenethik auf soziale Roboter und ähnliche Systeme. Im Juni und Juli 2002 waren zwei Fernsehsender an der Hochschule für Wirtschaft FHNW, um die Arbeit von Prof. Dr. Oliver Bendel kennenzulernen und Bilder und O-Töne einzufangen. 3sat wird eine Sendung zur Mensch-Maschine-Interaktion und zur Sozialen Robotik machen, BILD LIVE einen Beitrag zum Cybrothel in Berlin. Auf der Website des Wissenschaftlers ist zu lesen: „Oliver Bendel verortet sich in der Technikphilosophie, wobei er auf Roboter und künstliche Intelligenz fokussiert. Er untersucht das Verhältnis zwischen Mensch bzw. Tier und Maschine und fragt danach, wie die Maschine der Gegenwart und Zukunft beschaffen ist, sein wird und soll.“ Dabei entwickelt er zusammen mit seinen Teams aus der Maschinenethik heraus spezielle KI-Systeme und tierfreundliche Roboter als Prototypen, um Möglichkeiten aufzuzeigen und Thesen zu überprüfen. Seit 2012 sind 13 Konzepte und Artefakte entstanden, die auf Konferenzen wie AAAI Spring Symposia, ISAIM, Robophilosophy und CHI sowie in Journals wie Künstliche Intelligenz, AI & Society, Paladyn – Journal of Behavioral Robotics und Frontiers of Animal Science vorgestellt wurden.

Abb.: Oliver Bendel mit Pepper (Foto: Sara Zarubica)

Paper about the SPACE THEA Project

On June 22, 2022, the paper „The SPACE THEA Project“ by Martin Spathelf and Oliver Bendel was published on arxiv.org. It was presented at the AAAI 2022 Spring Symposium „How Fair is Fair? Achieving Wellbeing AI“ at Stanford University and came in 2nd place in the Best Presentation Awards. From the abstract: „In some situations, no professional human contact can be available. Accordingly, one remains alone with one’s problems and fears. A manned Mars flight is certainly such a situation. A voice assistant that shows empathy and assists the astronauts could be a solution. In the SPACE THEA project, a prototype with such capabilities was developed using Google Assistant and Dialogflow Essentials. The voice assistant has a personality based on characteristics such as functional intelligence, sincerity, creativity, and emotional intelligence. It proves itself in seven different scenarios designed to represent the daily lives of astronauts, addressing operational crises and human problems. The paper describes the seven scenarios in detail, and lists technical and conceptual foundations of the voice assistant. Finally, the most important results are stated and the chapters are summarized.“ The paper will additionally be published in the proceedings volume of the symposium by the end of summer. It can be downloaded via arxiv.org/abs/2206.10390.

Fig.: An astronaut in space

Internationales Symposium zur Geriatronik

Ziel des First Geriatronics Summit ist, die aktuellen und geplanten Robotiklösungen im Kontext der Geriatronik zu beleuchten und die politischen Entscheidungsträger für die entsprechenden Technologien zu sensibilisieren. Die Veranstaltung, die am 20. und 21. Juni 2022 in Garmisch-Partenkirchen stattfinden wird, will laut Website folgende Fragen beantworten: 1. Wie kann man mit Hilfe von Geriatronik dem zunehmenden Mangel und den geografischen Unterschieden bei den Pflegekräften und der überlasteten Gesundheitsversorgung begegnen? 2. Wie können Robotik und KI die Unabhängigkeit, Mobilität, Selbstbestimmung und Gesundheit älterer Menschen so lange wie möglich fördern? 3. Was sind die Regeln der Autonomie und wie lassen sich moralische, ethische, kulturelle und persönliche Herausforderungen und Dilemmata für die Geriatronik angehen? Eingeladene Wissenschaftler sind Prof. Dr.-Ing. Tamim Asfour (KIT Karlsruhe), Dr. Sylvain Calinon (EPFL), Dr. Tadej Petrič (Jožef Stefan Institute), Dr. Matteo Laffranchi (Italian Institute of Technology – IIT), Prof. Adriana Tapus (Institut Polytechnique de Paris), Prof. Jim Tørresen (University of Oslo), Prof. Dr.-Ing. Sami Haddadin (TUM), Prof. Dr. med. Alena M. Buyx (TUM), Prof. Dr. oec. Oliver Bendel (Hochschule für Wirtschaft FHNW), Prof. Dr. Christian Djeffal (TUM), Prof. Vera Lúcia Raposo (University of Coimbra), Prof. Dr. Lee Bygrave (University of Oslo) und Prof. Dr. Martin Ebers (Humboldt-Universität zu Berlin/University of Tartu). Getragen wird die Veranstaltung u.a. vom Munich Institute of Robotics and Machine Intelligence (MIRMI) der Technischen Universität München (TUM) und von der VolkswagenStiftung.

Abb.: Ältere sind Pflegerobotern gegenüber oft aufgeschlossen

Das CARE-MOMO für Lio und Co.

Immer mehr Roboter werden im Pflegebereich eingesetzt. Die meisten von ihnen sind Prototypen, einige sogar Produkte, die in kleinen Serien hergestellt werden, wie Lio und P-CARE von F&P Robotics. Die Maschinenethik erforscht und schafft moralische Maschinen. Diese lassen sich oft von bestimmten Werten oder Metaregeln leiten, sie folgen vorgegebenen Regeln oder sie lernen aus Situationen und passen ihr Verhalten an. Das CARE-MOMO („MOMO“ steht für „Moralmodul“) ist ein Moralmodul, das Lio erweitern kann. Es baut auf dem MOME auf, dem Moralmenü, das bereits 2019/2020 entwickelt und 2020 auf der Robophilosophy vorgestellt wurde. Mit Hilfe von Schiebereglern auf dem Display von Lio kann der Patient seine Präferenzen wählen und so auf einfache Weise seine sittlichen und moralischen Vorstellungen übertragen. Dabei wird auf eine 1:1-Beziehung zwischen Mensch und Maschine fokussiert. Marc Heimann erarbeitete im Rahmen seiner Abschlussarbeit bereits mehrere Vorschläge, die in einem Brainstorming mit dem Betreuer Oliver Bendel am 19. Mai 2022 ergänzt wurden. Das CARE-MOMO ist das dreizehnte Artefakt, das im Arbeitsbereich von Oliver Bendel entsteht. Mehrere davon – etwa LIEBOT, LADYBIRD oder HAPPY HEDGEHOG – wurden bei internationalen Konferenzen vorgestellt und haben mediale Aufmerksamkeit erregt. Das CARE-MOMO-Projekt begann im März und läuft noch bis August 2022. Das Ergebnis ist eine prototypische Umsetzung des Moralmoduls.

Abb.: Das CARE-MOMO ist das 13. Artefakt

Künstliche Moral

„Künstliche Moral (engl. ‚artificial morality‘), auch maschinelle Moral (engl. ‚machine morality‘) genannt, ist die Fähigkeit einer Maschine (i.d.R. eines autonomen Systems), sich an moralische Regeln zu halten respektive unter verschiedenen Optionen diejenige auszuwählen, die gut und richtig ist. Die moralischen Regeln sind der sogenannten moralischen Maschine gleichsam eingepflanzt worden; diese kann sie u.U. aber auch abändern und anpassen, etwa indem sie das Verhalten anderer – künstlicher oder natürlicher – Systeme übernimmt oder anderweitig aus Situationen lernt.“ Mit diesen Worten beginnt ein Beitrag von Oliver Bendel, der am 20. Mai 2022 im Gabler Wirtschaftslexikon erschienen ist. Er ergänzt u.a. „Maschinenethik“ (2012) und „Moralische Maschinen“ (2019). Am Ende heißt es: „Am besten bewährt sich die künstliche Moral in geschlossenen oder halboffenen, übersichtlichen und weitgehend unveränderlichen Umgebungen, etwa in einem Haushalt oder auf einem Betriebsgelände.“ Dort können moralische Maschinen sowohl Tiere als auch Menschen schützen. Der Beitrag ist über wirtschaftslexikon.gabler.de/definition/kuenstliche-moral-123163 abrufbar.

Abb.: Eine Darstellung eines humanoiden Roboters

Über tierfreundliche Maschinen

Das aktuelle Magazin des Zürcher Tierschutzes bringt ein zweiseitiges Interview mit Prof. Dr. oec. HSG Oliver Bendel zu seiner Forschung über tierfreundliche Maschinen. Geführt hat es Dr. sc. ETH Bea Roth. Der Informations- und Maschinenethiker beobachtet seit Jahren, dass sich teilautonome und autonome Maschinen immer mehr verbreiten, bei den Folgen aber vor allem an den Menschen gedacht wird. Robotik und Künstliche Intelligenz sind geradezu stolz darauf, auf unsere Bedürfnisse zu fokussieren, und vergessen dabei oft die von Tieren. Dabei könnte man z.B. Haushaltsroboter auf eine einfache Weise tierfreundlich gestalten. Oliver Bendel hat mit seinen jeweiligen Teams in diesem Bereich Prototypen wie LADYBIRD und HAPPY HEDGEHOG entwickelt. Zudem hat er ein System für die Gesichtserkennung bei Bären in den Alpen konzipieren lassen. Seine Vision ist, dass in riesigen Naturparks die Wildtiere in Ruhe gelassen und allenfalls von Robotern beobachtet und zur Not versorgt werden. Das ZT-Magazin steht auch online zur Verfügung.

Abb.: Auch Elefanten können von Maschinen profitieren

The Care Robot Becomes Moral

There are more and more robots being used in health care. Most of them are prototypes, some – like Lio and P-CARE from F&P Robotics – are products that are manufactured in small series. Machine ethics researches and creates moral machines. These are often guided by certain values or meta-rules, they follow predetermined rules, or they learn from situations and adapt their behavior. Michael Anderson and Susan L. Anderson presented their value-driven eldercare robot at the 2019 Berlin Colloquium by invitation of Oliver Bendel. The CARE-MOMO („MOMO“ stands for „morality module“) is a morality module for a robot in the manner of Lio. The idea is that the robot acquires clearly delimited moral abilities in addition to its usual abilities. The focus is to have it perform an act or speech act with high reliability based on a moral assumption or reasoning, with a clearly identifiable benefit to the caregiver or the care recipient. The initiators want to address a common problem in the nursing and care field. Marc Heimann could be recruited for the project at the School of Business FHNW. The supervisor is Oliver Bendel, who has been working with robots in the healthcare sector for ten years and has built numerous moral machines together with his teams.

Fig.: Lio in action

Ethics of Conversational User Interfaces

The Ethics of Conversational User Interfaces workshop at the ACM CHI 2022 conference „will consolidate ethics-related research of the past and set the agenda for future CUI research on ethics going forward“. „This builds on previous CUI workshops exploring theories and methods, grand challenges and future design perspectives, and collaborative interactions.“ (CfP CUI)  From the Call for Papers: „In what ways can we advance our research on conversational user interfaces (CUIs) by including considerations on ethics? As CUIs, like Amazon Alexa or chatbots, become commonplace, discussions on how they can be designed in an ethical manner or how they change our views on ethics of technology should be topics we engage with as a community.“ (CfP CUI) Paper submission deadline is 24 February 2022. The workshop is scheduled to take place in New Orleans on 21 April 2022. More information is available via www.conversationaluserinterfaces.org/workshops/CHI2022/.

Fig.: Machine ethics also develops conversational agents

Soziale Roboter und Pflegebedürftige

Zahlreiche Wissenschaftlerinnen und Wissenschaftler und auch Experten aus der Praxis haben am Buch „Soziale Roboter“ mitgewirkt. Von Tanja Bleuler und Pietro Caroni stammt die Übersicht „Roboter in der Pflege: Welche Aufgaben können Roboter heute schon übernehmen?“. Aus dem Abstract: „Der Einsatz von sozialen Robotern in der Pflege ist ein Lösungsansatz für den herrschenden Mangel an Pflegekräften. Dadurch kann nicht nur das Personal in Einrichtungen entlastet werden, sondern die unterstützungsbedürftigen Personen können länger zu Hause wohnen. Doch dieser Einsatz ist mit Ängsten und ethischen Bedenken verbunden. An Lio, einem Roboter der Firma F&P Robotics AG, und verschiedenen internationalen Beispielen wird in diesem Beitrag aufgezeigt, was bis heute entwickelt wurde, wie die Roboter heute schon im Alltag helfen und wie die EntwicklerInnen den Ängsten und ethischen Herausforderungen begegnen. Lio wird dabei genauer beschrieben und an seinem Beispiel gezeigt, wie das Verhalten und Design eines Roboters an die Pflegeumgebung angepasst werden können.“ Das von Oliver Bendel herausgegebene Werk ist Anfang November 2021 erschienen und verzeichnet bereits über 30.000 Downloads. Es kann über link.springer.com/book/10.1007/978-3-658-31114-8 bezogen werden.

Abb.: Wie stark dürfen Roboter den Patienten durchleuchten?

Vom Demonstrator zum Psychotherapeuten

Zahlreiche Wissenschaftlerinnen und Wissenschaftler haben am Buch „Soziale Roboter“ mitgewirkt. Von Stefanie Baisch und Thorsten Kolling stammt die Abhandlung „Roboter in der Therapie: Vom Demonstrator zum Psychotherapeuten“. Aus dem Abstract: „Bereits heute, aber dank des demografischen Wandels umso mehr in Zukunft, sind therapeutische Ressourcen begrenzt. Infolgedessen können nicht alle Menschen die physische, psychische oder kognitive Therapie bekommen, die sie benötigen, um trotz Beeinträchtigungen möglichst selbständig am alltäglichen Leben teilnehmen zu können. Roboter könnten die Therapie quantitativ wie auch qualitativ verbessern und mehr Menschen Zugang zu einer Therapie ermöglichen. Im vorliegenden Beitrag werden die verschiedenen Rollen und Funktionen, die die Roboter in unterschiedlichen Therapiebereichen einnehmen können, sowie empirische Belege für Akzeptanz, Wirksamkeit und Einflussfaktoren vorgestellt, soweit vorhanden. Dabei zeigt sich, dass selbst in den besser untersuchten Populationen (Kinder mit Autismus-Spektrum-Störung, ältere Erwachsene mit und ohne Demenz) die Datenbasis sehr dünn ist und noch viele Fragen offenbleiben. Neben Potenzialen werden forschungs- wie auch praxisbezogene und ethische Problemfelder des Einsatzes sozialer Roboter im therapeutischen Bereich identifiziert.“ Das von Oliver Bendel herausgegebene Werk ist Anfang November 2021 erschienen und verzeichnet bereits 30.000 Downloads. Es kann über link.springer.com/book/10.1007/978-3-658-31114-8 bezogen werden.

Abb.: Auch Massage kann Teil der Therapie sein

Hey Replika, You Bitch!

Breitband (DLF Kultur) hat sich mit Oliver Bendel über Chatbots unterhalten, mit denen man Beziehungen führen und Phantasien ausleben kann. Der Informations- und Maschinenethiker stellte zunächst grundsätzlich fest, dass man sich mit Chatbots und Sprachassistenten anders unterhält als mit Menschen. Man schreibt oder spricht einfacher, kürzer – und obszöner. Mit Replika kann man über generelle und persönliche Angelegenheiten sprechen – und auch Phantasien im Virtuellen ausleben. Normalerweise bleibt es dabei. Dennoch gibt es, so der Ethiker aus Zürich, durchaus Effekte im Realen. Denn wenn man mit Replika in obszöner Weise chattet, reagiert man darauf, ist erregt, erheitert etc. Es stellen sich also körperliche und geistige Reaktionen ein. Grundsätzlich trainiert man auch ein bestimmtes Verhalten, entwickelt bestimmte Methoden und Strategien im Sprachlichen. Die meisten Benutzer dürften zwischen Virtualität und Realität unterscheiden können. Sobald sie auf einen echten Menschen treffen, passen sie sich an. Aber es kann durchaus sein, dass Einzelne bewusst oder unbewusst das Erlernte ausprobieren. Allgemeine Chatbots, die der Unterhaltung dienen, sollte man durchaus begrenzen, so der Informations- und Maschinenethiker. Man kann ihnen etwa eine Persönlichkeit geben, mit deren Hilfe u.a. Übergriffe zurückgewiesen werden. Das fängt schon damit an, dass Replika es nicht gut finden muss, wenn man sie Bitch nennt. Der Beitrag „Alles nur ein Spiel?“ wird am 29. Januar 2022 um 13.05 Uhr ausgestrahlt. Weitere Informationen über www.deutschlandfunkkultur.de/programm.

Abb.: Replika könnte sich schützen und wehren

Ein Beitrag zur Roboterpsychologie

Der von Oliver Bendel herausgegebene Springer-Band „Soziale Roboter“ enthält 30 Beiträge international bekannter Autorinnen und Autoren – wenn man das Vorwort mitzählt. Von Martina Mara und Benedikt Leichtmann stammt die Abhandlung „Soziale Robotik und Roboterpsychologie: Wie psychologische Forschung zur menschzentrierten Entwicklung robotischer Systeme beitragen kann“. Aus dem Abstract: „Egal in welchem Anwendungsbereich soziale Roboter zum Einsatz kommen, sie sind in jedem Fall dafür gemacht, mit Menschen zu interagieren. Die Psychologie als Wissenschaft menschlichen Denkens, Fühlens und Verhaltens kann im Austausch mit anderen Disziplinen daher wertvolle Beiträge zur Erforschung sozialer Roboter und zum Gelingen von Mensch-Roboter-Interaktion liefern. Ziel dieses Kapitels ist es, einen einführenden Einblick in die Besonderheiten psychologischer Zugänge zur Sozialen Robotik zu geben. Ausgewählte Themenfelder der Roboterpsychologie, darunter Anthropomorphismus, Technologieängstlichkeit oder Vertrauen in Roboter, werden theoretisch und empirisch beleuchtet. Da eine korrekte Einordnung von Forschungsergebnissen immer auch ein Verständnis zugrunde liegender Forschungsmethoden erfordert, geht ein weiterer Abschnitt darauf ein, wie psychologische Vorgänge wissenschaftlich untersucht und gemessen werden können. Mit der Frage ‚Brauchen Roboter Psychotherapie?‘ widmen wir uns abschließend populären Falschvorstellungen zur Roboterpsychologie und diskutieren außerdem Potenziale und Risiken von Robotern als therapeutischen Begleitwerkzeugen.“ Das Buch ist Anfang November 2021 erschienen und kann über link.springer.com/book/10.1007/978-3-658-31114-8 bezogen werden.

Abb.: Geistige Gesundheit auf einer alten Abbildung

Soziale Roboter bei ARTE

„Schätzungen zu Folge gibt es weltweit inzwischen mehr als 1,7 Millionen Roboter mit sozialen Eigenschaften. Sie pflegen, bilden, helfen und unterhalten uns. Längst gibt es auch hoch technisierte Sexroboter. Doch können diese Maschinen tatsächlich Gefühle entwickeln – oder gar Liebe empfinden?“ (Website ARTE) Dies fragt sich ARTE in der Reihe „42 – Die Antwort auf fast alles“. Die Sendung „Werden wir Roboter lieben?“ wird am 19. Februar 2022 ausgestrahlt. Die Onlineversion ist bereits ab 20. Januar verfügbar. Zu Wort kommen Dr. Hooman Samani, Robotiker an der University of Plymouth, Prof. Dr. Martin Fischer, Kognitionspsychologe an der Universität Potsdam, und Prof. Dr. Oliver Bendel, Informations- und Maschinenethiker an der Hochschule für Wirtschaft FHNW. Er forscht seit über 20 Jahren zu Conversational Agents und sozialen Robotern und hat Ende 2021 das Springer-Buch „Soziale Roboter“ herausgegeben. Weitere Informationen zur Sendung über www.arte.tv/de/videos/101938-004-A/42-die-antwort-auf-fast-alles/.

Abb.: Das Idealbild eines humanoiden Roboters

Die Maschinenethik und die Soziale Robotik

Die Studie „Soziale Roboter, Empathie und Emotionen“, erschienen am 8. November 2021, nimmt die Perspektiven von Informations-, Roboter- und Maschinenethik ein. Verantwortlich für diesen Teil waren Prof. Dr. Oliver Bendel und Jeanne Kreis. Die Perspektive der Informationsethik – vor allem das Konzept der informationellen Autonomie – hilft dabei, die Überwachungsmöglichkeiten und die Verletzungen von Privat- und Intimsphäre durch soziale Roboter kritisch zu reflektieren. Sie kann mithelfen, ethische Leitlinien zu entwickeln und ethische Kommissionen aufzusetzen. Es resultiert bei Verwendung der diskursiven Methode ein Interessenausgleich der verschiedenen Parteien, etwa ein Konsens zu dem, was bei Gesichts- und Stimmerkennung zu tun und was zu unterlassen ist. Mit Hilfe der Roboterethik kann die Frage nach den moralischen Rechten von sozialen Robotern abschlägig beantwortet werden, da solche Rechte Empfindungs- und Leidensfähigkeit bzw. Bewusstsein voraussetzen. Ein ergiebigeres Forschungsfeld findet die Disziplin in Bezug auf die Folgen des Einsatzes sozialer Roboter. Diese sollten keine Mittel für Betrug und Täuschung darstellen, da diese Rechte des Gegenübers beschädigen können. Zugleich ist es vertretbar, die Nutzer für eine Weile in einer Illusion zu belassen, wenn sie dazu in geeigneter Weise ihre Zustimmung gegeben haben und der Nutzen den Schaden überwiegt. Sie sollten aber, soweit es ihnen zugänglich und möglich ist, über die Hintergründe aufgeklärt worden sein und zu jedem Zeitpunkt wiederum Wahlfreiheit haben. Es ist vor allem stets zu überlegen, ob das Simulieren von Empathie und Emotionen notwendig und zielführend ist oder ob hier unnötigerweise Beziehungen und Bindungen etabliert werden, die sich für die Betroffenen als problematisch oder die Menschenwürde verletzend herausstellen können. Ethics by Design, Responsible AI und Maschinenethik können dazu beitragen, dass soziale Roboter sozial und moralisch adäquat agieren und reagieren. Die Entwicklerinnen und Entwickler werden mit Blick auf Betrug und Täuschung oder die Gefahr von Verzerrungen und Vorurteilen sensibilisiert, und sie werden in die Lage versetzt, den Maschinen passende Regeln und Grenzen einzupflanzen. So entstehen soziale Roboter als moralische Maschinen, die zumindest in geschlossenen und halboffenen, übersichtlichen Räumen mit voraussehbaren Prozessen und Situationen zu einem guten Leben beitragen können. Die Studie ist über zenodo.org/record/5554564 verfügbar.

Abb.: Eine Pose von Ameca (Photo: Engineered Arts)

The Smile of Ameca

UK-based company Engineered Arts showed off one of its creations in a YouTube video in late 2021. The humanoid robot Ameca makes a series of fascinating human-like facial expressions. The Verge magazine describes this process: „At the start of the video, Ameca appears to ‚wake up,‘ as its face conveys a mix of confusion and frustration when it opens its eyes. But when Ameca starts looking at its hands and arms, the robot opens its mouth and raises its brows in what it looks like is amazement. The end of the video shows Ameca smiling and holding a welcoming hand out towards the viewer – if that’s how you want to interpret that gesture.“ (The Verge, 5 December 2021) However, this smile does not turn out perfectly – a problem that affects all androids. Almost every emotional movement can now be simulated well – except for the one whose expression is the smile. Only when this problem is solved will Sophia, Erica, and Ameca be able to get out of Uncanny Valley.

Fig.: Ameca (Photo: Engineered Arts)