„Wenn der Mensch zur Maschine wird. Gespräche mit und über Siri, Roboter und Cyborgs“ – so lautet der Titel eines Themenwochenendes, das im Zentrum Paul Klee (ZPK) in Bern stattfindet, als Ergänzung zur Ausstellung „Paul Klee. Vom Rausch der Technik“. Der deutsche Maler, der in Münchenbuchsee bei Bern geboren wurde, lebte laut Website des ZPK in einer Zeit großer „technologischer Transformationen“. „Die neuen Errungenschaften stellten die Wahrnehmung der Menschen von Materie, Raum und Zeit infrage. Röntgenstrahlen, Telefone, Elektrizität lösten das gewohnte Weltbild auf. Darauf reagierten auch Künstler wie Paul Klee.“ (Website ZPK) Für Sonntag, den 5. März 2023, hat Fabienne Eggelhöfer, die Chefkuratorin des bekannten Museums, Prof. Dr. Oliver Bendel eingeladen. Sie geht mit ihm der Frage „Cyborgs – die besseren Menschen?“ nach. Über Cyborgs, Animal Enhancement und Human Enhancement sowie Biohacking und Bodyhacking hat der Wirtschaftsinformatiker und Technikphilosoph bereits mehrmals publiziert und referiert. Zuletzt erschienen seine Buchbeiträge „Chips, Devices, and Machines within Humans: Bodyhacking as Movement, Enhancement and Adaptation“ (Narr, 2021) und „Bodyhacking als Phänomen und Trend“ (Springer Vieweg, 2022). Auf der Architekturbiennale in Venedig hatte er Ende 2021 auf Einladung des Salon Suisse zu „Human and Animal Enhancement in the Context of Architecture“ vorgetragen. Weitere Informationen zum Gespräch im ZPK sind hier erhältlich. Zusätzlich steht ein Flyer zur Verfügung.
As part of the AAAI 2023 Spring Symposia in San Francisco, the symposium „Socially Responsible AI for Well-being“ is organized by Takashi Kido (Teikyo University, Japan) and Keiki Takadama (The University of Electro-Communications, Japan). The paper „Increasing Well-being and Health through Robotic Hugs“ by Oliver Bendel, Andrea Puljic, Robin Heiz, Furkan Tömen, and Ivan De Paola was accepted. The talk will take place between March 26 and 29, 2023 at Hyatt Regency, San Francisco Airport. The symposium website states: „For our happiness, AI is not enough to be productive in exponential growth or economic/financial supremacies but should be socially responsible from the viewpoint of fairness, transparency, accountability, reliability, safety, privacy, and security. For example, AI diagnosis system should provide responsible results (e.g., a high-accuracy of diagnostics result with an understandable explanation) but the results should be socially accepted (e.g., data for AI (machine learning) should not be biased (i.e., the amount of data for learning should be equal among races and/or locations). Like this example, a decision of AI affects our well-being, which suggests the importance of discussing ‚What is socially responsible?‘ in several potential situations of well-being in the coming AI age.“ (Website AAAI) According to the organizers, the first perspective is „(Individually) Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to design Responsible AI for well-being. The second perspective is „Socially Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to implement social aspects in Responsible AI for well-being. More information via www.aaai.org/Symposia/Spring/sss23.php#ss09.
„Bei Sprache handelt es sich um Systeme der Kommunikation von Menschen, Tieren und Maschinen.“ Mit diesem Satz beginnt ein neuer Beitrag von Oliver Bendel im Gabler Wirtschaftslexikon. Nach grundsätzlichen Erklärungen und einer Darstellung von Entwicklung und Geschichte werden Ansätze einer Systemtheorie entwickelt, in der existenziellen Systemen wie Sprache und Moral sowie zivilisatorischen Systemen wie Politik, Journalismus, Wissenschaft und Kunst eine spezifische Aufgabe zugesprochen wird, deren Erfüllung jeweils durch ein anderes System beeinträchtigt werden kann. Diese Überlegungen kulminieren in der Feststellung, Sinn und Zweck von Sprache sei „nicht, moralisch zu sein“. Im Weiteren wird auf Dialogsysteme eingegangen, die natürliche Sprache verwenden, und auf Technologien und Programme, die Sprache übersetzen und bearbeiten, wobei hier oft ein Bias vorhanden ist und von offiziellen Regeln abgewichen wird. Ein eigener Abschnitt gehört den wirtschaftlichen Aspekten. Am Ende wird Kritik an Strömungen innerhalb der zuständigen Disziplin geübt: „Die Linguistik, die Sprache eigentlich beobachten und untersuchen sollte, gefällt sich in ihren vermeintlich progressiven Ausläufern darin, ihren eigenen Gegenstand zu manipulieren und zu instrumentalisieren. Dem tritt allerdings die klassische Sprachwissenschaft entgegen, wobei sie alte Größe zurückgewinnt, sofern sie nicht im Nostalgischen und Konservatorischen steckenbleibt.“ Zudem werden Überlegungen u.a. aus der Perspektive von Informationsethik, Medienethik, Roboterethik und Wirtschaftsethik angestellt. Der Beitrag ist am 31. Januar 2023 erschienen und kann über wirtschaftslexikon.gabler.de/definition/sprache-124739 aufgerufen werden.
Bild hat Oliver Bendel zu sogenannten Replicas befragt, zu Kopien lebender oder verstorbener Personen. Nach ihm können folgende Komponenten vorhanden sein: 1. Die Person, um die es geht, etwa ein unheilbar Kranker, lässt sich in Aktion filmen, ähnlich wie im Falle der ABBAtare, bei denen man Motion Capture verwendet hat. Das kann Tage und Woche dauern. So erhält man Bilder, aus denen man (virtuelle, hier auch animierte) Avatare und Pseudohologramme (letztlich Projektionen) erzeugen kann, mitsamt der individuellen Bewegungen bzw. der individuellen Mimik und Gestik. 2. Es kann auch eine synthetische Kopie der jeweiligen Stimme erzeugt werden. Dies ist seit mehreren Jahren mit nur wenigen Minuten Aufnahmematerial möglich. Der Avatar spricht dann wie die kranke bzw. dann verstorbene Person, mit all den charakteristischen Eigenschaften ihrer Stimme. 3. Zudem wird persönliches Material eingelesen, etwa Briefe, E-Mails und Sprachnachrichten, und von einem KI-System verwertet. Dieses lernt, wie die Person sich schriftlich und mündlich ausdrückt, und kann der Replica diese Eigenschaften mitgeben. Zusätzlich kann der Kranke auch bestimmte Sequenzen einsprechen, um das Datenmaterial zu vervollständigen. Eine echte Replica nutzt KI, um aus diesen Daten zu lernen und Neues zu machen. 4. Der letzte Schritt, der aber von kaum einer Firma beschritten wird, ist die Anfertigung eines humanoiden Roboters – man würde hier von einem Androiden sprechen. Diese Anfertigung mit Silikonhaut und Motoren im Gesicht ist sehr teuer und letztlich noch weniger realistisch als der (virtuelle) Avatar. Diese und andere Antworten sind in den Artikel „Das ist dran am Zukunftsplausch mit den Toten“ von Peter Amenda eingeflossen, der am 16. Januar 2023 in der Onlineausgabe erschienen ist.
As part of the AAAI 2023 Spring Symposia in San Francisco, the symposium „Socially Responsible AI for Well-being“ is organized by Takashi Kido (Teikyo University, Japan) and Keiki Takadama (The University of Electro-Communications, Japan). The AAAI website states: „For our happiness, AI is not enough to be productive in exponential growth or economic/financial supremacies but should be socially responsible from the viewpoint of fairness, transparency, accountability, reliability, safety, privacy, and security. For example, AI diagnosis system should provide responsible results (e.g., a high-accuracy of diagnostics result with an understandable explanation) but the results should be socially accepted (e.g., data for AI (machine learning) should not be biased (i.e., the amount of data for learning should be equal among races and/or locations). Like this example, a decision of AI affects our well-being, which suggests the importance of discussing ‚What is socially responsible?‘ in several potential situations of well-being in the coming AI age.“ (Website AAAI) According to the organizers, the first perspective is „(Individually) Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to design Responsible AI for well-being. The second perspective is „Socially Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to implement social aspects in Responsible AI for well-being. More information via www.aaai.org/Symposia/Spring/sss23.php#ss09.
Das Sonntagsblatt hat mit Prof. Dr. Oliver Bendel ein Interview zu KI und Sozialer Robotik geführt. Unter anderem ging es um Roboter als Subjekte und Objekte der Moral. Der Informations- und Maschinenethiker hält nichts davon, Robotern moralische Rechte zuzugestehen. Er knüpft solche an Empfindungs- und Leidensfähigkeit bzw. Bewusstsein. Nach seiner Ansicht verläuft ein tiefer Graben zwischen Lebewesen und Dingen, und es sei gefährlich, diesen einebnen zu wollen. Auch von Pflichten möchte er nicht sprechen, höchstens von Verpflichtungen, die wir Robotern auferlegen, noch besser von Aufgaben, die sie erledigen müssen, unter Beachtung moralischer Regeln. Sogenannte moralische Maschinen sind neue, merkwürdige, unvollständige Subjekte der Moral. Sie haben kein Bewusstsein, keine Intuition, keine Empathie, keinen freien Willen, aber sie können – als autonome Maschinen alleingelassen in geschlossenen, halboffenen oder offenen Welten – verschiedene Optionen erwägen und eine von ihnen auswählen. Dies ist eine funktionale Moral, die allenfalls mit der Moral mit Fundamentalisten zu tun hat – aber in der Maschinenwelt kann sie eine Bereicherung darstellen, vor allem wenn Maschinen auf Menschen oder Tiere treffen, etwa als soziale Roboter. Das Interview kann in schriftlicher Form über www.sonntagsblatt.de/artikel/maschinenethiker-oliver-bendel-gpt3-pflegeroboter nachgelesen werden. Zudem gibt es einen Podcast von 45 Minuten Länge.
Abb.: Nicht einmal WALL-E hat moralische Rechte und Pflichten
„Reinigungsroboter sind (teil-)autonome Serviceroboter für die Reinigung von Flächen, Gegenständen und Wasservorkommen. Sie sind i.d.R. dinghaft gestaltet und ähneln flachen Zylindern oder Quadern. Man bringt sie zu einem Einsatzort und überlässt sie dort für eine gewisse Zeit sich selbst oder beaufsichtigt sie aus der Nähe oder der Ferne. Sie helfen zum einen bei der Nassreinigung von Böden (Wischroboter) und Fenstern (Fensterputzroboter). Sie setzen dabei Walzen und Bürsten sowie Wasser und Chemikalien ein. Ein Sonderfall sind Poolroboter, die sich durch das Wasser bewegen, und Desinfektionsroboter. Zum anderen unterstützen Reinigungsroboter die Trockenreinigung von Flächen, vor allem als Saugroboter, wie sie im Haushalt vorzufinden sind (Haushaltsroboter), oder als Kehrroboter für Straßen, Wege und Plätze sowie Betriebsgelände.“ So beginnt ein neuer Beitrag im Wirtschaftslexikon von Springer Gabler, der am 5. Dezember 2022 erschienen ist. In weiteren Abschnitten wird geklärt, was der Zusammenhang zwischen Servicerobotern und sozialen Robotern ist, welche Modelle von Reinigungsrobotern es gibt und welche Herausforderungen sich beim Einsatz ergeben. Der Beitrag von Oliver Bendel kann über wirtschaftslexikon.gabler.de/definition/reinigungsroboter-124732 aufgerufen werden.
Das HUGGIE-Projekt an der Hochschule für Wirtschaft FHNW schreitet voran. Unter der Leitung von Prof. Dr. Oliver Bendel wird das vierköpfige Team (Andrea Puljic, Robin Heiz, Ivan De Paola, Furkan Tömen) bis Januar 2023 eine Umarmungspuppe an Benutzern testen. Bereits bekannt ist, dass Wärme und Weichheit der Arme und des Körpers erwünscht sind. Nun wird untersucht, ob z.B. auch Stimme, Vibration und Geruch die Akzeptanz erhöhen. Die Leitfrage des Praxisprojekts ist: Kann ein sozialer Roboter durch Umarmungen und Berührungen zur Steigerung des körperlichen und geistigen Wohlbefindens beitragen, und welche Faktoren sind dabei zu berücksichtigen? Die Grundlage von HUGGIE ist eine Schneiderpuppe. Hinzu kommen Kleidung, ein Wärmeelement, ein Vibrationselement und ein Audiosystem. Zusätzlich wird ein Duft appliziert. Die Arme werden über unsichtbare Fäden bewegt, sodass aktive Umarmungen möglich sind. Insgesamt entsteht der Eindruck eines Umarmungsroboters. In einem Schweizer Unternehmen fand im November 2022 ein Probelauf mit 65 Probanden statt. Sie wurden von HUGGIE und einem Riesenteddy umarmt. Anhand der Ergebnisse und Eindrücke werden der Fragebogen und die Versuchsanordnung verbessert. Ab Ende November 2022 tritt das Projekt in seine finale Phase, mit Durchführung und Auswertung der Tests.
Simone Luchetta vom Tages-Anzeiger hat Prof. Dr. Oliver Bendel zu Chatbots, Sprachassistenten und sozialen Robotern befragt. Eine Frage war, warum man seit Jahrzehnten davon spreche, dass wir bald Roboter heiraten, aber noch immer nichts dergleichen zu beobachten sei, allenfalls in Japan. Seine Antwort: „Es ist eine alberne Vorstellung, dass wir Chatbots, Sprachassistenten oder Roboter heiraten. Man muss nichts und niemanden heiraten, um eine Beziehung zu führen. In den meisten Fällen dürfte es sich auch um keine echte Ehe handeln. Manchen Produkten liegt ein Zettel bei, den man ausfüllen kann und der über eine Absichtserklärung eine Heirat darstellen soll. Die Maschine selbst hat keine Absichten. Sie hat auch weder Rechte noch Pflichten – und das ist eine schlechte Grundlage für einen Vertrag, der die Ehe letztlich ist. Tatsächlich führen aber viele Menschen eine Beziehung mit einem Sprachassistenten oder einem sozialen Roboter, nicht nur in Japan, sondern auch in den USA oder in Deutschland. Manche haben sogar einen Sexroboter wie Harmony oder gehen zu Liebespuppen in Bordellen. … Letztlich ist und bleibt es eine einseitige Beziehung. Der Roboter interessiert sich nicht für einen, er liebt und hasst einen nicht. Es ist einfach ein Ding, wenn auch ein Ding mit besonderen Eigenschaften. Es ist ein soziales Ding. Und deshalb gehen wir ihm auf den Leim.“ Das Interview umfasste weitere Fragen und Antworten, auch zu kommerziellen Chatbots. Einige Aussagen sind in den Artikel „Meine unheimlich nette Freundin“ eingeflossen, der am 13. und 14. November 2022 in mehreren Schweizer Zeitungen erschienen ist, etwa im Tages-Anzeiger und in der Basler Zeitung. Er ist Teil eines aktuellen KI-Schwerpunkts der Tamedia-Gruppe.
Bei Hiltl Sihlpost ist seit kurzer Zeit Billi im Einsatz, ein Transportroboter. In einem Tweet vom 28. Oktober 2022 schreibt das nach eigenen Angaben älteste vegetarische Restaurant der Welt: „Bei uns sind alle herzlich willkommen: Ob Mensch, Tier oder Roboter. Das ist Billi – unsere neue Unterstützung am Hiltl[-]Buffet. Begleite Billi am 1. Arbeitstag in der Hiltl Sihlpost oder statte gleich einen Besuch ab.“ Bei Billi handelt es sich offenbar um BellaBot, einen weiblich anmutenden Serviceroboter aus China. Dieser verfügt über ein Display, auf dem ein animiertes Katzengesicht mit großen (oder vor Wonne zusammengekniffenen) Augen, Mund und Schnurrbarthaaren zu sehen ist, zudem über schwarze Öhrchen aus Kunststoff. Adrian Lobe hatte Prof. Dr. Oliver Bendel Ende 2021 für die TAZ zu BellaBot interviewt. Er wollte u.a. wissen, ob solche Modelle, die weibliche Attribute aufnehmen, Stereotype befördern. Der Informations- und Maschinenethiker hat nichts dagegen, dass soziale Roboter ein Geschlecht vorgeben und z.B. eine weibliche oder männliche Stimme haben. Dies bringt in vielen Menschen etwas zum Klingen. Eine neutrale Stimme leistet dies nicht unbedingt. Zugleich ist es seiner Ansicht nach nicht notwendig, in allen Zusammenhängen weitreichende humanoide oder animaloide Erscheinungsformen zu wählen. Ein europäischer Konkurrent zu BellaBot ist mit Plato entstanden. Er wurde im November 2022 von der United Robotics Group auf den Markt gebracht. Plato hat große runde Augen, Augenbrauen und einen Mund, die ebenfalls Animationen auf einem Display sind. Es wird sich zeigen, welche Modelle die Betreiber und ihre Gäste bevorzugen.
Latein wird an vielen Schulen und Hochschulen gelehrt und immer noch für das eine oder andere Studium – etwa der Philosophie – vorausgesetzt oder gewünscht. Jahrhundertelang hat es an vergnüglichen Möglichkeiten gemangelt, die Sprache zu erlernen und anzuwenden. Allenfalls Asterix-Comics brachten etwas Abwechslung ins von Caesar und Co. beherrschte Gebiet. Prof. Dr. Oliver Bendel hat an der Hochschule für Wirtschaft FHNW einen Chatbot in Auftrag gegeben, der sich auf Lateinisch unterhalten kann, und ihm den Namen @ve gegeben. Karim N’diaye bereitet seit September 2022 die Umsetzung vor, die dann ab Mitte November 2022 – nach der Zwischenpräsentation – erfolgt. Prof. Dr. Bradley Richards betreut das Projekt in technischer Hinsicht. Nach einer Evaluation hat sich gezeigt, dass sich Quickchat (www.quickchat.ai) als Plattform eignet. Damit basiert der Chatbot auf GPT-3. Durch eine händisch erstellte Wissensbasis kann er noch spezifischer für Latein trainiert werden und auch präzisere Antworten zu grammatikalischen Fragen liefern. Außerdem ist Zweisprachigkeit, also Deutsch und Lateinisch, möglich. Bis Ende des Jahres soll @ve als Prototyp vorliegen. Wie bei allen Projekten zu Chatbots und Sprachassistenten, die Oliver Bendel initiiert, können die Ergebnisse frei verwendet werden.
„Der Mensch sieht sich mit immer schnelleren technischen und technologischen Entwicklungen konfrontiert. Daraus entstehen Fragen nach ethischer Orientierung innerhalb verschwimmender Grenzen zwischen Natur und Technik. Das neue Heft Amos international greift die Diskussion um die Digitalisierung mit ihren verschiedenen Facetten auf und untersucht Künstliche Intelligenz im Spannungsfeld zwischen Heilversprechen und apokalyptischen Warnungen.“ (Vorwort amos international, 2/2022) So lautet das Vorwort zu einem Schwerpunkt der Zeitschrift Amos international. Die Artikel stammen von Anna Maria Riedl, Bernhard Irrgang, Armin Grunwald, Katharina Klöcker, John Wyatt und Catrin Misselhorn. Claudia Schwarz führte ein Interview mit Oliver Bendel zur Frage der Verantwortung bei Maschinen und zu Roboter- und Maschinenethik. Der studierte Philosoph und promovierte Wirtschaftsinformatiker hält aus Prinzip keine Vorträge für religiöse Einrichtungen und schreibt keine Artikel für religiöse Zeitschriften. Er steht ihnen aber in Einzelfällen für Interviews zur Verfügung. Das Heft kann über www.amosinternational.de/magazine/issue-2022-3 aufgerufen werden.
„Sind Maschinen das Ende der Menschheit?“ So lautet der Titel eines Ende Oktober bis Anfang November 2022 erschienenen Dossiers in der Zeitschrift „Der Pragmaticus“. Diese wurde u.a. vom Red-Bull-Chef Dietrich Mateschitz gegründet. Er ist vor kurzem gestorben, und es handelt sich um das erste Dossier, dessen Veröffentlichung er nicht mehr erlebt hat. Enthalten ist ein Beitrag von Prof. Dr. oec. HSG Oliver Bendel mit dem Titel „Brauchen Computer eine Moral?“ … Im Teaser der Redaktion ist zu lesen: „In Form von Chatbots, Rasenrobotern und autonomen Autos sind die Computer heute überall. Je mehr die Maschinen können, umso dringlicher scheint es, ihnen unter Einbezug der Ethik Regeln zu geben.“ Der Artikel des Informations- und Maschinenethikers aus Zürich ist am 1. November 2022 freigeschaltet worden und kann über www.derpragmaticus.com/r/maschinenethik/ aufgerufen werden.
Am 3. Oktober 2022 ist auf der Website des österreichischen Standard der Artikel „Wie ‚Fiktosexuelle‘ Beziehungen mit virtuellen Figuren führen“ erschienen. In der gedruckten Ausgabe war er schon ein paar Tage vorher zu lesen, unter dem Titel „Unfassbar verliebt„. Im Teaser heißt es: „Es gibt Menschen, die tatsächlich Beziehungen mit Hologrammen, virtuellen Avataren und smarten Assistentinnen führen. Dennoch bleibt die Maschinenliebe eine Illusion …“. Zu Wort kommt mehrmals Prof. Dr. Oliver Bendel, dessen Buch „Maschinenliebe“ über Liebespuppen, Sexroboter und virtuelle Figuren aller Art im Jahre 2020 herausgekommen ist. Mitgeschrieben haben einige der führenden Experten in diesem Bereich, u.a. Sophie Wennerscheid, Tanja Kubes, Melike Şahinol, Kate Devlin, Nicola Döring und Yuefang Zhou. Im Buch „AI Love You“ von Yuefang Zhou und Martin Fischer veröffentlichte Oliver Bendel auch den Beitrag „Hologram Girl“, der auf Beziehungen zu Hologrammen und Projektionen eingeht. Der Artikel im Standard kann hier abgerufen werden.
Beim „uDay 20: Innovation in der Pflege – gewusst wie!“ am 20. September 2022 an der Fachhochschule Vorarlberg hält Oliver Bendel die Keynote „Pflegeroboter aus ethischer Perspektive“. Aus der Beschreibung: „Pflege- und Therapieroboter können als Serviceroboter und in vielen Fällen auch als soziale Roboter begriffen werden. Im Vortrag von Professor Dr. Oliver Bendel aus Zürich werden die Ziele, Aufgaben und Merkmale geklärt und, davon ausgehend, Überlegungen aus der Perspektive der Ethik angestellt. Am Ende soll deutlich werden, welche Robotertypen und Prototypen bzw. Produkte es im Gesundheitsbereich gibt, welche Zwecke sie erfüllen, welche Funktionen sie übernehmen und welche Implikationen und Konsequenzen dies für den Einzelnen und die Gesellschaft hat. Pflegeroboter mögen zur persönlichen Autonomie beitragen und zugleich die informationelle Autonomie schwächen. Therapieroboter können die persönliche Leistung und Zufriedenheit steigern, in Einzelfällen aber auch die Menschenwürde verletzen. Es ist wichtig, Serviceroboter und soziale Roboter im Gesundheitsbereich so zu gestalten, dass sie möglichst allen Anforderungen und Bedürfnissen gerecht werden und nützliche Werkzeuge für Pflegekräfte und Pflegebedürftige sind. Dabei können nicht zuletzt Disziplinen wie die Maschinenethik helfen.“ Die Keynote beginnt um 9.15 Uhr. Das Programm kann hier heruntergeladen werden.
Abb.: Eine Maske ist während der Pandemie eine gute Wahl
Die Abschlussarbeit von Marc Heimann mit dem Titel „CARE-MOMO“ beschreibt die Implementierung eines Moralmoduls für den Pflegeroboter Lio. Damit werden frühere Projekte fortgesetzt, vor allem die Entwicklung eines Moralmoduls für einen Chatbot (MOBO-MOME) aus dem Jahre 2020. Die Forschungsfrage lautet: „Welche moralischen Probleme treten beim Einsatz eines Pflegeroboters wie Lio auf und wie kann eines von ihnen mithilfe von Ansätzen der Maschinenethik gelöst werden?“ (Abstract Bachelorarbeit) „Durch Expertengespräche mit der Firma F&P Robotics AG und Interviews mit Mitarbeitenden, welche Lio täglich nutzen, konnten einige dieser moralischen Probleme identifiziert werden. Auch bereits bekannte moralische Problemsituationen von Robotern in der Pflege wurden durch wissenschaftliche Literaturrecherche der Sammlung hinzugefügt.“ (Abstract Bachelorarbeit) Des Weiteren wurden die Akzeptanz gegenüber und das Interesse an Robotern in der Pflege analysiert. Mit dem gesammelten Wissen entwickelte Marc Heimann anschließend einen „Prototyp eines Moralmoduls …, welches ein Moralmenü beinhaltet, das den Benutzer Lios Verhalten … individuell anhand der moralischen Probleme anpassen lässt“, und zwar auf einfache Weise mit Hilfe von Schiebereglern. Zur Verfügung stehen die Bereiche Soziale Aspekte, Transparenz und Funktionalität. „Umgesetzt wurde das Moralmodul als Webservice, damit Lio es in Zukunft auf einem Tablet zur Verfügung stellen kann.“ (Abstract Bachelorarbeit) Dabei kann es sich um das integrierte Display oder ein separates Tablet handeln. Im Herbst werden die Ergebnisse dem Unternehmen vorgestellt, das in Glattbrugg bei Zürich seinen Sitz hat. Ein Video zum Projekt findet sich in der Videosektion oder direkt auf YouTube.