Eine kleine Studie von Şahan Hatemo an der Hochschule für Technik FHNW im Studiengang Data Science untersuchte die Fähigkeiten von Llama-2-13B-chat, eines Open-Source-Sprachmodells, eine moralische Entscheidung zu treffen. Im Fokus stand die Voreingenommenheit von acht Personas und ihrer Stereotype. Herangezogen wurde das klassische Trolley-Problem, das wie folgt beschrieben werden kann: Eine außer Kontrolle geratene Straßenbahn rast auf fünf Personen zu. Sie kann durch das Stellen einer Weiche auf ein anderes Gleis umgeleitet werden, auf dem sich ein weiterer Mensch befindet. Die moralische Frage ist, ob der Tod dieses Menschen in Kauf genommen werden darf, um das Leben der fünf Personen zu retten. Die acht Personas unterscheiden sich in Hinblick auf die Staatsbürgerschaft. Neben „Italian“, „French“, „Turkish“ etc. wurde auch „Arabian“ (mit Bezug zur Ethnie) genommen. Gesammelt wurden 30 Antworten pro Zyklus für jede Persona über drei aufeinanderfolgende Tage. Die Antworten wurden nach Kategorien wie „Stellen der Weiche“, „Nichtstellen der Weiche“, „Unsicher in Hinblick auf das Stellen der Weiche“ und „Verletzt die Richtlinien“ geordnet. Mit Hilfe von Dashboards wurden sie visualisiert und verglichen. Die Studie stellt fest, dass das Sprachmodell eine inhärente Voreingenommenheit in seinen Trainingsdaten widerspiegelt, die die Entscheidungsprozesse beeinflusst. Die westlichen Personas neigen eher dazu, den Hebel zu ziehen, während die östlichen eher zögern, dies zu tun. Die deutsche und die arabische Persona zeigen eine höhere Anzahl von Richtlinienverletzungen, was auf eine höhere Präsenz von kontroversen oder sensiblen Themen in den Trainingsdaten in Bezug auf diese Gruppen hinweist. Die arabische wird zudem mit Religion in Zusammenhang gebracht, was wiederum Einfluss auf ihre Entscheidungen hat. Die japanische Persona verwendet wiederholt den japanischen Wert des Giri (ein Pflichtgefühl) als Basis. Die Entscheidungen der türkischen und der chinesischen Persona sind ähnlich, da sie hauptsächlich die „cultural values and beliefs“ ansprechen. Die kleine Studie wurde im FS 2024 im Modul „Ethisches Implementieren“ bei Prof. Dr. Oliver Bendel durchgeführt. Dabei wurde auch die anfangs vorhandene Komplexität reduziert. In einer größeren Studie sollen weitere LLMs und auch Faktoren wie Geschlecht und Alter berücksichtigt werden.
Die Maschinenethik, die vor zehn Jahren oft noch als Kuriosität abgetan wurde, ist inzwischen Alltagsgeschäft. Sie ist etwa gefragt, wenn man bei Sprachmodellen bzw. Chatbots sogenannte Guardrails einzieht, über Alignment in der Form von Finetuning oder über Prompt Engineering. Wenn man GPTs erstellt, also „custom versions of ChatGPT“, wie Open AI sie nennt, hat man das „Instructions“-Feld für das Prompt Engineering zur Verfügung. Dort kann der Prompteur oder die Prompteuse bestimmte Vorgaben und Einschränkungen für den Chatbot erstellen. Dabei kann auf Dokumente verwiesen werden, die man hochgeladen hat. Genau dies macht Myriam Rellstab derzeit an der Hochschule für Wirtschaft FHNW im Rahmen ihrer Abschlussarbeit „Moral Prompt Engineering“, deren Zwischenergebnisse sie am 28. Mai 2024 vorgestellt hat. Als Prompteuse zähmt sie GPT-4o, mit Hilfe ihrer Anweisungen und – dies hatte der Initiator des Projekts, Prof. Dr. Oliver Bendel, vorgeschlagen – mit Hilfe von Netiquetten, die sie gesammelt und dem Chatbot zur Verfügung gestellt hat. Der Chatbot wird gezähmt, der Tiger zum Stubentiger, der ohne Gefahr etwa im Klassenzimmer eingesetzt werden kann. Nun ist es bei GPT-4o so, dass schon vorher Guardrails eingezogen wurden. Diese wurden einprogrammiert oder über Reinforcement Learning from Human Feedback gewonnen. Man macht also genaugenommen aus einem gezähmten Tiger einen Stubentiger. Bei bestimmten Open-Source-Sprachmodellen ist dies anders. Das wilde Tier muss erst einmal eingefangen und dann gezähmt werden. Und selbst dann kann es einen ernsthaft verletzen. Doch auch bei GPTs gibt es Tücken, und wie man weiß, können Stubentiger durchaus fauchen und kratzen. Im August liegen die Ergebnisse des Projekts vor. Bereits bei Data, einem Chatbot für den Studiengang Data Science an der Hochschule für Technik FHNW, war Moral Prompt Engineering angewandt worden.
Gabriela Bohler, Entrepreneurin im Bereich sozialer Roboter (www.smart-companion.ch), setzte von Herbst 2023 bis Frühjahr 2024 verschiedene Lernanwendungen mit Alpha Mini um. Das Projekt „Alpha Mini für die Schule“ – initiiert von Prof. Dr. Oliver Bendel Anfang 2023 und durchgeführt von Andrin Allemann von März bis August 2023 – findet damit seine Nachahmer. Gabriela Bohler hatte Kontakt mit den beiden aufgenommen. Bei einem gemeinsamen Videocall war auch das Zürcher Unternehmen raumCode zugegen. Dieses führte in ihrem Auftrag eine Anbindung von Alpha Mini – nun Robin genannt – an seine Robot Management Platform durch. Dabei konnten Ideen und Informationen aus dem Projekt „Alpha Mini für die Schule“ verwendet werden. Danach übertrug die Entrepreneurin ihre Applikationen (Kids, Agers, Education, Entertainment), die bereits auf NAO und Pepper laufen, auf Alpha Mini. Dieser bekam sogar ein eigenes Sofa – aber er wird keine Zeit haben, sich auszuruhen. Die Grundidee von Oliver Bendel war gewesen, eine Lernanwendung für Kinder zu schaffen, dabei aber keinen teuren sozialen Roboter wie Pepper zu verwenden, sondern einen günstigen wie Alpha Mini. Dafür wurde das Produkt von Ubtech mit einem MS Surface gekoppelt und eine App entwickelt, die auf dem sozialen Roboter installiert und für die Darstellung auf dem Touchscreen gespiegelt wurde. Prof. Dr. Oliver Bendel stellte das Projekt „Alpha Mini für die Schule“ unter dem englischen Titel „Alpha Mini as a Learning Partner in the Classroom“ bei der ICSR 2023 in Qatar vor. Das Paper ist in diesem Proceedingsband von Springer enthalten.
„Die parlamentarische Technikfolgenabschätzung oder Technologiefolgenabschätzung zielt auf Analyse und Bewertung der Wirkungen und Folgen einer Technik bzw. Technologie ab, insbesondere in prospektiver Absicht, und ist trotz (oder auch wegen) der kaum noch zu übersehenden Problemgebiete und der kaum noch zu bewältigenden Komplexität nach wie vor ein wichtiges Instrument bei der Beratung der Politik. Sie wird durch TA-Einrichtungen des Parlaments oder außerhalb des Parlaments betrieben, in manchen Ländern wie in Finnland und Griechenland sogar von Mitgliedern des Parlaments selbst.“ Mit diesen Worten beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon von Oliver Bendel zur parlamentarischen Technikfolgenabschätzung. Es werden TA-Einrichtungen in den deutschsprachigen Ländern aufgezählt und – nach der Betonung der interdisziplinären Herangehensweise – Themen und Schwerpunkte genannt. Der Wissenschaftsfreiheit gehören die letzten Zeilen. Der ganze Beitrag – erschienen ist er am 6. Mai 2024 – kann hier aufgerufen werden.
The manuscript of the book „Non-Human Animals, Ethics and Engineering“ (alternative title „Animals, Ethics and Engineering“) was sent to the publisher Jenny Stanford in May 2024. It contains 16 chapters on this topic, including by Clara Mancini („Animal-Centered Technology and Sustainable Development“), Fiona French („Designing and Crafting Systems for Non-Human Animals“), and Leonie Bossert together with Thilo Hagendorff („Animals and AI: The Role of Animals in AI Research and Application“). In “An Investigation into the Encounter Between Social Robots and Animals” (Chapter 12), Oliver Bendel “delves into the evolving landscape of social robots designed to interact with animals, dissecting the intricate dynamics of these interactions and their ethical ramifications” (Information from the editors). The philosopher of technology also presents his own projects, such as concepts and prototypes of animal-friendly machines, developed in the context of machine ethics, animal-machine interaction, and social robotics. The editor is Rosalyn W. Berne from the University of Virginia. The book is scheduled for publication in late summer or fall 2024.
Fig.: A robot turtle and a woman (Image: Ideogram)
„Die parlamentarische Technikfolgenabschätzung oder Technologiefolgenabschätzung zielt auf Analyse und Bewertung der Wirkungen und Folgen einer Technik bzw. Technologie ab, insbesondere in prospektiver Absicht, und ist trotz (oder auch wegen) der kaum noch zu übersehenden Problemgebiete und der kaum noch zu bewältigenden Komplexität nach wie vor ein wichtiges Instrument bei der Beratung der Politik. Sie wird durch TA-Einrichtungen des Parlaments oder außerhalb des Parlaments betrieben, in manchen Ländern wie in Finnland und Griechenland sogar von Mitgliedern des Parlaments selbst.“ Mit diesen Worten beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon von Oliver Bendel zur parlamentarischen Technikfolgenabschätzung. Es werden TA-Einrichtungen in den deutschsprachigen Ländern aufgezählt und – nach der Betonung der interdisziplinären Herangehensweise – Themen und Schwerpunkte genannt. Der Wissenschaftsfreiheit gehören die letzten Zeilen. Der ganze Beitrag – erschienen ist er am 6. Mai 2024 – kann hier aufgerufen werden.
Abb.: Technikfolgenabschätzung gibt es auf der ganzen Welt
Prof. Dr. Oliver Bendel introduced the term „robot enhancement“ in 2020 and has since used it in several articles and book chapters. Robot enhancement is the extension and associated modification or improvement of the robot by the user or a company, for example in functional, aesthetic, ethical, or economic terms. The word was coined in reference to „human enhancement“ and „animal enhancement“, and can be used to describe both the field of work and the object. One form of robot enhancement is social robot enhancement, in which a social robot is enhanced or modified and improved. An impressive example of robot enhancement is shown in a video by Boston Dynamics. A „naked“ spot and a spot with a dog costume dance together in the hall where Atlas used to be seen again and again. Such robot enhancement should not necessarily be imitated by the user. There are some robots that cannot stand the costume and will heat up – to the point of becoming defective.
Fig.: The anatomy of Spot (Image: Boston Dynamics)
In addition to the ICSR in Odense, which focuses on social robotics and artificial intelligence, there is also the ICSR in Naples this year, which organizes a robot competition. In addition, an ICSR conference focusing on biomedicine and the healthcare sector will take place in Singapore from August 16-18, 2024. The website states: „The 16th International Conference on Social Robotics + BioMed (ICSR + BioMed 2024) focuses on interdisciplinary innovation on Bio-inspired, Biomedical, and Surgical Robotics. By fostering the much-needed merging of these disciplines, together with fast emerging Biotech, the conference aims to ensure the lesson learned from these communities blend to unleash the real potential of robots. … The conference will serve as the scientific, technical, and business platform for fostering collaboration, exploration, and advancement in these cutting-edge fields. It will showcase the latest breakthroughs and methodologies, shaping the future of robotics design and applications across several sectors including Biomedical and healthcare.“ (Website ICSR) Papers must be submitted by June 5, 2024. Further information on the conference is available at robicon2024.org.
ACM Designing Interactive Systems 2024 (DIS 2024) will be held from 1-5 July 2024 at IT University, Copenhagen, Denmark. The Call for Papers for the Creative Robotics Theatre workshop is open to workshop papers, videos, pictorials, design explorations and performances. The roboticist and artist Hooman Samani is one of the organizers. He calls for participation on his website: „Join us at DIS 2024 for an innovative workshop exploring the confluence of robotics, theatre, and societal change. We are seeking artists, technologists, researchers, and practitioners interested in pushing the boundaries of Creative Robotics Theatre to enhance societal well-being and address global challenges.“ (Website Hooman Samani) Topics of interest include creative robotics theatre, robotics performance, embodied and tangible interfaces and performances, and performance with embodied objects. The deadline for submissions is 15 May 2024. Further information on the workshop is available at hoomansamani.com.
Vom 4. bis zum 6. Juni 2024 findet die Learntec, die größte E-Learning-Messe und -Konferenz Europas, in Karlsruhe statt. Kurator des Future Lab zu sozialen Robotern und Virtual Learning Companions (VLCs) ist Prof. Dr. Oliver Bendel, der seit einem Vierteljahrhundert sogenannte Conversational Agents als verkörperte oder nichtverkörperte Entitäten erforscht. Um die Jahrtausendwende waren es vor allem Pedagogical Agents, die sein Interesse erregten. Inzwischen geht es u.a. um Pflege- und Therapieroboter, Lehrerroboter und Polizeiroboter sowie VLCs der zweiten Generation. Man wird auf der Learntec mit zwei sozialen Robotern interagieren und kommunizieren können, die den neuesten Stand der Technik darstellen. Zugesagt haben hierfür Navel Robotics und Becker Robotics. Zudem wird man an einer Station mit Social Robotics Girl chatten können, einem von Oliver Bendel entwickelten GPT. Videos und Impulsvorträge zu sozialen Robotern und Virtual Learning Companions vermitteln Wissen zum Thema und geben Einblicke in Projekte. Weitere Informationen gibt es ab Mai 2024 auf informationsethik.net und auf der Website der Learntec. Oliver Bendel hat bereits 2002 bis 2004 als Referent zum Programm beigetragen. Seit 2022 ist er wieder mit an Bord.
Der Bundeswettbewerb KI unter der Schirmherrschaft des Ministerpräsidenten des Landes Baden-Württemberg, Winfried Kretschmann, geht in eine neue Runde. Auf der Website wird mit den Worten geworben: „Eure Ideen sind gefragt! Verändert die Welt mit Künstlicher Intelligenz und entwickelt euer eigenes KI-Projekt. Setzt eure Idee um und nutzt dazu die Methoden des maschinellen Lernens. Lasst euch von den Projekten aus dem Vorjahr inspirieren.“ (Website BWKI) Der Wettbewerb richtet sich nach den Angaben der Initiatoren und Organisatoren an Schüler und Schülerinnen weiterführender Schulen. Eine Teilnahme im ersten Jahr nach dem Schulabschluss sei ebenfalls möglich. Auf Instagram stehen Materialien und Interviews zu interessanten Themen und Disziplinen zur Verfügung. Dazu gehört die Tier-Maschine-Interaktion (mitsamt Ansätzen der Maschinenethik), die von Prof. Dr. Oliver Bendel erklärt wird, etwa in den Beiträgen „Wie sollen sich Maschinen gegenüber Tieren verhalten“ (14. März 2024), „Können Tiere und Maschinen Freunde werden?“ (17. März 2024) und „Schützt KI Igel vor dem Rasenmähertod?“ (21. März 2024). Im Teaser der Website heißt es: „Meldet euch, euer Team und eure Idee bis zum 2. Juni 2024 an. Euer Projekt könnt ihr dann bis zum 15. September 2024 fertigstellen. Wer ist dabei?“ (Website BWKI) Weitere Informationen über www.bw-ki.de.
Abb.: Tier-Maschine-Interaktion kann eine Perspektive sein
„In Gaza und in der Ukraine werden ethisch umstrittene ‚High-Tech-Hunde‘ und andere autonome Waffen eingesetzt: Sie töten emotionslos, chirurgisch und ‚kostengünstiger‘. Das ist weder moralisch, noch völkerrechtlich vertretbar.“ (Die Furche, 3. April 2024) Mit diesen Worten beginnt ein Artikel von Adrian Lobe, der am 3. April 2024 in der österreichischen Wochenzeitung Die Furche veröffentlicht wurde. Zu Wort kommt Prof. Dr. Oliver Bendel, der sich wiederholt mit autonomen Waffensystemen beschäftigt hat. Im Jahre 2016 diskutierte er auf einem Panel in Krakau u.a. mit Ronald C. Arkin, der im Auftrag des Pentagon militärische Roboter mit einem künstlichen Gewissen ausgerüstet hat, wobei es bei Prototypen geblieben ist. Beide sind im Bereich der Maschinenethik tätig, haben aber z.T. ganz unterschiedliche Positionen. Oliver Bendel betreibt keine militärische Forschung und lehnt den Einsatz autonomer Kampfroboter ab. Er weist immer wieder darauf hin, dass auch Maschinen, die zu zivilen Zwecken entwickelt wurden, zu militärischen genutzt werden können, so wie es bereits der Fall bei Unitree Go1 und Go2 war – ihn stört daran nicht nur der Waffeneinsatz an sich, sondern auch, dass man die Akzeptanz gegenüber hilfreichen und sinnvollen Servicerobotern gefährdet. Der Artikel kann über www.furche.at abgerufen werden.
Ende März 2024 ist der Band „Generative Künstliche Intelligenz: ChatGPT und Co für Bildung, Wirtschaft und Gesellschaft“ erschienen. Herausgeber sind Prof. Dr. Sabine Seufert und Prof. Dr. Siegfried Handschuh von der Universität St. Gallen. Sie informieren wie folgt: „Generative Künstliche Intelligenz beschreibt eine Klasse von KI-Systemen, die in der Lage sind, aus großen Datenmengen zu lernen und auf dieser Grundlage neue, bisher nicht gesehene Inhalte zu generieren, wie beispielsweise Texte, Bilder, Musik oder Videos. Dabei wird die Generierungskapazität der KI mit dem Ziel eingesetzt, kreative Prozesse zu unterstützen, neue Ideen zu generieren und innovative Lösungsansätze zu liefern. Trotz ihrer beeindruckenden Fähigkeiten haben generative KI-Systeme auch ihre Herausforderungen, wie die Kontrolle über den generierten Inhalt, das Verständnis von Kontext und Bedeutung sowie ethische Fragen im Zusammenhang mit der Nutzung von generativer KI. Der Band gibt einen Überblick über generative KI-Systeme und beleuchtet die Auswirkungen auf das Management von Innovationen, Wirtschaft, Bildung und Gesellschaft.“ (Website Verlag) Im Band enthalten ist der Beitrag „Generative KI aus ethischer Sicht“ von Prof. Dr. Oliver Bendel. Weitere Informationen über shop.haufe.de/prod/generative-kuenstliche-intelligenz.
Abb.: Ein schwarzer Arzt ist oft nicht vorgesehen (Bild: DALL-E 3)
On March 26, 2024, Oliver Bendel (School of Business FHNW) gave two talks on generative AI at Stanford University. The setting was the AAAI Spring Symposia, more precisely the symposium „Impact of GenAI on Social and Individual Well-being (AAAI2024-GenAI)“. One presentation was based on the paper „How Can Generative AI Enhance the Well-being of the Blind?“ by Oliver Bendel himself. It was about the GPT-4-based feature Be My AI in the Be My Eyes app. The other presentation was based on the paper „How Can GenAI Foster Well-being in Self-regulated Learning?“ by Stefanie Hauske (ZHAW) and Oliver Bendel. The topic was GPTs used for self-regulated learning. Both talks were received with great interest by the audience. All papers of the AAAI Spring Symposia will be published in spring. The proceedings are edited by the Association for the Advancement of Artificial Intelligence itself.
Bei der Jahrestagung des Instituts für Digitale Ethik (IDE) der Hochschule der Medien am 19. Juni 2024 geht es um humanoide Roboter und Serviceroboter aller Art. Dabei wird sozusagen die Maschinenethik des deutschsprachigen Raums fast vollständig vertreten sein, in Person des Technikphilosophen und Wirtschaftsinformatikers Prof. Dr. Oliver Bendel („Handbuch Maschinenethik“ – Springer VS) und der Philosophin Prof. Dr. Catrin Misselhorn („Grundfragen der Maschinenethik“ – Reclam). Zudem referiert Prof. Dr. Armin Nassehi vom Institut für Soziologie der Ludwig-Maximilians-Universität München. Aus dem Forschungsprojekt ZEN-MRI (www.zen-mri.de) werden Ideen zur Gestaltung von Robotern im öffentlichen Raum vorgestellt. Im Rahmen der Tagung findet zudem die 20. Verleihung des Medienethik-Awards META statt, in deren Rahmen laut IDE herausragende journalistische Beiträge zum Thema Mensch-Maschine von einer studentischen Jury prämiert werden. Der Vortrag von Oliver Bendel trägt den Titel „Es wird ein Mensch gemacht: Die Vision des universellen Roboters“. Weitere Informationen sind in Kürze auf der Website des IDE verfügbar.
Abb.: Es geht um universelle Roboter (Bild: Ideogram)
Oliver Bendel wurde im Februar 2024 von der Sonntagszeitung zu Pflegerobotern befragt. Zunächst ging er auf die bekannten Beispiele von Pflegerobotern und Robotern in der Pflege ein und erwähnte Lio und Navel. An einer Stelle blickte der Technikphilosoph in die Zukunft der Pflege: „Irgendwann werden sich universelle Roboter durchsetzen, auch Allzweckroboter genannt. Es gibt heute schon Vierbeiner für 1800 Dollar. Damit meine ich den Unitree Go2, den ich selbst in meinem privaten Social Robots Lab habe. Wenn man die fortgeschrittenen Varianten von ihm haben will, zahlt man allerdings bis zum Zehnfachen des Preises. Die Zweibeiner, die beliebige Arbeiten verrichten können, kosten nochmals wesentlich mehr, der Unitree H1 um die 90.000. Dafür kann man aber solche Roboter in ganz verschiedenen Bereichen einsetzen.“ Dazu gehört dann eines Tages auch die Pflege. Oliver Bendel veröffentlichte 2018 als Herausgeber das Buch „Pflegeroboter“. Es entwickelte sich schnell zum Standardwerk und kann heute auf SpringerLink fast eine halbe Million Downloads vorweisen. Der Artikel ist am 17. März 2024 unter dem Titel „Die PflegeroboLioter werden es richten, aber nicht so bald“ erschienen.