Sprachmodelle für Roboterarme

Forscher von Google und der TU Berlin haben am 6. März 2023 ein verkörpertes, multimodales Sprachmodell mit dem Namen PaLM-E vorgestellt, das virtuelle und physische Welt verbindet. So kann man per Spracheingabe einen Haushaltsroboter steuern und ihn dazu bringen, bestimmte Gegenstände zu holen oder andere Tätigkeiten zu verrichten. Der Prompt kann dabei vom Benutzer spontan aus seiner eigenen Beobachtung der Umwelt abgeleitet werden. Die Idee der PaLM-E-Architektur besteht laut Projektwebsite darin, kontinuierliche, verkörperte Beobachtungen wie Bilder, Zustandseinschätzungen oder andere Sensormodalitäten in den Spracheinbettungsraum eines vortrainierten Sprachmodells zu integrieren. Im Beispielvideo lautet die Instruktion in deutscher Übersetzung: „Bring mir die Reischips aus der Schublade“. Golem schreibt in einem Artikel: „Dazu analysiert Palm-E die Daten der Roboterkamera, ohne dass eine vorverarbeitete Szenendarstellung erforderlich ist. Damit entfällt die Notwendigkeit, dass ein Mensch die Daten vorverarbeitet oder kommentiert, was eine autonomere Robotersteuerung ermöglicht.“ (Golem, 10. März 2023) Im Video fährt der Roboter – ein Roboterarm auf einer mobilen Plattform, ganz ähnlich wie Lio – zur Schublade und entnimmt ihr die Packung. In dem Paper „ChatGPT for Robotics: Design Principles and Model Abilities“ von Microsoft-Forschern wird eine ähnliche Strategie verfolgt, wobei ChatGPT verwendet wird, das wiederum auf GPT-3 basiert. Das Paper zu PaLM-E kann hier heruntergeladen werden.

Abb.: Über Sprachmodelle kann man Roboterarme steuern

Der kleine Lehrer

Alpha Mini ist ein sozialer Roboter, der sich durch geringe Größe (und damit gute Transportfähigkeit) und weitgehende natürlichsprachliche und motorische Fähigkeiten auszeichnet. Er kann im Schulunterricht eingesetzt werden, sowohl als Lehrer und Tutor als auch als Tool, mit dem man programmiert. Am 8. März 2023 startete an der Hochschule für Wirtschaft FHNW das Projekt „Little Teacher“, in dem Alpha Mini eine Hauptrolle spielt. Initiator ist Prof. Dr. Oliver Bendel, der seit einem Vierteljahrhundert über Conversational Agents und soziale Roboter forscht. Andrin Allemann trägt im Rahmen seiner Abschlussarbeit zum Projekt bei. Alpha Mini soll in eine Lernumgebung integriert werden und mit anderen Komponenten wie einem Display interagieren und kommunizieren können. Er soll mit Hilfe von Bildern und Texten einfachen Lernstoff vermitteln und die Kinder durch gestisches und mimisches Feedback motivieren. Es handelt sich also um einen kleinen Lehrer mit großen Möglichkeiten. Grundsätzlich soll er sich an das neue schweizerische Bundesgesetz über den Datenschutz (Neues Datenschutzgesetz, nDSG) halten. Das Projekt dauert bis August 2023. Die Ergebnisse werden im Anschluss daran veröffentlicht.

Abb.: Alpha Mini in Aktion

Generative KI im Wirtschaftslexikon

„Generative KI (‚KI‘ steht für ‚künstliche Intelligenz‘) ist ein Sammelbegriff für KI-basierte Systeme, mit denen auf scheinbar professionelle und kreative Weise alle möglichen Ergebnisse produziert werden können, etwa Bilder, Video, Audio, Text, Code, 3D-Modelle und Simulationen. Menschliche Fertigkeiten sollen erreicht oder übertroffen werden. Generative KI kann Schüler, Studenten, Lehrkräfte, Büromitarbeiter, Politiker, Künstler und Wissenschaftler unterstützen und Bestandteil von komplexeren Systemen sein. Man spricht auch, dem englischen Wort folgend, von Generative AI, wobei ‚AI‘ die Abkürzung für ‚Artificial Intelligence‘ ist.“ Mit diesen Worten beginnt ein Beitrag, der am 22. Februar 2023 im Gabler Wirtschaftslexikon erschienen ist. Es werden Informationen zu Entwicklung und Hintergrund sowie einige Beispiele für Anwendungen gegeben. Am Ende wird die Perspektive der Ethik eingenommen, unter besonderer Berücksichtigung der Informationsethik. Der Beitrag von Oliver Bendel kann über wirtschaftslexikon.gabler.de/definition/generative-ki-124952 abgerufen werden.

Abb.: Von Midjourney generiertes Porträt

Sieht unheimlich echt aus!

Adrian Lobe stellte einige Fragen an Oliver Bendel, die sich auf Generative AI bezogen. Im Fokus waren KI-basierte Bildgeneratoren, die inzwischen fotorealistische Abbildungen erschaffen können. Solche legte der Journalist dem in Zürich lebenden Professor vor und wollte von ihm wissen, wie er diese Retortenmenschen aus ethischer Sicht bewertet. Die Antwort begann mit den folgenden Worten: „Es spricht zunächst nichts dagegen, mit Hilfe von KI-basierten Bildgeneratoren fiktive Frauen und Männer zu erschaffen, also Avatare oder Hologramme. Man schadet niemandem, wenn die Bilder auf dem Bildschirm oder in einem Gerät erscheinen. Problematischer sind Deep Fakes, die reale Personen teilweise oder gesamthaft abbilden. Sie können die Menschenwürde verletzen, vor allem bei sexuellen Darstellungen. Aus ästhetischer Sicht ist es interessant, Menschen auf die Welt zu bringen, die man selbst schön findet, die man aber weder in den Medien noch im Alltag antrifft. Es wird ein Mensch gemacht, hat Wagner in ‚Faust II‘ ausgerufen, als Mephistopheles zu ihm getreten ist. Allerdings war es nur ein kleiner Homunkulus. Nun kann man seinen Traum verwirklichen und eine realistische Figur nach seinen Wünschen kreieren. Das ist auch aus ethischer Sicht relevant – denn es kann zu einem guten, erfüllten Leben beitragen. Vielleicht werden einem bestimmte Wünsche auch erst klar. Man versteht besser, was man will und was man nicht will, was man schön findet und was nicht. Man lernt sich besser kennen und kann auch anderen mitteilen, was man will und schön findet. Nur werden sich nicht alle Wünsche erfüllen lassen. Und eine Partnerschaft ist auch kein Wunschkonzert.“ Es folgten durchaus kritische Anmerkungen zur Praxis des Bildergenerierens sowie weitere Antworten auf weitere Fragen. Einzelne Statements wurden in den Artikel „Sieht unheimlich echt aus!“ (auch: „Unheimlich echt!“) übernommen, der am 27. Februar 2023 in ca. 20 Schweizer Zeitungen erschienen ist, etwa in der Aargauer Zeitung, in der Luzerner Zeitung und im St. Galler Tagblatt, und auf den in der Folge etwa bei 20 Minuten Bezug genommen wurde.

Abb.: Goethe und Schiller

Neue Münchhausen-Maschinen?

Der Lügenbot wurde 2013 von Prof. Dr. Oliver Bendel im Kontext der Maschinenethik ausgedacht und 2016 von seinem damaligen Projektmitarbeiter und Studenten Kevin Schwegler umgesetzt. Vorgestellt wurde er auf KI-Konferenzen an der Stanford University und in Krakau. Der LIEBOT, wie sein englischer Name lautet, suchte auf eine Frage des Benutzers eine wahre oder richtige Antwort und manipulierte diese nach einer von sieben verschiedenen Strategien. Er behauptete z.B. im Sommer 2016, dass Donald Trump der Präsident der USA sei. Oliver Bendel sprach auch von Münchhausen-Maschinen. Heutzutage gibt es Chatbots und Generative-KI-Systeme wie ChatGPT, die auf Machine Learning beruhen und die immer wieder die Unwahrheit sagen. So werden Angaben zu Personen hinzugedichtet und Quellen erfunden. Zu diesem Thema befragte Technology Review den Informations- und Maschinenethiker aus Zürich. Dabei ging es auch um seine damalige Forschung zu Münchhausen-Maschinen. Mit Chatbots, Sprachassistenten und sozialen Robotern befasst sich Oliver Bendel bereits seit einem Vierteljahrhundert. Sie waren auch der Gegenstand seiner Doktorarbeit, die er an der Universität St. Gallen verfasste und die Ende 2002 abgeschlossen und Anfang 2003 angenommen wurde. Das Interview wurde am 22. Februar 2023 veröffentlicht und kann hier abgerufen werden.

Abb.: Neue Münchhausen-Maschinen?

Die Schönheit der Roboter, Avatare und Hologramme

„Schönheit (engl. ‚beauty‘) im allgemeinen Sinne ist eine visuelle, akustische, haptische oder ideelle Kategorie, die etwa das Schönsein des Himmels am Tag und in der Nacht, der Natur, eines Körpers, eines Gesichts, eines Gegenstands, eines Kunstwerks oder einer Formel umfasst.“ Mit diesen Worten beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon von Oliver Bendel. Mehrere Abschnitte widmen sich der Schönheit aus Sicht der Philosophie und anderer Disziplinen und dem Zusammenhang zwischen Kunst und Schönheit. Auch auf Wirtschaft und Schönheit wird eingegangen. So heißt es etwa mit Blick auf die Technik: „Cyborgs gefallen sich mit äußerlich sichtbaren technischen Strukturen. Humanoide und soziale Roboter überzeugen auf den ersten Blick mit ihrer künstlichen Schönheit, wobei bei Androiden das Uncanny Valley im Wege ist, das unheimliche Tal. So wirken Sophia, Harmony und Erica trotz oder gerade wegen ihrer perfekten Gesichter unheimlich, wenn sie lächeln. Avatare und (Pseudo-)Hologramme können fotorealistisch und hochattraktiv sein.“ Im letzten Abschnitt wird wiederholt die Perspektive der Ethik eingenommen. Der Beitrag ist am 22. Februar 2023 erschienen und kann über wirtschaftslexikon.gabler.de/definition/schoenheit-124971 aufgerufen werden.

Abb.: Mit DALL-E generiertes Pseudo-Hologramm

Überlegungen zum künstlichen Bewusstsein

„Was sollte Ihrer Einschätzung nach zum Thema ‚Bewusste Künstliche Intelligenz‘ diskutiert werden, geschehen oder unterbleiben? Welche Forschungsansätze und Narrative gehören weiterentwickelt, aufgelöst und ersetzt, welche Irrwege endlich beendet, und welche Ansätze und Nischen sollten deutlich mehr Aufmerksamkeit erhalten? Aus welchen Gründen wird derzeit überhaupt über Künstliches Bewusstsein gesprochen, und was halten Sie für vielversprechend, möchte man ‚Bewusstsein‘ künstlich bewirken?“ Diese Fragen stellte Ende 2020 das KIT – Karlsruher Institut für Technologie verschiedenen Experten auf dem Gebiet. Oliver Bendel reichte im Frühjahr 2021 den Beitrag „Soziale Roboter und ihr Sprung in die Zukunft“ ein. Er stellte die drei Disziplinen Künstliche Intelligenz, Maschinenethik und Maschinelles Bewusstsein (Künstliches Bewusstsein) in einen Zusammenhang und klärte, welchen Gegenstand sie jeweils haben und welchen Ursprung oder welches Vorbild dieser wiederum hat. Dann zeigte er auf, wie die Soziale Robotik die drei Disziplinen einbezieht und ausnutzt. Der Band soll 2023 bei KIT Scientific Publishing unter dem Titel „Künstliche Intelligenz und Bewusstsein – Statements 2021“ erscheinen. Der Beitrag kann hier als Preprint heruntergeladen werden.

Abb.: Überlegungen zum künstlichen Bewusstsein

Neue Antwortmaschinen

Stephanie Schnydrig von CH Media war im Gespräch mit Oliver Bendel und fragte u.a., wie ChatGPT und Co. unsere Art, Dinge im Internet zu suchen, verändern werden. Die Antwort des Wirtschaftsinformatikers und Technikphilosophen lautete: „Die Benutzer erhalten nicht nur eine Liste mit Websites, sondern auch eine Antwort in natürlicher Sprache bzw. einen fertigen Text. So kann man bei Bing – in das ChatGPT integriert ist – nach einem Rezept für ein Drei-Gänge-Menü für sechs Personen fragen, die sich vegetarisch ernähren. Bing schlägt nicht nur das Drei-Gänge-Menü vor, sondern erlaubt auch gezielte Nachfragen zur Zubereitung. Die Benutzer müssen nicht hunderte von Rezepten vergleichen und bewerten. Ihr Aufwand reduziert sich. Zugleich stellt sich die Frage, ob das Rezept wirklich etwas taugt. Aus welchen Quellen stammt es? Und sind wirklich alle Gänge vegetarisch? Wen kann ich zur Verantwortung ziehen, wenn etwas schiefgeht? Zum Teil können die Systeme die Quellen nennen, zum Teil aber auch nicht – Machine Learning verwischt sozusagen die Herkunft ein Stück weit. Vermutlich werden wir, sofern die Systeme gesprochene Sprache beherrschen, viel mehr mit Suchmaschinen sprechen als früher. Die Ausgaben taugen grundsätzlich zum Dialog, und die Systeme finden auf fast alles eine Antwort. Ich konnte schon vor Jahren Google Assistant fragen, wer Rihanna ist. Der Sprachassistent hat die Antwort auf Wikipedia gefunden und vorgelesen. Heute bedient sich ein Tool aus tausenden Quellen und variiert die Antwort. Man hat ganz andere Möglichkeiten.“ Es wurden weitere Fragen gestellt und Antworten gegeben. Die eine oder andere Aussage wurde im Artikel „Bingen wir bald, anstatt zu googeln?“ verwendet, der am 9. Februar 2023 in der Luzerner Zeitung und verschiedenen anderen Schweizer Zeitungen erschienen ist.

Abb.: Wie lautet die Antwort?

Wenn der Mensch zur Maschine wird

„Wenn der Mensch zur Maschine wird. Gespräche mit und über Siri, Roboter und Cyborgs“ – so lautet der Titel eines Themenwochenendes, das im Zentrum Paul Klee (ZPK) in Bern stattfindet, als Ergänzung zur Ausstellung „Paul Klee. Vom Rausch der Technik“. Der deutsche Maler, der in Münchenbuchsee bei Bern geboren wurde, lebte laut Website des ZPK in einer Zeit großer „technologischer Transformationen“. „Die neuen Errungenschaften stellten die Wahrnehmung der Menschen von Materie, Raum und Zeit infrage. Röntgenstrahlen, Telefone, Elektrizität lösten das gewohnte Weltbild auf. Darauf reagierten auch Künstler wie Paul Klee.“ (Website ZPK) Für Sonntag, den 5. März 2023, hat Fabienne Eggelhöfer, die Chefkuratorin des bekannten Museums, Prof. Dr. Oliver Bendel eingeladen. Sie geht mit ihm der Frage „Cyborgs – die besseren Menschen?“ nach. Über Cyborgs, Animal Enhancement und Human Enhancement sowie Biohacking und Bodyhacking hat der Wirtschaftsinformatiker und Technikphilosoph bereits mehrmals publiziert und referiert. Zuletzt erschienen seine Buchbeiträge „Chips, Devices, and Machines within Humans: Bodyhacking as Movement, Enhancement and Adaptation“ (Narr, 2021) und „Bodyhacking als Phänomen und Trend“ (Springer Vieweg, 2022). Auf der Architekturbiennale in Venedig hatte er Ende 2021 auf Einladung des Salon Suisse zu „Human and Animal Enhancement in the Context of Architecture“ vorgetragen. Weitere Informationen zum Gespräch im ZPK sind hier erhältlich. Zusätzlich steht ein Flyer zur Verfügung.

Abb.: Wenn der Mensch zur Maschine wird

Proceedings of the 14th International Conference on Social Robotics

The proceedings of ICSR 2022 were published in early 2023. Included is the paper „The CARE-MOMO Project“ by Oliver Bendel and Marc Heimann. From the abstract: „In the CARE-MOMO project, a morality module (MOMO) with a morality menu (MOME) was developed at the School of Business FHNW in the context of machine ethics. This makes it possible to transfer one’s own moral and social convictions to a machine, in this case the care robot with the name Lio. The current model has extensive capabilities, including motor, sensory, and linguistic. However, it cannot yet be personalized in the moral and social sense. The CARE-MOMO aims to eliminate this state of affairs and to give care recipients the possibility to adapt the robot’s ‚behaviour‘ to their ideas and requirements. This is done in a very simple way, using sliders to activate and deactivate functions. There are three different categories that appear with the sliders. The CARE-MOMO was realized as a prototype, which demonstrates the functionality and aids the company in making concrete decisions for the product. In other words, it can adopt the morality module in whole or in part and further improve it after testing it in facilities.“ The book (part II of the proceedings) can be downloaded or ordered via link.springer.com/book/10.1007/978-3-031-24670-8.

Fig.: A CARE-MOMO for Lio

When a Robot Hugs You

As part of the AAAI 2023 Spring Symposia in San Francisco, the symposium „Socially Responsible AI for Well-being“ is organized by Takashi Kido (Teikyo University, Japan) and Keiki Takadama (The University of Electro-Communications, Japan). The paper „Increasing Well-being and Health through Robotic Hugs“ by Oliver Bendel, Andrea Puljic, Robin Heiz, Furkan Tömen, and Ivan De Paola was accepted. The talk will take place between March 26 and 29, 2023 at Hyatt Regency, San Francisco Airport. The symposium website states: „For our happiness, AI is not enough to be productive in exponential growth or economic/financial supremacies but should be socially responsible from the viewpoint of fairness, transparency, accountability, reliability, safety, privacy, and security. For example, AI diagnosis system should provide responsible results (e.g., a high-accuracy of diagnostics result with an understandable explanation) but the results should be socially accepted (e.g., data for AI (machine learning) should not be biased (i.e., the amount of data for learning should be equal among races and/or locations). Like this example, a decision of AI affects our well-being, which suggests the importance of discussing ‚What is socially responsible?‘ in several potential situations of well-being in the coming AI age.“ (Website AAAI) According to the organizers, the first perspective is „(Individually) Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to design Responsible AI for well-being. The second perspective is „Socially Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to implement social aspects in Responsible AI for well-being. More information via www.aaai.org/Symposia/Spring/sss23.php#ss09.

Fig.: A robot like ARI could hug you

Robots in Bars, Cafés, and Restaurants

As part of the AAAI 2023 Spring Symposia in San Francisco, the symposium „Socially Responsible AI for Well-being“ is organized by Takashi Kido (Teikyo University, Japan) and Keiki Takadama (The University of Electro-Communications, Japan). The paper „How Can Bar Robots Enhance the Well-being of Guests?“ by Oliver Bendel and Lea K. Peier was accepted. The talk will take place between March 26 and 29, 2023 at Hyatt Regency, San Francisco Airport. The symposium website states: „For our happiness, AI is not enough to be productive in exponential growth or economic/financial supremacies but should be socially responsible from the viewpoint of fairness, transparency, accountability, reliability, safety, privacy, and security. For example, AI diagnosis system should provide responsible results (e.g., a high-accuracy of diagnostics result with an understandable explanation) but the results should be socially accepted (e.g., data for AI (machine learning) should not be biased (i.e., the amount of data for learning should be equal among races and/or locations). Like this example, a decision of AI affects our well-being, which suggests the importance of discussing ‚What is socially responsible?‘ in several potential situations of well-being in the coming AI age.“ (Website AAAI) According to the organizers, the first perspective is „(Individually) Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to design Responsible AI for well-being. The second perspective is „Socially Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to implement social aspects in Responsible AI for well-being. More information via www.aaai.org/Symposia/Spring/sss23.php#ss09.

Fig.: Humans and robots can bring water

Die Sprache von Menschen, Tieren und Maschinen

„Bei Sprache handelt es sich um Systeme der Kommunikation von Menschen, Tieren und Maschinen.“ Mit diesem Satz beginnt ein neuer Beitrag von Oliver Bendel im Gabler Wirtschaftslexikon. Nach grundsätzlichen Erklärungen und einer Darstellung von Entwicklung und Geschichte werden Ansätze einer Systemtheorie entwickelt, in der existenziellen Systemen wie Sprache und Moral sowie zivilisatorischen Systemen wie Politik, Journalismus, Wissenschaft und Kunst eine spezifische Aufgabe zugesprochen wird, deren Erfüllung jeweils durch ein anderes System beeinträchtigt werden kann. Diese Überlegungen kulminieren in der Feststellung, Sinn und Zweck von Sprache sei „nicht, moralisch zu sein“. Im Weiteren wird auf Dialogsysteme eingegangen, die natürliche Sprache verwenden, und auf Technologien und Programme, die Sprache übersetzen und bearbeiten, wobei hier oft ein Bias vorhanden ist und von offiziellen Regeln abgewichen wird. Ein eigener Abschnitt gehört den wirtschaftlichen Aspekten. Am Ende wird Kritik an Strömungen innerhalb der zuständigen Disziplin geübt: „Die Linguistik, die Sprache eigentlich beobachten und untersuchen sollte, gefällt sich in ihren vermeintlich progressiven Ausläufern darin, ihren eigenen Gegenstand zu manipulieren und zu instrumentalisieren. Dem tritt allerdings die klassische Sprachwissenschaft entgegen, wobei sie alte Größe zurückgewinnt, sofern sie nicht im Nostalgischen und Konservatorischen steckenbleibt.“ Zudem werden Überlegungen u.a. aus der Perspektive von Informationsethik, Medienethik, Roboterethik und Wirtschaftsethik angestellt. Der Beitrag ist am 31. Januar 2023 erschienen und kann über wirtschaftslexikon.gabler.de/definition/sprache-124739 aufgerufen werden.

Abb.: Eine Diskussion unter Menschen

Über ChatGPT und Co. bei BR24

BR24 hat sich mit Oliver Bendel – Technikphilosoph, Informationsethiker und Maschinenethiker – über DeepL Write, ChatGPT und andere KI-Anwendungen unterhalten. Bei DeepL Write sieht er das Problem, dass das Unternehmen nicht die offiziellen Rechtschreibregeln befolgt, sondern eigene – oder aus dem Datenmaterial abgeleitete. Auch Microsoft Word hat seit vielen Jahren eine ungeeignete Rechtschreibprüfung, was vermutlich mit der zunehmend genutzten KI zusammenhängt. ChatGPT sieht Oliver Bendel als mächtiges Werkzeug an, das man für allerlei Belange nutzen kann. Hochschulen und Medien müssen freilich darauf reagieren. Studenten und Studentinnen müssen grundsätzlich fremdes geistiges Eigentum markieren und referenzieren – vielleicht gibt es bei ChatGPT kein geistiges Eigentum in diesem Sinne mehr, aber man kann auf jeden Fall sagen, dass es sich nicht um das geistige Eigentum der Anwender handelt. Auch Gesichtserkennung hält Oliver Bendel für eine mächtige Technologie. Man solle die Forschung dazu nicht begrenzen, wohl aber die Anwendung, und Gesichtserkennung zum Zweck der Massenüberwachung verbieten. Er berichtet von einem System, das von ihm und Ali Yürekkirmaz konzipiert wurde und das Gesichtserkennung für Bären in den Alpen vorsieht. Ihr Paper „A Face Recognition System for Bears: Protection for Animals and Humans in the Alps“ wird demnächst in den Proceedings der „Ninth International Conference on Animal-Computer Interaction (ACI’22)“ erscheinen. Bei BR24 stehen ein Podcast mit dem Interview von Cosima Weiske mit Oliver Bendel und ein Artikel mit Aussagen von ihm zur Verfügung.

Abb.: Gesichtserkennung kann man auf Bären anwenden

Artefakte der Maschinenethik an der ZHdK

Die Tagung LaborDigital am 10. Februar 2023 an der Zürcher Hochschule der Künste (ZHdK), iniitiert und organisiert u.a. von Charlotte Axelsson, wird mit einem Vortrag von Prof. Dr. Johan Frederik Hartle eröffnet, dem Rektor der Akademie der bildenden Künste Wien. Es folgt die Keynote „Labor-Geschichte/n. Zur Archäologie eines ‚kreativen‘ Raumes“ von Prof. Dr. Oliver Ruf von der Hochschule Bonn-Rhein-Sieg. Von 11.00 bis 12.30 Uhr finden parallel drei Experimental Learning Labs statt, nämlich „Artefakte der Maschinenethik“ mit Prof. Dr. Oliver Bendel (FHNW, Muttenz, Olten und Brugg-Windisch), „Dance Lab & Avatar“ mit Regina Bäck (München) und „Experimental Game Cultures Labs“ mit Prof. Dr. Margarete Jahrmann (Universität für angewandte Kunst Wien). Nach dem Mittagessen folgen die ZHdK Lab Visits und ab 15.30 Uhr weitere Experimental Learning Labs. Um 16.30 Uhr hält Raphaële Bidault-Waddington, Gründerin des LIID Future Lab in Paris, die zweite Keynote mit dem Titel „Designing Art-based Future Labs“. Johan Frederik Hartle beschließt mit weiteren Ausführungen die Tagung. Weitere Informationen über paul.zhdk.ch/course/view.php?id=2312.

Abb.: 13 Konzepte und Artefakte der Maschinenethik

Grundlagen der KI-Ethik

Wie bereits in seinen Büchern „400 Keywords Informationsethik“ und „450 Keywords Digitalisierung“ beschäftigt sich Prof. Dr. Oliver Bendel im Gabler Wirtschaftslexikon mit der KI-Ethik. Er stellt ausführlich dar, wie diese mit den klassischen Bereichsethiken und mit der Maschinenethik verbunden ist. Am Ende heißt es: „Die KI-Ethik erhält Auftrieb durch Entwicklungen seit 2022 wie ChatGPT, DeepL Write und DALL-E 2 oder Lensa. Zunächst handelt es sich dabei um ebenso mächtige wie disruptive Tools. Bei ChatGPT stellt sich die Frage, wie fehleranfällig und vorurteilsbeladen das Reinforcement Learning from Human Feedback (RLHF) ist. Zudem kann die Datenqualität unter die Lupe genommen werden. Auch wenn Dokumente und Quellen von Arbeitskräften klassifiziert und qualifiziert werden, bedeutet das nicht unbedingt, dass ihre Verwendung unproblematisch ist. Die Arbeitsverhältnisse selbst thematisiert die Wirtschaftsethik. Bei DeepL Write kann man beanstanden, dass dieses Lektorprogramm offensichtlich nicht den Regeln des Rechtschreibrats, sondern eigenen Regeln folgt. So werden Rechtschreibfehler, die mit Sonderzeichen im Wortinneren zusammenhängen, also mit einer sogenannten geschlechtergerechten Sprache, nicht als solche erkannt bzw. beanstandet. Dies kann man in der Informationsethik und in der Medienethik untersuchen. DALL-E 2 und Lensa schaffen auf der Grundlage von Text- und Bildmaterial wirkungsstarke Visualisierungen. Angeblich werden bei Lensa die weiblichen Avatare sexualisiert, was aber nicht von allen Benutzern bestätigt werden kann. Die KI-Ethik dringt zum Kern vor, zum Machine Learning, und widmet sich der Herkunft und Qualität der Daten und dem Aufbau, der Anpassung und der Weiterentwicklung der Algorithmen. Sie behandelt mehr und mehr, wie Roboterethik und Maschinenethik, ganz grundsätzliche Aspekte, etwa in Bezug auf das Verhältnis zwischen (den Funktionsweisen und Endresultaten) künstlicher und menschlicher Intelligenz.“ Der Beitrag ist am 24. Januar 2023 erschienen und kann über wirtschaftslexikon.gabler.de/definition/ki-ethik-124922 abgerufen werden.

Abb.: Wo sich Mensch und Maschine berühren