KI und Co. in der beruflichen Bildung

Die Zeitschrift für Berufs- und Wirtschaftspädagogik widmet sich im Sommer 2021 dem Thema „Künstliche Intelligenz in der beruflichen Bildung: Zukunft der Arbeit und Bildung mit intelligenten Maschinen?!“. Herausgegeben wird das Sonderheft von Prof. Dr. Sabine Seufert und ihren Kollegen. In der Verlagsinformation heißt es: „Die Autorinnen und Autoren reflektieren kritisch die Auswirkungen der KI auf die berufliche Bildung. In einem ersten Teil untersuchen sie die Implikationen von KI auf gewerblich-technische Berufe, Industrieberufe, IT-Berufe und Pflegeberufe. In einem zweiten Teil widmen sie sich Forschungsrichtungen zur KI in der Berufsbildung – von der Individualisierung durch Hybrid Intelligence über Learning Analytics, Augmented Reality und Virtual Reality bis zur beruflichen Rehabilitation und Lernortkooperation.“ (Information Franz Steiner Verlag) Der Beitrag von Prof. Dr. Oliver Bendel trägt den Titel „Strukturelle und organisationale Rahmenbedingungen für den Einsatz von Pflegerobotern“. Das Heft kann über elibrary.steiner-verlag.de/book/99.105010/9783515130752 bestellt werden. Eine Leseprobe ist hier erhältlich.

Abb.: Auch Virtual Reality spielt im Heft eine Rolle

CARE-MOMO

On July 22, 2021, Prof. Dr. Oliver Bendel, as client, submitted a project to the School of Business FHNW, entitled „CARE-MOMO: A Morality Module for a Care Robot“. There are more and more robots being used in nursing and care. Most of them are prototypes, some – like Lio and P-Care from F&P Robotics – are products that are manufactured in small series. Machine ethics researches and creates moral machines. These are often guided by certain values or meta-rules, they follow predetermined rules, or they learn from situations and adapt their behavior. Michael Anderson and Susan L. Anderson presented their value-driven eldercare robot at the 2019 Berlin Colloquium by invitation of Oliver Bendel. He and his teams have created 16 concepts and implementations of moral machines and social robots over the past decade. He has been researching systems and robots in the healthcare sector for just as long. The CARE-MOMO is a morality module for a robot in the manner of Lio. The idea is that the robot acquires clearly delimited moral abilities in addition to its usual abilities. The focus is to have it perform an act or speech act with high reliability based on a moral assumption or reasoning, with a clearly identifiable benefit to the caregiver or the care recipient. The result is a morality module that can in principle be used by a robot like Lio. In August 2021, it will be decided whether the project can be implemented in this form.

Fig.: LIO with magnetic eyes

ANIFACE

Face recognition for humans is very controversial, especially when it comes to surveillance or physiognomy. However, there are also other possible applications, for example in relation to animals. At the moment, individuals are mainly tracked with the help of chips and transmitters. However, these are disturbing for some of the animals. Further, the question is whether one should interfere with living beings in this way. In addition, animals are constantly being born that escape monitoring. The project „ANIFACE: Animal Face Recognition“ will develop a concept of a facial recognition system that can identify individuals of bears and wolves. These are advancing more and more in Switzerland and need to be monitored to protect them and affected people (and their agriculture). Facial recognition can be used to identify the individual animals and also to track them if there are enough stations, which of course must be connected with each other. An interesting sidebar would be emotion recognition for animals. The system (which could include camera installations and robots) could find out how bears and wolves are feeling and then trigger certain actions. The project was applied for in July 2021 by Prof. Dr. Oliver Bendel, who has already designed and implemented several animal-friendly machines with his teams. In August, it will be decided whether he can start the work.

Fig.: An attentive lion

Hello Deer, Go Back to the Forest!

We use our natural language, facial expressions and gestures when communicating with our fellow humans. Some of our social robots also have these abilities, and so we can converse with them in the usual way. Many highly evolved animals have a language in which there are sounds and signals that have specific meanings. Some of them – like chimpanzees or gorillas – have mimic and gestural abilities comparable to ours. Britt Selvitelle and Aza Raskin, founders of the Earth Species Project, want to use machine learning to enable communication between humans and animals. Languages, they believe, can be represented not only as geometric structures, but also translated by matching their structures to each other. They say they have started working on whale and dolphin communication. Over time, the focus will broaden to include primates, corvids, and others. It would be important for the two scientists to study not only natural language but also facial expressions, gestures and other movements associated with meaning (they are well aware of this challenge). In addition, there are aspects of animal communication that are inaudible and invisible to humans that would need to be considered. Britt Selvitelle and Aza Raskin believe that translation would open up the world of animals – but it could be the other way around that they would first have to open up the world of animals in order to decode their language. However, should there be breakthroughs in this area, it would be an opportunity for animal welfare. For example, social robots, autonomous cars, wind turbines, and other machines could use animal languages alongside mechanical signals and human commands to instruct, warn and scare away dogs, elks, pigs, and birds. Machine ethics has been developing animal-friendly machines for years. Among other things, the scientists use sensors together with decision trees. Depending on the situation, braking and evasive maneuvers are initiated. Maybe one day the autonomous car will be able to avoid an accident by calling out in deer dialect: Hello deer, go back to the forest!

Fig.: Three fawns

KI trifft Ethik

Das Magazin What’s N3xt wartet in seiner Ausgabe 1/2021 mit Beiträgen zu Robotik und KI auf. In „Uns fehlen Helden!“ erklärt ein bekannter Investor, „was ihn antreibt und warum er auf technologische Innovationen steht“. „Mit 10‑xDNA beschreibt Frank Thelen die Denkweise, die erforderlich ist, um die vor uns liegenden technologischen Fortschritte und Innovationen zu erfassen und zu nutzen.“ (What’s N3xt, 1/2021) In „Nächste Ausfahrt Zukunft“ steht Ranga Yogeshwar Rede und Antwort. „Wir vertrauen Algorithmen, die wir nicht mal nachvollziehen können. Und diese Systeme lernen schneller, als wir Menschen es tun. Neuronale Netze und Machine Learning sind Teil unseres täglichen Lebens geworden.“ (What’s N3xt, 1/2021) „KI trifft Ethik“ wird mit den folgenden Worten angeteasert: „Wie kriegt man menschliche Moral in künstliche Intelligenzen?“ (What’s N3xt, 1/2021) Die Antwort kennt der Informations- und Maschinenethiker Oliver Bendel, der moralische Maschinen baut, Chatbots und Serviceroboter, die moralischen Regeln folgen. Das gesamte Magazin kann hier heruntergeladen werden.

Abb.: KI trifft Ethik

Sinn und Unsinn von Responsible AI

„Mit dem Begriff der Responsible AI werden Bestrebungen zusammengefasst, Systeme künstlicher Intelligenz in verantwortungsvoller Weise zu entwickeln respektive einzusetzen und Systeme zu schaffen, die über bestimmte Merkmale und Fähigkeiten – etwa sozialer oder moralischer Art – verfügen. Angesprochen werden damit u.a. Erklärbarkeit (Explainable AI), Vertrauenswürdigkeit (Trustworthy AI), Datenschutz, Verlässlichkeit und Sicherheit. Der Ausdruck hat sich allmählich seit der Jahrtausendwende und dann verstärkt ab ca. 2010 verbreitet. Er wird – wie ‚Explainable AI‘ und ‚Trustworthy AI‘ – vielfach im Marketing von Staaten und Verbünden wie der EU, technologieorientierten Unternehmen bzw. Unternehmensberatungen sowie wissenschaftsfördernden Stiftungen verwendet, die sich, ihre Produkte, ihr Consulting und ihr Funding ins rechte Licht rücken wollen. Er kann aber ebenso den Namen einer Forschungsgruppe mit entsprechender Ausrichtung schmücken.“ Mit diesen Worten beginnt ein Beitrag von Oliver Bendel, der am 20. Februar 2021 im Gabler Wirtschaftslexikon erschienen ist. Am Ende heißt es: „Letztlich ist ‚Responsible AI‘ ein diffuser Begriff, der hohe Erwartungen weckt, jedoch kaum erfüllt.“ Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/responsible-ai-123232 abgerufen werden.

Abb.: Sinn und Unsinn von Responsible AI

Trustworthy Conversational Agents

In the fall of 2021, a five-day workshop on trustworthy conversational agents will be held at Schloss Dagstuhl. Prof. Dr. Oliver Bendel is among the invited participants. According to the website, Schloss Dagstuhl – Leibniz Center for Informatics pursues its mission of furthering world class research in computer science by facilitating communication and interaction between researchers. Oliver Bendel and his teams have developed several chatbots in the context of machine ethics since 2013, which were presented at conferences at Stanford University and Jagiellonian University and received international attention. Since the beginning of 2020, he has been preparing to develop several voice assistants that can show empathy and emotion. „Schloss Dagstuhl was founded in 1990 and quickly became established as one of the world’s premier meeting centers for informatics research. Since the very first days of Schloss Dagstuhl, the seminar and workshop meeting program has always been the focus of its programmatic work. In recent years, Schloss Dagstuhl has expanded its operation and also has significant efforts underway in bibliographic services … and in open access publishing.“ (Website Schloss Dagstuhl)

Fig.: Is this voicebot trustworthy?

KI, ME und MB

Die Künstliche Intelligenz (KI) hat nach Dekaden des sich abwechselnden Auf- und Abschwungs im 21. Jahrhundert eine enorme Bedeutung in Forschung und Praxis erlangt. Maschinenethik und Maschinelles Bewusstsein (Künstliches Bewusstsein) konnten zur gleichen Zeit ihre Begriffe und Methoden in die Öffentlichkeit tragen, wo sie mehr oder weniger gut verstanden wurden. Eine Grafik versucht seit 2018 die Begriffe und Zusammenhänge von Künstlicher Intelligenz, Maschinenethik und Maschinellem Bewusstsein zu klären. Sie wird ständig weiterentwickelt und dadurch präziser, aber auch komplexer. Seit Anfang 2021 liegt eine neue Version vor. In ihr wird noch deutlicher gemacht, dass die drei Disziplinen bestimmte Fähigkeiten (meist von Menschen) nicht nur abbilden, sondern auch erweitern können.

Abb.: Die Version 3.0 vom Januar 2021

 

Responsible AI

„HASLER RESPONSIBLE AI“ is a research program of the Hasler Foundation open to research institutions within the higher education sector or non-commercial research institutions outside the higher education sector. The foundation explains the goals of the program in a call for project proposals: „The HASLER RESPONSIBLE AI program will support research projects that investigate machine-learning algorithms and artificial intelligence systems whose results meet requirements on responsibility and trustworthiness. Projects are expected to seriously engage in the application of the new models and methods in scenarios that are relevant to society. In addition, projects should respect the interdisciplinary character of research in the area of RESPONSIBLE AI by involving the necessary expertise.“ (CfPP by Hasler Foundation) Deadline for submission of short proposals is 24 January 2021. More information at haslerstiftung.ch.

Fig.: Responsible AI

A New AI Magazine

AAAI has announced the launch of the Interactive AI Magazine. According to the organization, the new platform provides online access to articles and columns from AI Magazine, as well as news and articles from AI Topics and other materials from AAAI. „Interactive AI Magazine is a work in progress. We plan to add lot more content on the ecosystem of AI beyond the technical progress represented by the AAAI conference, such as AI applications, AI industry, education in AI, AI ethics, and AI and society, as well as conference calendars and reports, honors and awards, classifieds, obituaries, etc. We also plan to add multimedia such as blogs and podcasts, and make the website more interactive, for example, by enabling commentary on posted articles. We hope that over time Interactive AI Magazine will become both an important source of information on AI and an online forum for conversations among the AI community.“ (AAAI Press Release) More information via interactiveaimag.org.

Fig.: A magazine for interested people, cyborgs and robots

Künstliche Intelligenz in der Humanforschung

Die Mitglieder der Ethikkommissionen der Schweiz sind zu der diesjährigen Weiterbildung mit dem Thema „Künstliche Intelligenz in der Humanforschung – Wissenschaftliche, rechtliche und ethische Herausforderungen“ ins Landesmuseum Zürich eingeladen. Die Veranstaltung wird durchgeführt von swissethics, der Dachorganisation der Kantonalen Ethikkommissionen. Sie wird eröffnet von Prof. Dr. Julia Vogt (ETH Zürich). Ihr Vortrag trägt den Titel „Künstliche Intelligenz: eine wissenschaftliche Herausforderung in der Forschung“. Danach spricht Prof. Dr. med. Adrian Egli (Universitätsspital Basel) über „Herausforderungen künstlicher Intelligenz in der Mikrobiologie“. Nach der Pause geht es um „Apps, Algorithmen und Roboter in der Medizin: Haftungsrechtliche Herausforderungen“ – das Gebiet von Prof. Dr. iur. Corinne Widmer Lüchinger (Universität Basel). Den Abschluss bildet der Vortrag von Prof. Dr. oec. HSG Oliver Bendel (Hochschule für Wirtschaft FHNW) mit dem Vortrag „Maschinenethik – Informationsethik: welche ethischen Herausforderungen sind relevant?“ Das Programm kann hier aufgerufen werden. Weitere Informationen über www.swissethics.ch/aus-fortbildung/fuer-ek-mitglieder.

Abb.: Im Labor

Keine Angst vor der KI

„Wer hat Angst vor der KI?“ Dieser Frage geht Carmen Gräf am 16. Juli 2020 von 22 bis 23 Uhr bei RBB Kultur nach. „Erst lernten die Computer rechnen, dann organisieren, analysieren, sprechen und schließlich – denken. Dank Künstlicher Intelligenz. Nun ist die Forschung dabei, den Computern auch das Fühlen beizubringen. Eine neue Stufe Künstlicher Intelligenz entsteht. Das sorgt für jede Menge Hoffnung und Euphorie, aber auch für Angst und Unbehagen. Wird die Maschine den Menschen überholen oder kann der Mensch die digitalen Potentiale sinnvoll nutzen? Ein Einblick in aktuelle Diskussionen, Forschungen und Anwendungen.“ (RBB Kultur) Erwähnt werden auch die Entwicklungen des Informations- und Maschinenethikers Oliver Bendel, konkret der LIEBOT, der systematisch die Unwahrheit sagt, und HAPPY HEDGEHOG, der igelfreundliche Rasenmähroboter. Die Sendung ist ein Jahr lang in der ARD-Mediathek abrufbar.

Abb.: Wer hat Angst vor der KI?

AI, ME und MC

Immer wieder hört man, oft von Theologen, manchmal von Philosophen, dass Maschinen nicht autonom seien, nicht intelligent, nicht moralisch etc. Sie übertragen den Begriff, den sie aus ihrem Bereich kennen, auf technische Wissenschaften wie Informatik, Künstliche Intelligenz (KI) und Maschinenethik (die technisch geprägt ist und eng mit KI und Robotik zusammenarbeitet). Sie anerkennen nicht, dass jede Disziplin ihre eigenen Begriffe haben kann (und in der Regel hat). Bei einer Tagung im Jahre 2015 beschimpfte Bundestagspräsident Prof. Dr. Norbert Lammert, ein zutiefst religiöser Mann, die Referenten mit den Worten, Maschinen seien nicht autonom, sie hätten sich nämlich nicht selbst ein Gesetz gegeben. Nun sprechen Informatik und Robotik aber nun einmal von autonomen Systemen und Maschinen, und selbstverständlich dürfen sie das, wenn sie darlegen, wie sie das meinen. Eine solche Begriffsklärung und -aneignung steht sogar am Anfang jeder wissenschaftlichen Betätigung, und dass die Begriffe gleich lauten wie die anderer Bereiche, heißt keineswegs, dass sie dasselbe bedeuten und bedeuten müssen. Eine neue Grafik von Prof. Dr. Oliver Bendel, die auf früheren Entwürfen aufbaut, stellt dar, was der Gegenstandsbereich der Disziplinen oder Arbeitsbereiche der KI, der Maschinenethik und des Maschinellen Bewusstseins ist, und macht für sie terminologische Vorschläge. Im Kern geht es diesen darum, etwas in bestimmten Aspekten ab- oder nachzubilden bzw. zu simulieren. So schafft es die Künstliche Intelligenz eben, künstliche Intelligenz hervorzubringen, etwa Dialogsysteme oder Maschinen, die bestimmte Probleme lösen. Ob diese „wirklich“ intelligent sind oder nicht, ist keine sinnvolle Frage, und der Terminus technicus benutzt nicht umsonst das Adjektiv „künstlich“ – hier wäre noch einfacher als im Falle von „autonom“ zu verstehen, dass es sich um eine „neue“ (immerhin seit über 50 Jahren erklärte) Bedeutung handelt.

Abb.: AI, ME und MC

Die Entwicklung einer MOML

Es existieren mehrere Markup Languages. Die bekannteste ist sicherlich die Hypertext Markup Language (HTML). Im Bereich der KI hat sich AIML etabliert. Für synthetische Stimmen wird SSML eingesetzt. Die Frage ist, ob damit die Möglichkeiten mit Blick auf autonome Systeme ausgeschöpft sind. In dem Beitrag „Das Moralmenü: Moralische Maschinen mit einer Stellvertretermoral“ von Prof. Dr. Oliver Bendel wurde zum ersten Mal eine Morality Markup Language (MOML) vorgeschlagen. Eine Studienarbeit unter der Betreuung des Informations- und Maschinenethikers hat 2019 untersucht, welche Möglichkeiten bestehende Sprachen hinsichtlich moralischer Aspekte haben und ob eine MOML gerechtfertigt ist. Die Ergebnisse wurden im Januar 2020 vorgestellt. Eine Bachelorarbeit an der Hochschule für Wirtschaft FHNW geht ab Ende März 2020 einen Schritt weiter. In ihr sollen Grundzüge einer Morality Markup Language erarbeitet werden. Es sollen die Grundstruktur und spezifische Befehle vorgeschlagen und beschrieben werden. Es sind die Anwendungsbereiche, Vorteile und Nachteile einer solchen Markierungssprache darzustellen. Auftraggeber der Arbeit ist Prof. Dr. Oliver Bendel, Betreuerin Dr. Elzbieta Pustulka.

Abb.: Die Entwicklung einer MOML

Towards SPACE THEA

Living, working, and sleeping in small spaces next to the same people for months or years would be stressful for even the fittest and toughest astronauts. Neel V. Patel underlines this fact in a current article for MIT Technology Review. If they are near Earth, they can talk to psychologists. But if they are far away, it will be difficult. Moreover, in the future there could be astronauts in space whose clients cannot afford human psychological support. „An AI assistant that’s able to intuit human emotion and respond with empathy could be exactly what’s needed, particularly on future missions to Mars and beyond. The idea is that it could anticipate the needs of the crew and intervene if their mental health seems at risk.“ (MIT Technology Review, 14 January 2020) NASA wants to develop such an assistant together with the Australian tech firm Akin. They could build on research by Prof. Dr. Oliver Bendel. Together with his teams, he has developed the GOODBOT in 2013 and the BESTBOT in 2018. Both can detect users’ problems and react adequately to these problems. The more recent chatbot even has face recognition in combination with emotion recognition. If it detects discrepancies with what the user has said or written, it will make this a subject of discussion. Oliver Bendel is currently examining the possibilities of a follow-up project. It could be called THE EMPATHIC ASSISTANT IN SPACE (SPACE THEA). SPACE THEA is a voicebot for space ships that reacts with empathy (compassion, concern, possibly even pity). It is certainly available before humans fly to Mars.

Fig.: Lost in space

 

About MOBO-MOME

From June 2019 to January 2020 the Morality Menu (MOME) was developed under the supervision of Prof. Dr. Oliver Bendel. With it you can transfer your own morality to the chatbot called MOBO. First of all, the user must provide various personal details. He or she opens the „User Personality“ panel in the „Menu“ and can then enter his or her name, age, nationality, gender, sexual orientation, and hair color. These details are important for communication and interaction with the chatbot. In a further step, the user can call up the actual morality menu („Rules of conduct“) via „Menu“. It consists of 9 rules, which a user (or an operator) can activate (1) or deactivate (0). The behaviors 1 – 8, depending on how they are activated, result in the proxy morality of the machine (the proxy machine). It usually represents the morality of the user (or the operator). But you can also give the system the freedom to generate its morality randomly. This is exactly what happens with this option. After the morality menu has been completely set, the dialogue can begin. To do this, the user calls up „Chatbot“ in the „Menu“. The Chatbot MOBO is started. The adventure can begin! A video of the MOBO-MOME is available here.

Fig.: How the MOBO-MOME works