„Mit dem Begriff der Responsible AI werden Bestrebungen zusammengefasst, Systeme künstlicher Intelligenz in verantwortungsvoller Weise zu entwickeln respektive einzusetzen und Systeme zu schaffen, die über bestimmte Merkmale und Fähigkeiten – etwa sozialer oder moralischer Art – verfügen. Angesprochen werden damit u.a. Erklärbarkeit (Explainable AI), Vertrauenswürdigkeit (Trustworthy AI), Datenschutz, Verlässlichkeit und Sicherheit. Der Ausdruck hat sich allmählich seit der Jahrtausendwende und dann verstärkt ab ca. 2010 verbreitet. Er wird – wie ‚Explainable AI‘ und ‚Trustworthy AI‘ – vielfach im Marketing von Staaten und Verbünden wie der EU, technologieorientierten Unternehmen bzw. Unternehmensberatungen sowie wissenschaftsfördernden Stiftungen verwendet, die sich, ihre Produkte, ihr Consulting und ihr Funding ins rechte Licht rücken wollen. Er kann aber ebenso den Namen einer Forschungsgruppe mit entsprechender Ausrichtung schmücken.“ Mit diesen Worten beginnt ein Beitrag von Oliver Bendel, der am 20. Februar 2021 im Gabler Wirtschaftslexikon erschienen ist. Am Ende heißt es: „Letztlich ist ‚Responsible AI‘ ein diffuser Begriff, der hohe Erwartungen weckt, jedoch kaum erfüllt.“ Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/responsible-ai-123232 abgerufen werden.
In the fall of 2021, a five-day workshop on trustworthy conversational agents will be held at Schloss Dagstuhl. Prof. Dr. Oliver Bendel is among the invited participants. According to the website, Schloss Dagstuhl – Leibniz Center for Informatics pursues its mission of furthering world class research in computer science by facilitating communication and interaction between researchers. Oliver Bendel and his teams have developed several chatbots in the context of machine ethics since 2013, which were presented at conferences at Stanford University and Jagiellonian University and received international attention. Since the beginning of 2020, he has been preparing to develop several voice assistants that can show empathy and emotion. „Schloss Dagstuhl was founded in 1990 and quickly became established as one of the world’s premier meeting centers for informatics research. Since the very first days of Schloss Dagstuhl, the seminar and workshop meeting program has always been the focus of its programmatic work. In recent years, Schloss Dagstuhl has expanded its operation and also has significant efforts underway in bibliographic services … and in open access publishing.“ (Website Schloss Dagstuhl)
„HASLER RESPONSIBLE AI“ is a research program of the Hasler Foundation open to research institutions within the higher education sector or non-commercial research institutions outside the higher education sector. The foundation explains the goals of the program in a call for project proposals: „The HASLER RESPONSIBLE AI program will support research projects that investigate machine-learning algorithms and artificial intelligence systems whose results meet requirements on responsibility and trustworthiness. Projects are expected to seriously engage in the application of the new models and methods in scenarios that are relevant to society. In addition, projects should respect the interdisciplinary character of research in the area of RESPONSIBLE AI by involving the necessary expertise.“ (CfPP by Hasler Foundation) Deadline for submission of short proposals is 24 January 2021. More information at haslerstiftung.ch.
Vor über einem Jahr ist das „Handbuch Maschinenethik“ (Hrsg. Oliver Bendel) bei Springer VS erschienen. Es versammelt Beiträge der führenden Expertinnen und Experten in den Bereichen Maschinenethik, Roboterethik, Technikethik, Technikphilosophie sowie Roboterrecht. Es ist ein umfangreiches, ein vorzeigenswertes, ein einzigartiges Buch geworden. In gewisser Weise bildet es ein Gegenstück zur amerikanischen Forschung, die die Disziplin dominiert: Die meisten Autorinnen und Autoren (unter ihnen Julian Nida-Rümelin, Catrin Misselhorn, Eric Hilgendorf, Monika Simmler, Armin Grunwald, Matthias Scheutz, Janina Loh und Luís Moniz Pereira) stammen aus Europa und Asien. Seit 2017 hatten sie mitgearbeitet und laufend eingereicht, bis es dann zur Drucklegung kam. Der Herausgeber, der sich seit 20 Jahren mit Informations-, Roboter- und Maschinenethik beschäftigt und seit neun Jahren intensiv zur Maschinenethik forscht, zeigt sich erfreut, dass bereits 53.000 Downloads zu verzeichnen sind – für ein hoch spezialisiertes Buch eine ganze Menge. Der erste Beitrag für eine zweite Auflage liegt auch vor, nämlich der Beitrag „The BESTBOT Project“ …
Social robots are robots that come close to animals and humans, interact and communicate with them. They reproduce characteristics of animals and humans in their behavior and appearance. They can be implemented both as hardware robots and as software robots. The SPACE THEA project should have already started in March 2020. Because of COVID-19 it had to be postponed. Now Prof. Dr. Oliver Bendel (School of Business FHNW) starts with the preparatory work. In winter 2020/2021 and spring 2021 the programming of the voicebot is then carried out. SPACE THEA is designed to accompany astronauts to Mars and to show them empathy and emotions. In the best case, she should also be able to provide psychological counseling, for example, based on cases from the literature. The project will use findings from social robotics, but also from machine ethics. The results will be available by summer 2021.
Im Gabler Wirtschaftslexikon ist am 25. Februar 2020 ein Beitrag von Oliver Bendel zu COVID-19 erschienen. Darin werden auch wirtschaftliche und technische Implikationen gestreift. So heißt es in einem Abschnitt: „COVID-19 führte vor Augen, dass Digitalisierung und Technologisierung hilfreich bei Krisen und Katastrophen sein können. In China lieferten Serviceroboter in Spitälern und auf Quarantänestationen Medikamente und Nahrungsmittel aus, und Drohnen spürten Personen ohne Atemmaske auf. Wer in Krisengebieten zuhause bleiben musste, konnte über einen Computerarbeitsplatz und elektronische Lernanwendungen weiterhin seinen Aufgaben nachkommen und sich weiterbilden. Globalisierung ist ein Motor der Verbreitung des Virus, aber auch ein Faktor bei seiner Bekämpfung: Umgehend wurde weltweit an einem Medikament gegen SARS-CoV-2 geforscht.“ Der Technikphilosoph ist der Meinung, dass sich in Zukunft immer mehr Krisen und Katastrophen ereignen und sich möglichst viele Länder mit Kohorten von Robotern ausstatten sollten, um die Herausforderungen zu meistern. Insbesondere sind Sicherheits-, Transport- und Pflegeroboter sowie Desinfektionsroboter gefragt. Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/covid-19-122147 abgerufen werden.
The book chapter „The BESTBOT Project“ by Oliver Bendel, David Studer and Bradley Richards was published on 31 December 2019. It is part of the 2nd edition of the „Handbuch Maschinenethik“, edited by Oliver Bendel. From the abstract: „The young discipline of machine ethics both studies and creates moral (or immoral) machines. The BESTBOT is a chatbot that recognizes problems and conditions of the user with the help of text analysis and facial recognition and reacts morally to them. It can be seen as a moral machine with some immoral implications. The BESTBOT has two direct predecessor projects, the GOODBOT and the LIEBOT. Both had room for improvement and advancement; thus, the BESTBOT project used their findings as a basis for its development and realization. Text analysis and facial recognition in combination with emotion recognition have proven to be powerful tools for problem identification and are part of the new prototype. The BESTBOT enriches machine ethics as a discipline and can solve problems in practice. At the same time, with new solutions of this kind come new problems, especially with regard to privacy and informational autonomy, which information ethics must deal with.“ (Abstract) The BESTBOT is an immoral machine in a moral one – or a moral machine in an immoral one, depending on the perspective. The book chapter can be downloaded from link.springer.com/referenceworkentry/10.1007/978-3-658-17484-2_32-1.
Parallel to his work in machine ethics, Oliver Bendel is trying to establish animal-machine interaction (AMI) as a discipline. He was very impressed by Clara Mancini’s paper „Animal-Computer Interaction (ACI): A Manifesto“ on animal-computer interaction. In his AMI research, he mainly investigates robots, gadgets, and devices and their behavior towards animals. There are not only moral questions, but also questions concerning the design of outer appearance and the ability to speak. The general background for his considerations is that more and more machines and animals meet in closed, half-open and open worlds. He believes that semi-autonomous and autonomous systems should have rules so that they treat animals well. They should not disturb, frighten, injure or kill them. Examples are toy robots, domestic robots, service robots in shopping malls and agricultural robots. Jackie Snow, who writes for New York Times, National Geographic, and Wall Street Journal, has talked to several experts about the topic. In an article for Fast Company, she quotes the ethicists Oliver Bendel and Peter Singer. Clara Mancini is also expressing her point of view. The article with the title „AI’s next ethical challenge: how to treat animals“ can be downloaded here.