Die Studie „Soziale Roboter, Empathie und Emotionen“, erschienen am 8. November 2021, nimmt die Perspektiven von Informations-, Roboter- und Maschinenethik ein. Verantwortlich für diesen Teil waren Prof. Dr. Oliver Bendel und Jeanne Kreis. Die Perspektive der Informationsethik – vor allem das Konzept der informationellen Autonomie – hilft dabei, die Überwachungsmöglichkeiten und die Verletzungen von Privat- und Intimsphäre durch soziale Roboter kritisch zu reflektieren. Sie kann mithelfen, ethische Leitlinien zu entwickeln und ethische Kommissionen aufzusetzen. Es resultiert bei Verwendung der diskursiven Methode ein Interessenausgleich der verschiedenen Parteien, etwa ein Konsens zu dem, was bei Gesichts- und Stimmerkennung zu tun und was zu unterlassen ist. Mit Hilfe der Roboterethik kann die Frage nach den moralischen Rechten von sozialen Robotern abschlägig beantwortet werden, da solche Rechte Empfindungs- und Leidensfähigkeit bzw. Bewusstsein voraussetzen. Ein ergiebigeres Forschungsfeld findet die Disziplin in Bezug auf die Folgen des Einsatzes sozialer Roboter. Diese sollten keine Mittel für Betrug und Täuschung darstellen, da diese Rechte des Gegenübers beschädigen können. Zugleich ist es vertretbar, die Nutzer für eine Weile in einer Illusion zu belassen, wenn sie dazu in geeigneter Weise ihre Zustimmung gegeben haben und der Nutzen den Schaden überwiegt. Sie sollten aber, soweit es ihnen zugänglich und möglich ist, über die Hintergründe aufgeklärt worden sein und zu jedem Zeitpunkt wiederum Wahlfreiheit haben. Es ist vor allem stets zu überlegen, ob das Simulieren von Empathie und Emotionen notwendig und zielführend ist oder ob hier unnötigerweise Beziehungen und Bindungen etabliert werden, die sich für die Betroffenen als problematisch oder die Menschenwürde verletzend herausstellen können. Ethics by Design, Responsible AI und Maschinenethik können dazu beitragen, dass soziale Roboter sozial und moralisch adäquat agieren und reagieren. Die Entwicklerinnen und Entwickler werden mit Blick auf Betrug und Täuschung oder die Gefahr von Verzerrungen und Vorurteilen sensibilisiert, und sie werden in die Lage versetzt, den Maschinen passende Regeln und Grenzen einzupflanzen. So entstehen soziale Roboter als moralische Maschinen, die zumindest in geschlossenen und halboffenen, übersichtlichen Räumen mit voraussehbaren Prozessen und Situationen zu einem guten Leben beitragen können. Die Studie ist über zenodo.org/record/5554564 verfügbar.
Abb.: Eine Pose von Ameca (Photo: Engineered Arts)
The AAAI Spring Symposia at Stanford University are among the AI community’s most important get-togethers, especially for its experimental division. The years 2016, 2017, and 2018 were memorable highlights for machine ethics, robot ethics, ethics by design, and AI ethics, with the symposia „Ethical and Moral Considerations in Non-Human Agents“ (2016), „Artificial Intelligence for the Social Good“ (2017), and „AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents“ (2018) … As of 2019, the proceedings are no longer provided directly by the Association for the Advancement of Artificial Intelligence, but by the organizers of each symposium. Since summer 2021, the entire conference volume of 2018 is available free of charge. It includes contributions by Philip C. Jackson, Mark R. Waser, Barry M. Horowitz, John Licato, Stefania Costantini, Biplav Srivastava, and Oliver Bendel, among many others. It can be found via aaai.org/proceeding/01-spring-2018/.
Fig.: Animal-friendly robot cars were a topic in 2016
The papers of the CHI 2019 workshop „Conversational Agents: Acting on the Wave of Research and Development“ (Glasgow, 5 May 2019) are now listed on convagents.org. The extended abstract by Oliver Bendel (School of Business FHNW) entitled „Chatbots as Moral and Immoral Machines“ can be downloaded here. The workshop brought together experts from all over the world who are working on the basics of chatbots and voicebots and are implementing them in different ways. Companies such as Microsoft, Mozilla and Salesforce were also present. Approximately 40 extended abstracts were submitted. On 6 May, a bagpipe player opened the four-day conference following the 35 workshops. Dr. Aleks Krotoski, Pillowfort Productions, gave the first keynote. One of the paper sessions in the morning was dedicated to the topic „Values and Design“. All in all, both classical specific fields of applied ethics and the young discipline of machine ethics were represented at the conference. More information via chi2019.acm.org.
The Association for the Advancement of Artificial Intelligence (AAAI) and Squirrel AI Learning announced the establishment of a new one million dollars annual award for societal benefits of AI. According to a press release of the AAAI, the award will be sponsored by Squirrel AI Learning as part of its mission to promote the use of artificial intelligence with lasting positive effects for society. „This new international award will recognize significant contributions in the field of artificial intelligence with profound societal impact that have generated otherwise unattainable value for humanity. The award nomination and selection process will be designed by a committee led by AAAI that will include representatives from international organizations with relevant expertise that will be designated by Squirrel AI Learning.“ (AAAI Press Release, 28 May 2019) The AAAI Spring Symposia have repeatedly devoted themselves to social good, also from the perspective of machine ethics. Further information via aaai.org/Pressroom/Releases//release-19-0528.php.