ANIFACE

Face recognition for humans is very controversial, especially when it comes to surveillance or physiognomy. However, there are also other possible applications, for example in relation to animals. At the moment, individuals are mainly tracked with the help of chips and transmitters. However, these are disturbing for some of the animals. Further, the question is whether one should interfere with living beings in this way. In addition, animals are constantly being born that escape monitoring. The project „ANIFACE: Animal Face Recognition“ will develop a concept of a facial recognition system that can identify individuals of bears and wolves. These are advancing more and more in Switzerland and need to be monitored to protect them and affected people (and their agriculture). Facial recognition can be used to identify the individual animals and also to track them if there are enough stations, which of course must be connected with each other. An interesting sidebar would be emotion recognition for animals. The system (which could include camera installations and robots) could find out how bears and wolves are feeling and then trigger certain actions. The project was applied for in July 2021 by Prof. Dr. Oliver Bendel, who has already designed and implemented several animal-friendly machines with his teams. In August, it will be decided whether he can start the work.

Fig.: An attentive lion

Sinn und Unsinn von Responsible AI

„Mit dem Begriff der Responsible AI werden Bestrebungen zusammengefasst, Systeme künstlicher Intelligenz in verantwortungsvoller Weise zu entwickeln respektive einzusetzen und Systeme zu schaffen, die über bestimmte Merkmale und Fähigkeiten – etwa sozialer oder moralischer Art – verfügen. Angesprochen werden damit u.a. Erklärbarkeit (Explainable AI), Vertrauenswürdigkeit (Trustworthy AI), Datenschutz, Verlässlichkeit und Sicherheit. Der Ausdruck hat sich allmählich seit der Jahrtausendwende und dann verstärkt ab ca. 2010 verbreitet. Er wird – wie ‚Explainable AI‘ und ‚Trustworthy AI‘ – vielfach im Marketing von Staaten und Verbünden wie der EU, technologieorientierten Unternehmen bzw. Unternehmensberatungen sowie wissenschaftsfördernden Stiftungen verwendet, die sich, ihre Produkte, ihr Consulting und ihr Funding ins rechte Licht rücken wollen. Er kann aber ebenso den Namen einer Forschungsgruppe mit entsprechender Ausrichtung schmücken.“ Mit diesen Worten beginnt ein Beitrag von Oliver Bendel, der am 20. Februar 2021 im Gabler Wirtschaftslexikon erschienen ist. Am Ende heißt es: „Letztlich ist ‚Responsible AI‘ ein diffuser Begriff, der hohe Erwartungen weckt, jedoch kaum erfüllt.“ Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/responsible-ai-123232 abgerufen werden.

Abb.: Sinn und Unsinn von Responsible AI

Artificial Love

Ayanda Rogge ist Doktorandin bei Prof. Dr. Sven Engesser und Prof. Dr. Oliver Bendel. Sie arbeitet seit Herbst 2019 als wissenschaftliche Mitarbeiterin am Institut für Medien und Kommunikation der TU Dresden. Ihre Forschungsschwerpunkte sind post- und transhumanistische Entwicklungen wie emotional intelligente Maschinen und Mensch-Roboter-Interaktion – mit besonderem Fokus auf die Gestaltung von Mensch-Maschine-Kommunikation und anthropomorphem Framing. In ihrer Dissertation untersucht sie Kommunikationskomponenten, die zu einer höheren Interaktionsrate zwischen Mensch und Maschine in sozialen Kontexten führen. Dabei untersucht sie auch Liebespuppen mit erweiterten Funktionen und eigentliche Sexroboter. Für das Buch „Maschinenliebe“ (Hrsg. Oliver Bendel) hat sie gleich zwei Beiträge verfasst, einen mit einer Marktübersicht und einen mit einer psychologischen Studie mit Blick auf diverse Anwendungsgebiete. In der Sonntagszeitung vom 13. Dezember 2020 gibt sie Auskunft zu ihrer Forschung und Einschätzungen zu Problemgebieten. In einem Infokasten wird auch der genannte Band erwähnt, der Ende Oktober 2020 herausgekommen ist und über Springer bezogen werden kann. Der Artikel kann ab dem 20. Dezember 2020 kostenlos als PDF heruntergeladen werden.

Abb.: Artificial love

Responsible AI

„HASLER RESPONSIBLE AI“ is a research program of the Hasler Foundation open to research institutions within the higher education sector or non-commercial research institutions outside the higher education sector. The foundation explains the goals of the program in a call for project proposals: „The HASLER RESPONSIBLE AI program will support research projects that investigate machine-learning algorithms and artificial intelligence systems whose results meet requirements on responsibility and trustworthiness. Projects are expected to seriously engage in the application of the new models and methods in scenarios that are relevant to society. In addition, projects should respect the interdisciplinary character of research in the area of RESPONSIBLE AI by involving the necessary expertise.“ (CfPP by Hasler Foundation) Deadline for submission of short proposals is 24 January 2021. More information at haslerstiftung.ch.

Fig.: Responsible AI

A New AI Magazine

AAAI has announced the launch of the Interactive AI Magazine. According to the organization, the new platform provides online access to articles and columns from AI Magazine, as well as news and articles from AI Topics and other materials from AAAI. „Interactive AI Magazine is a work in progress. We plan to add lot more content on the ecosystem of AI beyond the technical progress represented by the AAAI conference, such as AI applications, AI industry, education in AI, AI ethics, and AI and society, as well as conference calendars and reports, honors and awards, classifieds, obituaries, etc. We also plan to add multimedia such as blogs and podcasts, and make the website more interactive, for example, by enabling commentary on posted articles. We hope that over time Interactive AI Magazine will become both an important source of information on AI and an online forum for conversations among the AI community.“ (AAAI Press Release) More information via interactiveaimag.org.

Fig.: A magazine for interested people, cyborgs and robots

Conference on AI, Ethics, and Society

AAAI announced the launch of the AAAI/ACM Conference on AI, Ethics, and Society, to be co-located with AAAI-18, February 2-3, 2018 in New Orleans. The Call for Papers is available at www.aies-conference.com (link no longer valid). October 31 is the deadline for submissions. „As AI is becoming more pervasive in our life, its impact on society is more significant and concerns and issues are raised regarding aspects such as value alignment, data bias and data policy, regulations, and workforce displacement. Only a multi-disciplinary and multi-stakeholder effort can find the best ways to address these concerns, including experts of various disciplines, such as AI, computer science, ethics, philosophy, economics, sociology, psychology, law, history, and politics.“ (AAAI information) The new conference complements and expands the classical AAAI Spring Symposia at Stanford University (including symposia like „AI for Social Good“ in 2017 or „AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents“ in 2018).

Fig.: AI and ethics could help society

KI-Ethik im Paul-Löbe-Haus

Das Paul-Löbe-Haus ist ein Veranstaltungs- und Diskussionsort des Deutschen Bundestags, gelegen am Südrand des Spreebogenparks. Dort fand am 28. Oktober 2016 ab 9 Uhr der 3. Netzpolitische Kongress von Bündnis 90/Die Grünen mit dem Titel „Für eine Ethik der digitalen Gesellschaft“ statt. Ein Schwerpunkt war der Zusammenhang zwischen Künstlicher Intelligenz (KI) und Ethik. Dr. Anton Hofreiter hielt um 10 Uhr die Eröffnungsrede. Dann war der Publizist Sascha Lobo zugeschaltet. In sechs Workshops ging man Fragen der Informations-, Technik- und Maschinenethik nach. Workshop Nr. 5, moderiert von Hans-Christian Ströbele, Mitglied des Deutschen Bundestags, galt dem Thema „Drohnen – eine Ethik für neue Formen der Überwachung und des Krieges“. Es diskutierten Anja Dahlmann von der Stiftung Wissenschaft und Politik und Malte Spitz, Datenschutzexperte. Workshop Nr. 6, moderiert vom Grünen-Politiker Dieter Janecek, war dem Thema „Deep Learning – Was unterscheidet Mensch und Maschine und gibt es Algorithmen für Empathie?“ gewidmet. Olivia Klose von Microsoft erklärte den Unterschied zwischen schwacher und starker KI. Oliver Bendel von der Hochschule für Wirtschaft FHNW verortete seine eigenen Projekte in der schwachen KI und erklärte, warum selbstlernende Systeme in offenen Welten nicht immer eine gute Idee sind. Am Rande der Veranstaltung führte er Gespräche mit Lars Klingbeil, dem netzpolitischen Sprecher der SPD-Bundestagsfraktion, und Hans-Christian Ströbele. Weitere Informationen über www.gruene-bundestag.de.

Abb.: Uhren sind für Joseph Weizenbaum autonome Systeme