Kategorie: Künstliche Intelligenz

AI, ME und MC

Immer wieder hört man, oft von Theologen, manchmal von Philosophen, dass Maschinen nicht autonom seien, nicht intelligent, nicht moralisch etc. Sie übertragen den Begriff, den sie aus ihrem Bereich kennen, auf technische Wissenschaften wie Informatik, Künstliche Intelligenz (KI) und Maschinenethik (die technisch geprägt ist und eng mit KI und Robotik zusammenarbeitet). Sie anerkennen nicht, dass jede Disziplin ihre eigenen Begriffe haben kann (und in der Regel hat). Bei einer Tagung im Jahre 2015 beschimpfte Bundestagspräsident Prof. Dr. Norbert Lammert, ein zutiefst religiöser Mann, die Referenten mit den Worten, Maschinen seien nicht autonom, sie hätten sich nämlich nicht selbst ein Gesetz gegeben. Nun sprechen Informatik und Robotik aber nun einmal von autonomen Systemen und Maschinen, und selbstverständlich dürfen sie das, wenn sie darlegen, wie sie das meinen. Eine solche Begriffsklärung und -aneignung sogar steht am Anfang jeder wissenschaftlichen Betätigung, und dass die Begriffe gleich lauten wie die anderer Bereiche, heißt keineswegs, dass sie dasselbe bedeuten und bedeuten müssen. Eine neue Grafik von Prof. Dr. Oliver Bendel, die auf früheren Entwürfen aufbaut, stellt dar, was der Gegenstandsbereich der Disziplinen oder Arbeitsbereiche der KI, der Maschinenethik und des Maschinellen Bewusstseins ist, und macht für sie terminologische Vorschläge. Im Kern geht es diesen darum, etwas in bestimmten Aspekten ab- oder nachzubilden bzw. zu simulieren. So schafft es die Künstliche Intelligenz eben, künstliche Intelligenz hervorzubringen, etwa Dialogsysteme oder Maschinen, die bestimmte Probleme lösen. Ob diese „wirklich“ intelligent sind oder nicht, ist keine sinnvolle Frage, und der Terminus technicus benutzt nicht umsonst das Adjektiv „künstlich“ – hier wäre noch einfacher als im Falle von „autonom“ zu verstehen, dass es sich um eine „neue“ (immerhin seit über 50 Jahren erklärte) Bedeutung handelt.

Abb.: AI, ME und MC

Die Entwicklung einer MOML

Es existieren mehrere Markup Languages. Die bekannteste ist sicherlich die Hypertext Markup Language (HTML). Im Bereich der KI hat sich AIML etabliert. Für synthetische Stimmen wird SSML eingesetzt. Die Frage ist, ob damit die Möglichkeiten mit Blick auf autonome Systeme ausgeschöpft sind. In dem Beitrag „Das Moralmenü: Moralische Maschinen mit einer Stellvertretermoral“ von Prof. Dr. Oliver Bendel wurde zum ersten Mal eine Morality Markup Language (MOML) vorgeschlagen. Eine Studienarbeit unter der Betreuung des Informations- und Maschinenethikers hat 2019 untersucht, welche Möglichkeiten bestehende Sprachen hinsichtlich moralischer Aspekte haben und ob eine MOML gerechtfertigt ist. Die Ergebnisse wurden im Januar 2020 vorgestellt. Eine Bachelorarbeit an der Hochschule für Wirtschaft FHNW geht ab Ende März 2020 einen Schritt weiter. In ihr sollen Grundzüge einer Morality Markup Language erarbeitet werden. Es sollen die Grundstruktur und spezifische Befehle vorgeschlagen und beschrieben werden. Es sind die Anwendungsbereiche, Vorteile und Nachteile einer solchen Markierungssprache darzustellen. Auftraggeber der Arbeit ist Prof. Dr. Oliver Bendel, Betreuerin Dr. Elzbieta Pustulka.

Abb.: Die Entwicklung einer MOML

Towards SPACE THEA

Living, working, and sleeping in small spaces next to the same people for months or years would be stressful for even the fittest and toughest astronauts. Neel V. Patel underlines this fact in a current article for MIT Technology Review. If they are near Earth, they can talk to psychologists. But if they are far away, it will be difficult. Moreover, in the future there could be astronauts in space whose clients cannot afford human psychological support. „An AI assistant that’s able to intuit human emotion and respond with empathy could be exactly what’s needed, particularly on future missions to Mars and beyond. The idea is that it could anticipate the needs of the crew and intervene if their mental health seems at risk.“ (MIT Technology Review, 14 January 2020) NASA wants to develop such an assistant together with the Australian tech firm Akin. They could build on research by Prof. Dr. Oliver Bendel. Together with his teams, he has developed the GOODBOT in 2013 and the BESTBOT in 2018. Both can detect users’ problems and react adequately to these problems. The more recent chatbot even has face recognition in combination with emotion recognition. If it detects discrepancies with what the user has said or written, it will make this a subject of discussion. Oliver Bendel is currently examining the possibilities of a follow-up project. It could be called THE EMPHATIC ASSISTANT IN SPACE (SPACE THEA). SPACE THEA is a voicebot for space ships that reacts with empathy (compassion, concern, possibly even pity). It is certainly available before humans fly to Mars.

Fig.: Lost in space

About MOBO-MOME

From June 2019 to January 2020 the Morality Menu (MOME) was developed under the supervision of Prof. Dr. Oliver Bendel. With it you can transfer your own morality to the chatbot called MOBO. First of all, the user must provide various personal details. He or she opens the „User Personality“ panel in the „Menu“ and can then enter his or her name, age, nationality, gender, sexual orientation, and hair color. These details are important for communication and interaction with the chatbot. In a further step, the user can call up the actual morality menu („Rules of conduct“) via „Menu“. It consists of 9 rules, which a user (or an operator) can activate (1) or deactivate (0). The behaviors 1 – 8, depending on how they are activated, result in the proxy morality of the machine (the proxy machine). It usually represents the morality of the user (or the operator). But you can also give the system the freedom to generate its morality randomly. This is exactly what happens with this option. After the morality menu has been completely set, the dialogue can begin. To do this, the user calls up „Chatbot“ in the „Menu“. The Chatbot MOBO is started. The adventure can begin! A video of the MOBO-MOME is available here.

Fig.: How the MOBO-MOME works

13 Artefakte der Maschinenethik

Seit 2012 wurden von Oliver Bendel 13 Artefakte der Maschinenethik erfunden. Neun von ihnen wurden dann tatsächlich umgesetzt, darunter LADYBIRD, der tierfreundliche Saugroboter, und LIEBOT, der Chatbot, der systematisch lügen kann. Bei haben es zu einer gewissen Bekanntheit gebracht. Ethik muss nicht unbedingt das Gute hervorbringen, ist der Informations- und Maschinenethiker überzeugt. Sie sollte das Gute und das Böse erforschen und wie jede Wissenschaft dem Erkenntnisgewinn dienen. Entsprechend baut er sowohl moralische als auch unmoralische Maschinen. Die unmoralischen behält er aber in seinem Lab. 2020 wird, wenn das Projekt angenommen wird, der HUGGIE das Licht der Welt erblicken. Die Projektidee ist, einen sozialen Roboter zu schaffen, der unmittelbar zu einem guten Leben und zum wirtschaftlichen Erfolg beiträgt, indem er Menschen bzw. Kunden berührt und umarmt. HUGGIE soll sich an manchen Stellen erwärmen, und es sollen die Materialien, mit denen er bezogen ist, gewechselt werden können. Eine Forschungsfrage wird sein: Welche Möglichkeiten stehen neben Wärme und Weichheit zur Verfügung? Sind optische Reize (auch auf Displays), Vibrationen, Geräusche, Stimmen etc. für eine gelungene Umarmung wichtig? Alle moralischen und unmoralischen Maschinen, die zwischen 2012 und 2020 entstanden sind, sind in einer neuen Illustration zusammengestellt, die hier zum ersten Mal gezeigt wird.

Abb.: 13 Artefakte der Maschinenethik

From Co-Robots to Care Robots

The paper „Co-Robots as Care Robots“ by Oliver Bendel, Alina Gasser and Joel Siebenmann was accepted at the AAAI 2020 Spring Symposia. From the abstract: „Cooperation and collaboration robots, co-robots or cobots for short, are an integral part of factories. For example, they work closely with the fitters in the automotive sector, and everyone does what they do best. However, the novel robots are not only relevant in production and logistics, but also in the service sector, especially where proximity between them and the users is desired or unavoidable. For decades, individual solutions of a very different kind have been developed in care. Now experts are increasingly relying on co-robots and teaching them the special tasks that are involved in care or therapy. This article presents the advantages, but also the disadvantages of co-robots in care and support, and provides information with regard to human-robot interaction and communication. The article is based on a model that has already been tested in various nursing and retirement homes, namely Lio from F&P Robotics, and uses results from accompanying studies. The authors can show that co-robots are ideal for care and support in many ways. Of course, it is also important to consider a few points in order to guarantee functionality and acceptance.“ The paper had been submitted to the symposium „Applied AI in Healthcare: Safety, Community, and the Environment“. Oliver Bendel will present the results at Stanford University between 23 and 25 March 2020.

Abb.: Ob mit oder ohne Roboter – der Teddy darf nicht fehlen

Das virtuelle Abbild

Das Replika-Projekt wurde von Eugenia Kuyda und Phil Dudchuk mit der Idee begonnen, ein persönliches KI-System zu schaffen, das einem hilft, sich auszudrücken und zu beobachten und zu erfahren, indem es ein hilfreiches Gespräch anbietet. So sehen es zumindest die Macher und formulieren es auf ihrer Website replika.ai. Es sei ein Raum, in dem man seine Gedanken, Gefühle, Überzeugungen, Erfahrungen, Erinnerungen, Träume sicher teilen kann, eine „private perceptual world“ (Website replika.ai). Ohne Zweifel handelt es sich um einen der besten Chatbots, der mehr kann und ist als die meisten Chatbots, ein KI-System, das sich einem immer mehr annähert, in verschiedener Hinsicht. Ob Replika aber wirklich therapeutischen Nutzen hat, wie manche sagen, ob gar therapeutische Maßnahmen, die von Menschen ausgehen, ersetzt werden können, muss kritisch untersucht werden. In dem DPA- bzw. APA-Beitrag von Regina Wank, der in ca. 50 Zeitungen und Zeitschriften veröffentlicht wurde, darunter Focus, Der Standard und Heise Online, kommen Marita Skjuve von der Universität Oslo und Oliver Bendel von der Hochschule für Wirtschaft FHNW zu Wort.

Abb.: Das virtuelle Abbild

The BESTBOT Project

The book chapter „The BESTBOT Project“ by Oliver Bendel, David Studer and Bradley Richards was published on 31 December 2019. It is part of the 2nd edition of the „Handbuch Maschinenethik“, edited by Oliver Bendel. From the abstract: „The young discipline of machine ethics both studies and creates moral (or immoral) machines. The BESTBOT is a chatbot that recognizes problems and conditions of the user with the help of text analysis and facial recognition and reacts morally to them. It can be seen as a moral machine with some immoral implications. The BESTBOT has two direct predecessor projects, the GOODBOT and the LIEBOT. Both had room for improvement and advancement; thus, the BESTBOT project used their findings as a basis for its development and realization. Text analysis and facial recognition in combination with emotion recognition have proven to be powerful tools for problem identification and are part of the new prototype. The BESTBOT enriches machine ethics as a discipline and can solve problems in practice. At the same time, with new solutions of this kind come new problems, especially with regard to privacy and informational autonomy, which information ethics must deal with.“ (Abstract) The BESTBOT is an immoral machine in a moral one – or a moral machine in an immoral one, depending on the perspective. The book chapter can be downloaded from link.springer.com/referenceworkentry/10.1007/978-3-658-17484-2_32-1.

Fig.: The BESTBOT project

KI und Big Data in der Versicherung

Die Euroforum-Konferenz „Automatisation & Data Analytics: Praktische Nutzung von KI in Versicherungen“ findet am 12. und 13. März 2020 in München statt. „Robotics und KI gesteuerte Prozessautomatisierung bieten der Assekuranz sowohl im Antrags- als auch Schadenmanagement die Chance zur Erhöhung von Qualität, Effizienz und Kundenzufriedenheit. Am ersten Konferenztag stellen Experten der Versicherer Allianz, VKB, Cosmos, Gothaer und das Start-up Joonko erfolgreiche Automatisierungsprojekte vor, berichten über ihre Umsetzungserfahrungen und geben Tipps und Tricks.“ (Website Konferenz) „Zukünftig wird ein Versicherer, der es schafft, eine gute Datenaufbereitung, -Qualität und -Sicherheit herzustellen, entscheidende Wettbewerbsvorteile haben. Doch bisher hängen die Daten der Versicherer unstrukturiert in Silos fest und können nicht für KI-Systeme genutzt werden. Am zweiten Konferenztag zeigen Experten von Google, Allianz, Markel, Coya und getsafe auf, wie Versicherer ihre Datensilos aufbrechen und aktivieren können.“ (Website Konferenz) Auch Wissenschaftlerinnen und Wissenschaftler geben Input. Dr. Andrea Cornelius spricht über die „Einführung von KI-Projekten“, Prof. Dr. Oliver Bendel über „KI und Big Data in der Versicherung aus ethischer Sicht“. Der Flyer kann hier heruntergeladen werden.

Ein alternatives BGE

Die Automatisierung schreitet weltweit voran. Neuartige Industrie- und Serviceroboter sowie mächtige KI-Systeme verbreiten sich. Einige Arbeiter und Angestellte werden aus dem System herausfallen. Wie sichern wir ihre Zukunft? Der Beitrag von Oliver Bendel mit dem Titel „Willkommen auf der Erde!“ baut auf seinem Vortrag „Considerations on Unconditional Basic Income and Basic Property“ auf und wurde in der UnternehmerZeitung 9/2019 veröffentlicht. Er erörtert den Vorschlag des bedingungslosen Grundeigentums, u.a. mit den Begriffen der Gerechtigkeit und Ungerechtigkeit. Bereits gut bekannt ist die Idee des bedingungslosen Grundeinkommens. Die Schweiz hat darüber abgestimmt, und nicht wenige waren dafür. Aber letztlich hat es nicht gereicht. Der Ansatz des bedingungslosen Grundeigentums, sozusagen eines alternativen BGE, ist radikaler. Der Roboterphilosoph beendet seinen Artikel, der hier heruntergeladen werden kann, mit den folgenden Worten: „Die Welt ist aufgeteilt unter den Reichen und Mächtigen. Es besteht die Gefahr, dass Automatisierung und Autonomisierung die Ungleichheit und die Ungerechtigkeit verstärken. Und genau dagegen erhebt sich Widerspruch von gesellschaftlicher und von wissenschaftlicher Seite. Sicherlich ist das BGE eine Sozialutopie. Aber eine solche kann zur richtigen Zeit durchaus etwas in der Realität bewirken.“

Abb.: Ein alternative BGE