Die Anrufe von Google Duplex haben in den Medien ein enormes Echo ausgelöst. Immer wieder wird nun die Forderung erhoben, dass die Maschine beim Chat oder Gespräch sagt, dass sie nur eine Maschine ist. Google hat bereits beteuert, dass Google Assistant genau dies tun wird. Oliver Bendel entwickelte 2013 mit seinen Studierenden den GOODBOT, einen moralisch adäquat agierenden und reagierenden Chatbot. Vorbereitend hatte er sieben Metaregeln in der schweizerischen Unternehmerzeitung veröffentlicht. Die erste lautete, dass der Chatbot dem Benutzer klarmachen soll, dass er eine Maschine ist, eine andere, dass er nicht lügen soll. Das PDF kann hier heruntergeladen werden. Die Metaregeln wurden auf den GOODBOT dann tatsächlich angewandt. Der Prototyp war Thema auf mehreren Konferenzen und in mehreren Artikeln. Im Sommer 2018 wird ihm ein ausführlicher Beitrag gewidmet, im „Handbuch Maschinenethik“, das von Oliver Bendel für Springer herausgegeben wird und in gedruckter Form Ende des Jahres erscheint. Vor kurzem hat er auch die Idee des Moralmenüs auf Google Assistant übertragen und einen Regelkatalog für Chatbots und Sprachassistenten veröffentlicht.
Im Kontext des LADYBIRD-Projekts (2014/2017) wurde ein Menü vorgeschlagen, mit welchem der Benutzer die Moral des Staubsaugerroboters einstellen kann. Dieser verschont, wie der Name andeutet, Marienkäfer. Auch Spinnen sollte er am Leben lassen. Wer aber zum Beispiel partout bestimmte Insekten einsaugen lassen will, könnte dies über ein Menü festlegen. Wichtig ist, dass LADYBIRD insgesamt tierfreundlich bleibt und sich nicht ins Gegenteil verkehrt (und Marienkäfer sind auf jeden Fall tabu). Über das Menü wird eine Stellvertretermoral entwickelt. Der Staubsaugerroboter macht das, was der Besitzer auch machen würde. Andere Maschinen wie Sprachassistenten bzw. virtuelle Assistenten haben in der Regel keine grundsätzliche moralische Ausrichtung, eignen sich aber ebenso für den Einsatz eines Moralmenüs. Google Assistant soll in Zukunft mit Hilfe der Audiofunktion alle möglichen Reservierungen vornehmen (das Projekt wird Duplex genannt). Damit automatisiert er Vorgänge, die privaten und sozialen Charakter haben. Viele Benutzer werden es schätzen, wenn der Telefonassistent die eigenen Wertvorstellungen vertritt, da er ja in ihrem Namen bzw. Auftrag spricht. Die Designstudie MOME stellt ein Moralmenü beispielhaft für virtuelle Assistenten dieser Art vor. Die erste Option lautet: „Ich sage, dass ich eine Maschine bin.“ Eine solche Funktion war schon beim GOODBOT von 2013, einem moralisch adäquat agierenden und reagierenden Chatbot, umgesetzt.
In der neuen iX (5/2018) werden zwei Bücher zur Ethik empfohlen, „300 Keywords Informationsethik: Grundwissen aus Computer-, Netz- und Neue-Medien-Ethik sowie Maschinenethik“ von Oliver Bendel, einem „Vordenker der Roboterethik“, wie es im Text heißt, und „3TH1CS“, herausgegeben von Philipp Otto und Eike Gräf. Zum erstgenannten resümiert Ariane Rüdiger, es beschreibe „kurz und leicht verständlich, manchmal auch amüsant, alphabetisch geordnet und oft garniert mit praktischen, greifbaren Beispielen, was bestimmte informationsethische Begriffe in der Fachdiskussion genau bedeuten“. „Das reicht von Roboterethik bis zur informationellen Notwehr und von virtueller Realität bis zu Social-Media-Richtlinien. Bendel macht nicht den Fehler, seine Auffassungen zu bestimmten ethischen Fragen als allgemeinverbindlich zu erklären, sondern erwähnt stets auch abweichende Meinungen, was das broschierte Buch zu einer guten Grundlage für Diskussionen macht. Dazu trägt auch der übersichtliche Umfang bei.“ (iX, 5/2018) „3TH1CS“ enthält u.a. Beiträge von Luciano Floridi („Die Mangroven-Gesellschaft“), Oliver Bendel („Sexroboter und Robotersex aus Sicht der Ethik“) und Susan L. und Michael Anderson („Ethische Roboter für die Altenpflege“). Laut Rüdiger „eine interessante, vielseitige und teilweise durchaus unterhaltsame Lektüre“ (iX, 5/2018).
Eine fliegende Alexa hat ihn der SPIEGEL etwas despektierlich genannt. Gemeint ist CIMON, ein autonomer, mit künstlicher Intelligenz verbundener Weltraumroboter, der demnächst im Columbus-Modul der ISS zum Einsatz kommen soll. Entwickelt hat ihn das Deutsche Zentrum für Luft- und Raumfahrt (DLR). „CIMON kann sehen, hören, verstehen, sprechen – und fliegen. Er ist rund, hat einen Durchmesser von 32 Zentimetern und wiegt fünf Kilogramm.“ (Website DLR) Sein Vorbild war nicht Alexa, sondern vielmehr, so der DLR auf seiner Website, Professor Simon Wright aus der 80er-Jahre-Zeichentrickserie „Captain Future“, ein „fliegendes Gehirn“ mit Sensoren, Kameras und einem Sprachprozessor. Mit Hilfe von 14 internen Ventilatoren kann sich CIMON frei in alle Raumrichtungen bewegen und rotieren. Er kann sich laut DLR dem Astronauten zuwenden, wenn er angesprochen wird, und ihm selbstständig oder auf sein Kommando hin folgen. Auch im Unterschied zu Alexa hat CIMON ein Gesicht, zu sehen auf dem Display an der abgeflachten Seite. Damit kann er freundlich und bestimmt auch zuversichtlich schauen. Ob er auch moralische Fähigkeiten hat, ist nicht bekannt. Weitere Informationen über www.dlr.de.
Abb.: Professor Simon Wright war ein fliegendes Gehirn
Können Roboter bald selbstständig Gefühle wie Hass oder Liebe entwickeln? Dies hat der WDR im April 2018 den Informations- und Maschinenethiker Oliver Bendel gefragt. Der Kontext war die Angst, die wir vor Maschinen haben oder haben können. Er antwortete: „Maschinen werden solche Gefühle meines Erachtens nicht entwickeln können, da diese biologisch-chemische und genetisch-hormonelle Grundlagen brauchen. Die Vorstellung, dass sie solche Gefühle haben, kann natürlich Angst machen. Und emotionale Roboter wie Pepper zeigen Gefühle – aber haben eben keine. Eine wichtige Frage ist, ob sie überhaupt Gefühle zeigen sollen. Und ob sie uns weismachen sollen, dass sie Menschen oder ähnlich wie Menschen sind.“ Uns ist in Europa die Angst vor künstlichen Kreaturen gleichsam eingepflanzt. Diese dachten wir uns bereits vor tausenden Jahren aus. Bei Homer und Ovid finden sich Schreckensgestalten wie Talos und Pandora, wobei die künstliche Frau in der Literatur einige Wandlungen erlebt hat. Später ging es ähnlich weiter, mit der Eisernen Jungfrau, dem Golem, Frankensteins Monster. Auch Ausnahmen gibt es, bereits in der Antike, wie Galatea, von Pygmalion erschaffen und von Aphrodite zum Leben erweckt. Das Interview kann über www1.wdr.de/wissen/technik/roboter-maschinenethik-interview-100.html nachgelesen werden.
Die Technical Reports des AAAI 2018 Spring Symposium „AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents“ sind Ende April 2018 erschienen. Enthalten sind u.a. „From GOODBOT to BESTBOT“ (Oliver Bendel), „The Uncanny Return of Physiognomy“ (Oliver Bendel), „The Heart of the Matter: Patient Autonomy as a Model for the Wellbeing of Technology Users“ (Emanuelle Burton et al.), „Trustworthiness and Safety for Intelligent Ethical Logical Agents via Interval Temporal Logic and Runtime Self-Checking“ (Stefania Costantin et al.), „Ethical Considerations for AI Researchers“ (Kyle Dent), „Interactive Agent that Understands the User“ (Piotr Gmytrasiewicz et al.), „Toward Beneficial Human-Level AI … and Beyond“ (Philip C. Jackson Jr.), „Towards Provably Moral AI Agents in Bottom-Up Learning Frameworks“ (Nolan P. Shaw et al.), „An Architecture for a Military AI System with Ethical Rules“ (Yetian Wang et al.) und „Architecting a Human-Like Emotion-Driven Conscious Moral Mind for Value Alignment and AGI Safety“ (Mark R. Waser et al.). Das Symposium fand vom 26. bis zum 28. März 2018 an der Stanford University statt. Für die Maschinenethik wie auch für Informationsethik und Roboterethik ist die Konferenzreihe seit Jahren eine der wichtigsten Plattformen weltweit.
Abb.: Was tun gegen bestimmte Formen der Gesichtserkennung?
Haben Roboter Rechte bzw. soll man sie mit Rechten ausstatten? Die eine Frage ist ethisch, die andere rechtlich deutbar. Oliver Bendel hält als Ethiker nichts von Rechten für Roboter. Dies können weder empfinden noch leiden, sie haben kein Bewusstsein, sie sind keine echten Personen, aber auch keine echten Lebewesen. Im Zivilrecht kann man, so seine Meinung, ohne weiteres eine elektronische Person konstruieren, die man verklagen kann und die dann haften muss (etwa über ein Budget, das sie hat, oder einen Fonds, mit dem sie verbunden ist). Einerseits ist das die Lösung für das Problem, dass sich in vielen Fällen kaum mehr eindeutig verantwortliche natürliche oder juristische Personen ausmachen lassen. Andererseits eben nicht, denn woher sollte das Geld kommen – wenn nicht von natürlichen und juristischen Personen, die mit dem Roboter in irgendeiner Verbindung stehen? Und bei selbstlernenden Systemen wie Tay wird es vollends kompliziert, wobei dieser Fall ins Strafrechtliche hineinreicht. Eine Gruppe von KI-Forschern, Philosophen, Theologen und Rechtswissenschaftlern hat sich in einem offenen Brief gegen die Schaffung des Status einer elektronischen Person gewandt, wie eine Arbeitsgruppe des Europäischen Parlaments sie dieses Jahr vorgeschlagen hat. Der Artikel „Streit um Rechte von Robotern“ stellt die unterschiedlichen Positionen dar. Er ist am 21. April 2018 in der Aargauer Zeitung erschienen und kann über www.aargauerzeitung.ch/leben/forschung-technik/streit-um-rechte-von-robotern-wer-haftet-wenn-etwas-schief-geht-132457958 aufgerufen werden.
Abb.: Wie gestaltet man eine elektronische Person?
Dieser Frage geht Oliver Bendel in der Zeitschrift Edison nach, in der Ausgabe 2/2018, erschienen am 13. April 2018. Die zuständige Disziplin ist die Roboterethik. Während sich die Maschinenethik auf die maschinelle Moral und damit allenfalls verbundene Pflichten oder Verpflichtungen konzentriert, interessiert sich die Roboterethik auch für moralische Rechte von Maschinen, insbesondere von Robotern. Schon vor Jahrzehnten hat man über diese Frage nachgedacht, doch in letzter Zeit gibt es diesbezügliche Überlegungen und Forderungen, denen man als Ethiker etwas entgegensetzen muss. Denn Oliver Bendel ist der Meinung, dass Roboter keine Rechte haben, haben werden und haben sollen. In seinen Ausführungen zieht er Vergleiche mit Menschen, Tieren und Pflanzen (Tiere haben Rechte, Pflanzen nicht). Auf der Website heißt es zu dem Handelsblatt-Spross: „Edison ist das neue Magazin für alle, die sich für Elektromobilität, vernetztes Leben und nachhaltige Energiegewinnung interessieren. Für alle, die in einer Zeit der Umbrüche und des rasanten technischen Fortschritts Orientierung suchen. Für alle, die Haltung zeigen möchten. Kurz: Es ist das neue Magazin für die Generation E.“ Es kann über edison-magazin.handelsblatt.com/epaper/13.04.2018 bestellt werden.
Der Kurzfilm „Ignarus“ wird gegenwärtig an der Hochschule der Medien produziert (Director: Lutz Marquardt, Producer: Cornelius Herzog, VFX Producer: Nico Hoerz, DOP: Tatjana Huck). Die Protagonisten sind John und Cara. In der Beschreibung des Projekts heißt es zu John, er sei Wissenschaftler und arbeite für eine staatliche Forschungseinrichtung, die die Möglichkeiten zur Bevölkerung fremder Planeten untersuche. „John ist für die Durchführung einiger Experimente zur Feststellung der dortigen Lebensfähigkeit auf einen erdähnlichen Planeten geschickt worden, auf dem er nun zusammen mit der künstlichen Intelligenz Cara in einem abgeschotteten Forschungsbunker festsitzt.“ (Projektbeschreibung STUDIOPRODUKTION VFX SS18) Obwohl Cara nur ein Hologramm und ein Programm sei, verfüge sie über äußerst menschliche Züge und Charaktereigenschaften. Sie weiß „mit John umzugehen und ihn in einer cleveren Weise zu beeinflussen und zu lenken, wie es die Mission – und am Ende auch Cara – von ihm verlangt“. „Mit diesem Verhalten schafft es Cara, sich John durch subtile Anstöße zum Werkzeug zu machen. Ihre Ziele und Absichten scheinen jedoch stets verborgen und so wirkt sie zum Teil unvorhersehbar und fast schon tückisch. Ihre Art lässt dadurch oft zweifeln, ob sie so programmiert wurde oder sich bereits eigene Eigenschaften angeeignet hat und eine unerwartete Art der Entwicklung durchläuft.“ (Projektbeschreibung STUDIOPRODUKTION VFX SS18) Der Film wird von maschinenethik.net unterstützt und feiert am 5. Juli 2018 bei der MediaNight seine Weltpremiere.
Die Minds Mastering Machines ist die Konferenz für Machine Learning und Künstliche Intelligenz. Sie findet in Köln vom 24. bis 26. April 2018 statt. Die Keynote am 25. April hält der Informations- und Maschinenethiker Oliver Bendel aus Zürich zum Thema „Das Moralisieren von Maschinen“. Zur Konferenz steht auf der Website: „Die Einsatzgebiete für Machine-Learning-Ansätze, die den Kern der KI ausmachen, sind vielfältig: Sie reichen von intelligenten Helfern und Bots, die online bei allerlei Aufgaben assistieren, über autonome Fahrzeugen bis hin zur Steuerung komplexer Verkehrsströme. Weitere Beispiele sind Wohnungen, die Heizungen regulieren lernen oder bei auffälligem Verhalten hilfsbedürftiger Bewohner Hilfe herbeirufen, und smarte Fabriken mit Maschinen, die sich selbst optimieren und mögliche Störungen bereits im Vorfeld ankündigen.“ (Website M3) Die Konferenz hat „es sich zum Ziel gesetzt, ihre Besucher beim Schritt von den Visionen der Science-Fiction-Autoren in die technische Realität zu unterstützen“ (Website M3).
Abb.: Von Science-Fiction und Fantasy zur technischen Realität
Das BESTBOT-Projekt startete am 22. März 2018. Nach den Vorgaben von Oliver Bendel wird das vierte Artefakt der Maschinenethik an der Hochschule für Wirtschaft FHNW geschaffen. Anders als der GOODBOT wird der BESTBOT ein webbasiertes System sein. Wie der LIEBOT aka LÜGENBOT soll der BESTBOT in Java programmiert werden, unter Zuhilfenahme der AIML. Der BESTBOT soll auf alle möglichen Anfragen und Herausforderungen reagieren können, auch auf solche, die in der Person des Benutzers liegen. Deshalb wird er erstens stark vernetzt sein, wie der LIEBOT, mit Systemen wie Suchmaschinen, mit Thesauri und Ontologien. Der GOODBOT war ein geschlossenes System mit einer Wissensbasis – er konnte nur begrenzt auf Probleme des Benutzers eingehen. Zweitens soll der BESTBOT Gesichtserkennung benutzen, auch Emotionserkennung. Auf diese Weise soll er Erkenntnisse zu Aussagen des Benutzers ergänzen und diese gegebenenfalls relativieren können. Die dabei auftretenden Probleme sollen ebenfalls reflektiert werden, mit Begriffen und Methoden der Informationsethik. Oliver Bendel stellt das BESTBOT-Projekt am 27. März 2018 an der Stanford University vor, im Rahmen der AAAI Spring Symposia.
Im Salzburger Nachtstudio auf Ö1 wird am 16. Mai 2018 die Sendung „Alexa lacht“ mit dem Untertitel „Maschinen und andere Gespenster der künstlichen Intelligenz“ ausgestrahlt. Aus der Beschreibung: „Die Differenz zwischen Mensch und Maschine ist längst kleiner geworden in unserem smarten Alltag. Maschinen, die immer selbständiger handeln und entscheiden, ziehen als Saug- und Mähroboter, als Pflege-, Spiel-, Service- oder Sexroboter, als Überwachungs- und Kampfroboter in die menschliche Lebenswelt ein. Das erfordert Regeln im Umgang zwischen Mensch und Maschine sowie eine ethische Reflexion der Programmierung. Der Maschinenethiker Oliver Bendel, die Philosophin Janina Loh und die Informatikerin Joanna Bryson reflektieren diese Problematik in ihrer Forschungsarbeit. Was ist menschliche Projektion im Umgang mit Technologien, und wie ‚verhält‘ sich die Maschine dazu? Der Spuk von Sprachassistentin Alexa, die zuweilen gestört lacht, lässt sich beheben, aber Alexa wertet längst menschliche Gewohnheiten aus und steuert uns.“ (Website Ö1) Weitere Informationen über oe1.orf.at/programm/20180516/513712.
The book chapter „Co-robots from an Ethical Perspective“ by Oliver Bendel was published in March 2018. It is included in the book „Business Information Systems and Technology 4.0“ (Springer). The abstract: „Cooperation and collaboration robots work hand in hand with their human colleagues. This contribution focuses on the use of these robots in production. The co-robots (to use this umbrella term) are defined and classified, and application areas, examples of applications and product examples are mentioned. Against this background, a discussion on moral issues follows, both from the perspective of information and technology ethics and business ethics. Central concepts of these fields of applied ethics are referred to and transferred to the areas of application. In moral terms, the use of cooperation and collaboration robots involves both opportunities and risks. Co-robots can support workers and save them from strains and injuries, but can also displace them in certain activities or make them dependent. Machine ethics is included at the margin; it addresses whether and how to improve the decisions and actions of (partially) autonomous systems with respect to morality. Cooperation and collaboration robots are a new and interesting subject for it.“ The book can be ordered here.
„Eine deutliche Mehrheit der Stimmberechtigten will an den Rundfunkgebühren festhalten.“ So meldete es der Tages-Anzeiger am 4. März 2018. Welche Rolle haben Social Bots, in bestimmten Zusammenhängen auch Meinungsroboter genannt, bei der No-Billag-Initiative gespielt? Ein Team der Hochschule für Wirtschaft FHNW hat dies untersucht. Prof. Dr. Stefan Gürtler (Medien- und Kommunikationsexperte) und Prof. Dr. Oliver Bendel (Informations- und Maschinenethiker und Experte für Chatbots) geben am 7. März 2018 über eine Medienmitteilung die Zahlen bekannt. Aus der Projektbeschreibung: „Soziale Medien gewinnen bei der öffentlichen Meinungsbildung an Bedeutung. Ebenso nimmt deren Beeinflussung durch technische Mittel zu. Verschiedene Untersuchungen haben das Ausmaß und das Gefahrenpotenzial von sogenannten Meinungsrobotern aufgezeigt, die … politische Diskussionen mit maschinell erzeugter Kommunikation überschwemmen. Eine freie Meinungsbildung ist unabdingbare Grundvoraussetzung für eine funktionierende demokratische Gesellschaft. Sie muss vor manipulativen Eingriffen geschützt werden. Ein erster Schritt zu ihrem Schutz ist die Erprobung eines algorithmischen Suchverfahrens, wie es bereits in anderen Ländern zur erfolgreichen Detektion von Meinungsrobotern eingesetzt wurde.“ Kann man von guten und bösen Meinungsrobotern sprechen? Das wäre noch zu diskutieren. Auf jeden Fall sind einige von ihnen Münchhausen-Maschinen. Ein ausführlicher Bericht folgt im Sommer dieses Jahres.
Abb.: Auch in Deutschland wird über die Gebühren diskutiert
Am 2. und 3. März 2018 fand die „3. KMG Jahrestagung“ im Ellington Hotel Berlin statt. In dem Gebäude aus den 30er-Jahren trafen sich Mediziner und Pfleger, um sich zu informieren und miteinander zu kommunizieren. Am zweiten Tag standen „Roboter in Medizin und Pflege“ auf dem Programm. Den Auftakt machte Prof. Dr. Dr. h.c. Viola Vogel (Departement Gesundheitswissenschaften und Technologie der ETH Zürich) mit ihrem Vortrag über bakterielle Nanoroboter. Zahlreiche Videos und Erklärungen zeigten, dass die Mikroorganismen hochkomplexe Systeme sind, die man nutzbar machen kann. Es folgte Prof. Dr. Oliver Bendel (Dozent und Forscher am Institut für Wirtschaftsinformatik, Hochschule für Wirtschaft, Fachhochschule Nordwestschweiz) mit „Pflegeroboter und Assistenzsysteme in der Pflege – aus Sicht der Ethik“. Er stellte Operations-, Therapie- und Pflegeroboter vor und nahm dann sowohl die Perspektive der Informations- als auch der Maschinenethik ein. Die KMG-Kliniken gehören nach eigenen Angaben zu den erfolgreichsten Gesundheitskonzernen im Nordosten Deutschlands. „Das 1991 gegründete Unternehmen baute auf der 100-jährigen Tradition des Kur- und Klinikbetriebes von Bad Wilsnack im Land Brandenburg auf und entwickelte sich seitdem dynamisch zu einem vielseitigen Dienstleister rund um die Gesundheit.“ (Website KMG)
Ein ehemaliger Google-Mitarbeiter, Anthony Levandowski, hat eine Bewegung gegründet, „Way of the Future“ genannt. Die Maschine (bzw. die künstliche Intelligenz) wird zu einem Gott gemacht. Der Schritt des Experten für selbstfahrende Autos ist durchaus konsequent. Einige Firmen im Silicon Valley haben engen Kontakt zu den Kirchen. Sie lassen sich von ihnen beraten, wie man Menschen für sich gewinnt und von einer Sache überzeugt. Insbesondere sollen die Mitarbeitenden vorbehaltlos an das Unternehmen glauben, bei dem sie arbeiten. Aber auch an die Kunden richtet sich die Heilsbotschaft. Sie sollen vor allem an das Produkt glauben. Interessant ist, dass Rechte für die Maschinen bzw. die KI gefordert werden: „In ‚recent‘ years, we have expanded our concept of rights to both sexes, minority groups and even animals, let’s make sure we find a way for ‚machines‘ to get rights too.“ (Website WOTF) Diese Idee ist einige Jahrzehnte alt, und in Roboterethik und Technikphilosophie ist es nicht gelungen, dafür eine überzeugende Begründung zu finden. Maschinen haben nichts, was Rechte entstehen lassen könnte, etwa Empfindungs- und Leidensfähigkeit. Die Frage ist zudem, ob man Göttern Rechte zusprechen muss, oder ob sie sich diese, gerade wenn sie real sind, nicht einfach nehmen. Interessant ist auch, dass das Menschenwerk nicht wie in anderen Religionen geleugnet, sondern explizit gemacht wird: Die Erschaffung von Gott ist Programm.