LADYBIRD, der tierfreundliche Staubsaugerroboter, wurde 2014 erdacht und 2017 an der Stanford University (AAAI Spring Symposia) vorgestellt und dann an der School of Business FHNW als Prototyp umgesetzt. Im Kontext des Projekts wurde ein Menü vorgeschlagen, mit welchem der Benutzer die Moral des Staubsaugerroboters einstellen kann. Dieser verschont, wie der Name andeutet, Marienkäfer. Auch Spinnen sollte er am Leben lassen. Wer aber zum Beispiel partout bestimmte Insekten einsaugen lassen will, könnte dies über ein Menü festlegen. Wichtig ist, dass LADYBIRD insgesamt tierfreundlich bleibt. Über das Menü wird, so war die Idee, eine Stellvertretermoral im Detail entwickelt. Der Staubsaugerroboter als Stellvertretermaschine macht das, was der Besitzer auch machen würde. 2018 kam das Moralmenü (MOME) für LADYBIRD als Designstudie auf die Welt. Dieses kann man mit weiteren Ansätzen und Technologien koppeln. So könnte der Benutzer erfahren, wie andere entschieden haben, und wie die persönliche Moral, die er auf die Maschine übertragen hat, eingeschätzt wird. Auch könnte er gewarnt und aufgeklärt werden, wenn er nicht nur Ungeziefer, sondern auch Spinnen einsaugen lassen will.
Google Duplex convinced not only with its voice, but also with its emphasis and way of speaking. It was imperfection that gave rise to perfection. What if you take a human-like voice and design the emphasis so that it doesn’t match what the machine says? This creates an effect that can be associated with the Uncanny Valley effect. In this example, produced using SSML, Allison tells you something very sad with a euphoric voice. It sounds a little creepy. Then she tells you something positive with an expression of regret. That sounds pretty weird. Of course, one can imagine a certain context. One can assume that the robot would also like to be a human being and that it is therefore envious of humans and full of sadness about its existence. Then you’d have a jealous, sad robot that doesn’t say what it means. Research is already underway in this area. In 2014 Jan Romportl published the paper „Speech Synthesis and Uncanny Valley“. More research is needed to better understand the effect of the synthetic voice. An interesting method is to make the emphasis inappropriate.
Der Artikel „Haben Roboter Rechte?“ von Oliver Bendel aus der Zeitschrift Edison (Ausgabe 2/2018) kann hier heruntergeladen werden. Die zuständige Disziplin für diese Frage ist die Roboterethik (bzw. die Roboterphilosophie). Während sich die Maschinenethik auf die maschinelle Moral und damit allenfalls verbundene Pflichten oder Verpflichtungen konzentriert, interessiert sich die Roboterethik auch für moralische Rechte von Maschinen, insbesondere von Robotern. Schon vor Jahrzehnten hat man über diese Frage nachgedacht, doch in letzter Zeit gibt es diesbezügliche Überlegungen und Forderungen, denen man als Ethiker etwas entgegensetzen muss. Denn Oliver Bendel ist der Meinung, dass Roboter keine Rechte haben, haben werden und haben sollen. In seinen Ausführungen zieht er Vergleiche mit Menschen, Tieren und Pflanzen (Tiere haben Rechte, Pflanzen nicht). Er erwähnt in „Haben Roboter Rechte?“ auch Sophia, den humanoiden Roboter, dem in Saudi-Arabien die Staatsbürgerschaft verliehen wurde. Ihr wird in Edison zudem ein eigener Beitrag gewidmet.
„Erotik 4.0 – Gedankenspiel Sexroboter“ lautet der Titel einer Sendung bei SRF 2 Kultur, die am 13. Juni 2018 ab 9 Uhr ausgestrahlt wird. „In Dortmund gibt es ein Sexpuppen-Bordell, in Barcelona sogar schon ein Sexroboter-Bordell. Der Roboterphilosoph Oliver Bendel findet diese Entwicklung gefährlich. Denn noch wissen wir nicht, welche Folgen Sexroboter für uns Menschen haben, die empirische Forschung fehlt noch.“ (Website SRF) Er spricht sich nicht gegen die Entwicklung aus, sondern ist eben dafür, Forschung in diesem Bereich zu betreiben und die Anwendung genau im Auge zu behalten. In der „Kontext“-Sendung geht es zunächst um Harmony. „Wer ist sie und was kann sie?“ Dann wird die Frage gestellt: „Wie soll der Sexroboter aussehen?“ Oliver Bendel denkt laut über das Aussehen von Sexrobotern abseits der Stereotype nach. Schließlich findet ein „Gedankenspiel“ statt, und KI-Experte und Schachmeister David Levy, Roboterethikerin Kathleen Richardson und Roboterphilosoph Oliver Bendel kommen zu Wort. Weitere Informationen über www.srf.ch/sendungen/kontext/erotik-4-0-gedankenspiel-sexroboter.
In der Titelgeschichte der Netzwoche 10/2018 geht es um Kooperations- und Kollaborationsroboter, auch Co-Robots oder Cobots genannt. Zu Wort kommen Steven Wyatt, Head of Marketing & Sales bei ABB Robotics, und Prof. Dr. Oliver Bendel, Hochschule für Wirtschaft FHNW. Kooperations- und Kollaborationsroboter sind moderne Industrieroboter, die mit uns Schritt für Schritt an einem gemeinsamen Ziel (Kooperationsroboter) bzw. Hand in Hand an einer gemeinsamen Aufgabe arbeiten, wobei wiederum ein bestimmtes Ziel gegeben ist (Kollaborationsroboter). Sie nutzen dabei ihre mechanischen und sensorischen Fähigkeiten und treffen Entscheidungen mit Blick auf Produkte und Prozesse im Unternehmen bzw. in der Einrichtung. Mensch und Maschine kommen sich in der Produktion und in der Logistik inzwischen also unter Umständen sehr nahe. Sie sind dabei in der Lage, ihre jeweiligen Stärken auszuspielen. Zudem entlastet der Co-Robot den Menschen. Der Artikel mit dem Titel „Cobots: Roboter und Menschen arbeiten Hand in Hand“ kann mit freundlicher Genehmigung der Netzwoche als PDF hier heruntergeladen oder auch online gelesen werden.
In der Netzwoche 10/2018 findet sich ein ganzseitiges Interview mit Oliver Bendel zu Kooperations- und Kollaborationsrobotern, auch Co-Robots oder Cobots genannt. Der Informations- und Maschinenethiker hält die Teams oder Tandems aus Mensch und Maschine für nützlich und hilfreich. Mensch und Maschine spielen jeweils ihre Stärken aus. Der Mensch wird entlastet. Ein Problem könnte in Zukunft allerdings die Überwachung sein. Die Maschine kommt uns sehr nahe, und mit Hilfe ihrer Sensoren und ihrer Software könnte sie uns ausspionieren. Dies hat Oliver Bendel in einem anderen Interview, mit der SonntagsZeitung, betont. Im Moment überwiegen für ihn klar die Vorteile. Interessant findet er zudem, dass Kooperations- und Kollaborationsroboter nicht nur in Produktion und Logistik, sondern auch in Pflege und Therapie eingesetzt werden. Damit schlagen sie eine Brücke zwischen Industrie- und Servicerobotern. Das Interview kann mit freundlicher Genehmigung der Zeitschrift als PDF hier heruntergeladen oder auch online gelesen werden.
„Sex robots are coming, but the argument that they could bring health benefits, including offering paedophiles a ’safe‘ outlet for their sexual desires, is not based on evidence, say researchers. The market for anthropomorphic dolls with a range of orifices for sexual pleasure – the majority of which are female in form, and often boast large breasts, tiny waists and sultry looks – is on the rise, with such dummies selling for thousands of pounds a piece.“ (Guardian, 5 June 2018) These are the initial words of an article in the well-known British daily newspaper Guardian, published on 5 June 2018. It quotes Susan Bewley, professor of women’s health at Kings College London – and Oliver Bendel, professor at the School of Business FHNW and expert for information and machine ethics. He is not in favor of a ban on the development of sex robots and love dolls. However, he can imagine that the area of application could be limited. He calls for empirical research in the field. The article can be accessed via www.theguardian.com/science/2018/jun/04/claims-about-social-benefits-of-sex-robots-greatly-overstated-say-experts.
Die Arbeiten am Kurzfilm „Ignarus“ (Hochschule der Medien, Director: Lutz Marquardt, Producer: Cornelius Herzog, VFX Producer: Nico Hoerz, DOP: Tatjana Huck) schreiten voran. Es wurden Bilder veröffentlicht, die die gestalterische Arbeit an der künstlichen Intelligenz Cara zeigen, die mit John, einem Wissenschaftler, in einem abgeschotteten Forschungsbunker festsitzt. Obwohl Cara nur ein Hologramm und ein Programm sei, verfüge sie über äußerst menschliche Züge und Charaktereigenschaften. Sie weiß „mit John umzugehen und ihn in einer cleveren Weise zu beeinflussen und zu lenken, wie es die Mission – und am Ende auch Cara – von ihm verlangt“ (Projektbeschreibung STUDIOPRODUKTION VFX SS18). „Mit diesem Verhalten schafft es Cara, sich John durch subtile Anstöße zum Werkzeug zu machen. Ihre Ziele und Absichten scheinen jedoch stets verborgen und so wirkt sie zum Teil unvorhersehbar und fast schon tückisch. Ihre Art lässt dadurch oft zweifeln, ob sie so programmiert wurde oder sich bereits eigene Eigenschaften angeeignet hat und eine unerwartete Art der Entwicklung durchläuft.“ (Projektbeschreibung STUDIOPRODUKTION VFX SS18) Der Film wird von maschinenethik.net unterstützt und feiert am 5. Juli 2018 bei der MediaNight seine Weltpremiere.
Die Deutsche Welle war Ende Mai 2018 im Gespräch mit Oliver Bendel. Anlass war ein Treffen zwischen Angela Merkel und Experten für Künstliche Intelligenz. Der Informations- und Maschinenethiker empfiehlt eine Unterscheidung zwischen Forschung und Entwicklung auf der einen Seite und Anwendung auf der anderen. Er ist für die Freiheit der Forschung. Für ihn endet sie erst da, wo die Freiheit und Unversehrtheit von anderen beginnt, von Menschen und Tieren. Dagegen muss man nach seiner Ansicht die eine oder andere Anwendung von KI bereits jetzt einschränken, etwa dann, wenn Massenüberwachung stattfindet. Die Deutsche Welle über sich selbst auf ihrer Website: „Die Deutsche Welle (DW) ist der Auslandssender Deutschlands. In journalistischer Unabhängigkeit vermitteln wir ein umfassendes Deutschlandbild, stellen weltweite Ereignisse und Entwicklungen aus europäischer Perspektive dar, greifen deutsche und andere Sichtweisen auf. So fördern wir das Verständnis zwischen den Kulturen und Völkern. Zugleich schaffen wir einen Zugang zur deutschen Sprache.“ (Website Deutsche Welle) Das Interview kann über www.dw.com/de/jetzt-machen-wir-gro%C3%9Fartige-spr%C3%BCnge/a-43964092 aufgerufen werden.
The young discipline of machine ethics refers to the morality of semi-autonomous and autonomous machines, robots, bots or software systems. They become special moral agents, and depending on their behavior, we can call them moral or immoral machines. They decide and act in situations where they are left to their own devices, either by following pre-defined rules or by comparing their current situations to case models, or as machines capable of learning and deriving rules. Moral machines have been known for some years, at least as simulations and prototypes. Machine ethics works closely with artificial intelligence and robotics. The term of machine morality can be used similarly to the term of artificial intelligence. Oliver Bendel has developed a graphic that illustrates the relationship between machine ethics and artificial intelligence. He presented it at conferences at Stanford University (AAAI Spring Symposia), in Fort Lauderdale (ISAIM) and Vienna (Robophilosophy) in 2018.
Fig.: The terms of machine ethics and artificial intelligence
Seit Ende 2016 sitzen renommierte Wissenschaftlerinnen und Wissenschaftler an Beiträgen für das „Handbuch Maschinenethik“ von Springer. Ende 2018 soll das gedruckte Werk erscheinen. Herausgeber ist der Informations- und Maschinenethiker und Roboterphilosoph Oliver Bendel. Die ersten Beiträge wurden im Frühjahr 2018 in elektronischer Form publiziert. Mit dabei sind etwa Luís Moniz Pereira, einer der bekanntesten Maschinenethiker der Welt, und Roboterethikerin Janina Loh, die mit Mark Coeckelbergh zusammenarbeitet. Ein Beitrag der Stuttgarter Philosophin Catrin Misselhorn, die ebenfalls einen hervorragenden Ruf in der Disziplin hat, kommt in wenigen Tagen heraus. In ein paar Monaten folgen Julian Nida-Rümelin und Eric Hilgendorf, um nur zwei weitere Namen zu nennen. Der Philosoph war einst Kulturstaatsminister, und der Roboterrechtler fehlt bei kaum einer Debatte über autonome Autos und künstliche Intelligenz. Eine Übersicht über die Beiträge, die laufend elektronisch veröffentlicht werden, findet sich über link.springer.com/referencework/10.1007/978-3-658-17484-2 … Oliver Bendel wird selbst mit sechs Beiträgen vertreten sein, vor allem zu Artefakten der Maschinenethik, also zu konkreten Umsetzungen. Er hat sich in mehreren Büchern und in über 100 Artikeln und Buchbeiträgen der Maschinenethik gewidmet.
In der SonntagsZeitung vom 20. Mai 2018 ist ein umfangreiches Interview mit Oliver Bendel erschienen, nebst Informationen zu einer Robotik- und KI-Konferenz, die unlängst in Stuttgart am Fraunhofer IPA stattfand. Der Beitrag von Joachim Laukenmann mit dem Titel „Die Industrie wird uns nicht sterben lassen, denn wir sollen ihre Produkte kaufen“ kann hier heruntergeladen werden. Im Interview geht es vor allem um Kooperations- und Kollaborationsroboter, auch Co-Robots oder Cobots genannt, aus Sicht der Ethik. Oliver Bendel erklärte im Wirtschaftslexikon von Gabler Springer: „Kooperations- und Kollaborationsroboter sind moderne Industrieroboter, die mit uns Schritt für Schritt an einem gemeinsamen Ziel (Kooperationsroboter) bzw. Hand in Hand an einer gemeinsamen Aufgabe arbeiten, wobei wiederum ein bestimmtes Ziel gegeben ist (Kollaborationsroboter). Sie nutzen dabei ihre mechanischen und sensorischen Fähigkeiten und treffen Entscheidungen mit Blick auf Produkte und Prozesse im Unternehmen bzw. in der Einrichtung.“ Am Ende des Interviews äußert Oliver Bendel auch Kapitalismuskritik. Er ist für eine Reichensteuer und für ein bedingungsloses Grundeinkommen. Die Robotersteuer muss nach seiner Ansicht diskutiert werden, hat aber mehr Nach- als Vorteile.
An der Hochschule für Wirtschaft FHNW sind seit 2013 im Kontext der Maschinenethik mehrere Hardware- und Softwareroboter entstanden. 2018 widmet man sich dem BESTBOT, einem Chatbot, der Probleme des Benutzers auf unterschiedliche Weise registrieren kann. Auf diesen geht Oliver Bendel in seinem Beitrag für die Netzwoche 9/2018 ein. Das vierte Artefakt soll demonstrieren, dass man bestimmte Probleme mit einer moralischen Maschine wie dem BESTBOT lösen kann, bestimmte Probleme durch diese aber auch erst entstehen. Man kann im Extremfall das eine oder andere Leben retten, aber man hat bis dahin Menschen observiert und analysiert, und zwar mit Hilfe von Gesichtserkennung. Sicherheit oder Freiheit, das ist auch hier die Frage. Ein Anforderungskatalog wurde bereits erstellt. Im Moment wird der Quellcode von GOODBOT und LIEBOT ausgewertet. Beide Systeme sollen verschmelzen und mit Gesichtserkennung ergänzt werden. Die Konzeption wurde Ende März an der Stanford University vorgestellt. Im Spätsommer liegen die Ergebnisse vor. Der Beitrag kann hier abgerufen werden.
„Moral Machines? The Ethics and Politics of the Digital World“ is a symposium organized by two research fellows, Susanna Lindberg and Hanna-Riikka Roine at the Helsinki Collegium for Advanced Studies. „The aim of the symposium is to bring together researchers from all fields addressing the many issues and problems of the digitalization of our social reality, such as thinking in the digital world, the morality and ethics of machines, and the ways of controlling and manipulating the digital world.“ (Website Symposium) The symposium will take place in Helsinki from 6 to 8 March 2019. It welcomes contributions addressing the various aspects of the contemporary digital world. The organizers are especially interested „in the idea that despite everything they can do, the machines do not really think, at least not like us“. „So, what is thinking in the digital world? How does the digital machine ‚think‘?“ (Website Symposium) Proposals can be sent to the e-mail address moralmachines2019@gmail.com by 31 August 2018. Decisions will be made by 31 October 2018. Further information is available on https://blogs.helsinki.fi/moralmachines/.
„Die Mängelmaschine“ ist der Titel eines Beitrags auf Ö1, ausgestrahlt am 14. Mai 2018. Zu Wort kommen Hiroshi Ishiguro, Mark Coeckelbergh, Janina Loh und Oliver Bendel. Der japanische Robotiker hat einen Doppelgänger geschaffen: „Der Roboter Geminoid sieht genauso aus wie sein Schöpfer – und vertritt ihn bisweilen sogar bei Vorlesungen. Für Ishiguro ist sein künstlicher Klon eine Person, eine nicht ganz perfekte und liebenswerte Kopie seiner selbst. Aber die Frage ist für ihn nicht besonders wichtig.“ (Website Ö1) Denn, so wird Ishiguro zitiert: „Warum müssen wir zwischen Menschen und Maschinen unterscheiden? Der Mensch ist ein Tier, das sich der Technologie bedient. Ohne Maschinen wären wir bloß Affen – und unfähig in dieser Welt zu überleben.“ (Website Ö1) Es gibt viele Gründe, zwischen Menschen und Maschinen zu unterscheiden. Einer davon: Während wir empfinden und leiden und glücklich sind, tun die Maschinen dies nicht. Und das ist eine gewaltige Differenz mit gewaltigen Implikationen: Wir müssen Menschen und Maschinen völlig unterschiedlich behandeln. Man kann von einem Mangel sprechen, den auch der Zwilling von Ishiguro aufweist: „Forscher/innen aus dem Westen … halten Geminoid für nicht mehr als eine aufwändig gestaltete Puppe.“ (Website Ö1)
„Verfügen intelligente Maschinen über Emotionen, können sie moralisch handeln und haben sie womöglich Rechte?“ Nein, ja, nein, könnte man die Antworten von Oliver Bendel zusammenfassen. Teachtoday sprach mit ihm „über die Moral intelligenter Maschinen und das weite Feld der Maschinenethik“. Den Einstieg des Interviews bildet eine persönliche Frage: „Herr Bendel, wann haben Sie das letzte Mal etwas aus Ihrer Sicht Unmoralisches getan?“ Die Antwort: „Ich tue oft etwas Unmoralisches, aus der Sicht anderer und aus meiner Sicht. Man muss sein Leben nicht der Moral unterordnen, nicht als Individuum, nicht als Gruppe, nicht als Gesellschaft und auch nicht als Unternehmen. Aber natürlich gibt es Verhaltensweisen, die ich unmoralisch finde und die ich grundsätzlich vermeide.“ Und weiter: „Ein Ethiker muss auch nicht moralisch handeln. Er muss nicht gut sein. Ein Mediziner muss auch nicht gesund sein. Man beschäftigt sich einfach professionell mit einem Thema. Man erforscht einen Gegenstand.“ Das Interview kann hier aufgerufen werden.