„Sex robots are coming, but the argument that they could bring health benefits, including offering paedophiles a ’safe‘ outlet for their sexual desires, is not based on evidence, say researchers. The market for anthropomorphic dolls with a range of orifices for sexual pleasure – the majority of which are female in form, and often boast large breasts, tiny waists and sultry looks – is on the rise, with such dummies selling for thousands of pounds a piece.“ (Guardian, 5 June 2018) These are the initial words of an article in the well-known British daily newspaper Guardian, published on 5 June 2018. It quotes Susan Bewley, professor of women’s health at Kings College London – and Oliver Bendel, professor at the School of Business FHNW and expert for information and machine ethics. He is not in favor of a ban on the development of sex robots and love dolls. However, he can imagine that the area of application could be limited. He calls for empirical research in the field. The article can be accessed via www.theguardian.com/science/2018/jun/04/claims-about-social-benefits-of-sex-robots-greatly-overstated-say-experts.
Die Arbeiten am Kurzfilm „Ignarus“ (Hochschule der Medien, Director: Lutz Marquardt, Producer: Cornelius Herzog, VFX Producer: Nico Hoerz, DOP: Tatjana Huck) schreiten voran. Es wurden Bilder veröffentlicht, die die gestalterische Arbeit an der künstlichen Intelligenz Cara zeigen, die mit John, einem Wissenschaftler, in einem abgeschotteten Forschungsbunker festsitzt. Obwohl Cara nur ein Hologramm und ein Programm sei, verfüge sie über äußerst menschliche Züge und Charaktereigenschaften. Sie weiß „mit John umzugehen und ihn in einer cleveren Weise zu beeinflussen und zu lenken, wie es die Mission – und am Ende auch Cara – von ihm verlangt“ (Projektbeschreibung STUDIOPRODUKTION VFX SS18). „Mit diesem Verhalten schafft es Cara, sich John durch subtile Anstöße zum Werkzeug zu machen. Ihre Ziele und Absichten scheinen jedoch stets verborgen und so wirkt sie zum Teil unvorhersehbar und fast schon tückisch. Ihre Art lässt dadurch oft zweifeln, ob sie so programmiert wurde oder sich bereits eigene Eigenschaften angeeignet hat und eine unerwartete Art der Entwicklung durchläuft.“ (Projektbeschreibung STUDIOPRODUKTION VFX SS18) Der Film wird von maschinenethik.net unterstützt und feiert am 5. Juli 2018 bei der MediaNight seine Weltpremiere.
Die Deutsche Welle war Ende Mai 2018 im Gespräch mit Oliver Bendel. Anlass war ein Treffen zwischen Angela Merkel und Experten für Künstliche Intelligenz. Der Informations- und Maschinenethiker empfiehlt eine Unterscheidung zwischen Forschung und Entwicklung auf der einen Seite und Anwendung auf der anderen. Er ist für die Freiheit der Forschung. Für ihn endet sie erst da, wo die Freiheit und Unversehrtheit von anderen beginnt, von Menschen und Tieren. Dagegen muss man nach seiner Ansicht die eine oder andere Anwendung von KI bereits jetzt einschränken, etwa dann, wenn Massenüberwachung stattfindet. Die Deutsche Welle über sich selbst auf ihrer Website: „Die Deutsche Welle (DW) ist der Auslandssender Deutschlands. In journalistischer Unabhängigkeit vermitteln wir ein umfassendes Deutschlandbild, stellen weltweite Ereignisse und Entwicklungen aus europäischer Perspektive dar, greifen deutsche und andere Sichtweisen auf. So fördern wir das Verständnis zwischen den Kulturen und Völkern. Zugleich schaffen wir einen Zugang zur deutschen Sprache.“ (Website Deutsche Welle) Das Interview kann über www.dw.com/de/jetzt-machen-wir-gro%C3%9Fartige-spr%C3%BCnge/a-43964092 aufgerufen werden.
In der SonntagsZeitung vom 20. Mai 2018 ist ein umfangreiches Interview mit Oliver Bendel erschienen, nebst Informationen zu einer Robotik- und KI-Konferenz, die unlängst in Stuttgart am Fraunhofer IPA stattfand. Der Beitrag von Joachim Laukenmann mit dem Titel „Die Industrie wird uns nicht sterben lassen, denn wir sollen ihre Produkte kaufen“ kann hier heruntergeladen werden. Im Interview geht es vor allem um Kooperations- und Kollaborationsroboter, auch Co-Robots oder Cobots genannt, aus Sicht der Ethik. Oliver Bendel erklärte im Wirtschaftslexikon von Gabler Springer: „Kooperations- und Kollaborationsroboter sind moderne Industrieroboter, die mit uns Schritt für Schritt an einem gemeinsamen Ziel (Kooperationsroboter) bzw. Hand in Hand an einer gemeinsamen Aufgabe arbeiten, wobei wiederum ein bestimmtes Ziel gegeben ist (Kollaborationsroboter). Sie nutzen dabei ihre mechanischen und sensorischen Fähigkeiten und treffen Entscheidungen mit Blick auf Produkte und Prozesse im Unternehmen bzw. in der Einrichtung.“ Am Ende des Interviews äußert Oliver Bendel auch Kapitalismuskritik. Er ist für eine Reichensteuer und für ein bedingungsloses Grundeinkommen. Die Robotersteuer muss nach seiner Ansicht diskutiert werden, hat aber mehr Nach- als Vorteile.
„Moral Machines? The Ethics and Politics of the Digital World“ is a symposium organized by two research fellows, Susanna Lindberg and Hanna-Riikka Roine at the Helsinki Collegium for Advanced Studies. „The aim of the symposium is to bring together researchers from all fields addressing the many issues and problems of the digitalization of our social reality, such as thinking in the digital world, the morality and ethics of machines, and the ways of controlling and manipulating the digital world.“ (Website Symposium) The symposium will take place in Helsinki from 6 to 8 March 2019. It welcomes contributions addressing the various aspects of the contemporary digital world. The organizers are especially interested „in the idea that despite everything they can do, the machines do not really think, at least not like us“. „So, what is thinking in the digital world? How does the digital machine ‚think‘?“ (Website Symposium) Proposals can be sent to the e-mail address moralmachines2019@gmail.com by 31 August 2018. Decisions will be made by 31 October 2018. Further information is available on https://blogs.helsinki.fi/moralmachines/.
„Die Mängelmaschine“ ist der Titel eines Beitrags auf Ö1, ausgestrahlt am 14. Mai 2018. Zu Wort kommen Hiroshi Ishiguro, Mark Coeckelbergh, Janina Loh und Oliver Bendel. Der japanische Robotiker hat einen Doppelgänger geschaffen: „Der Roboter Geminoid sieht genauso aus wie sein Schöpfer – und vertritt ihn bisweilen sogar bei Vorlesungen. Für Ishiguro ist sein künstlicher Klon eine Person, eine nicht ganz perfekte und liebenswerte Kopie seiner selbst. Aber die Frage ist für ihn nicht besonders wichtig.“ (Website Ö1) Denn, so wird Ishiguro zitiert: „Warum müssen wir zwischen Menschen und Maschinen unterscheiden? Der Mensch ist ein Tier, das sich der Technologie bedient. Ohne Maschinen wären wir bloß Affen – und unfähig in dieser Welt zu überleben.“ (Website Ö1) Es gibt viele Gründe, zwischen Menschen und Maschinen zu unterscheiden. Einer davon: Während wir empfinden und leiden und glücklich sind, tun die Maschinen dies nicht. Und das ist eine gewaltige Differenz mit gewaltigen Implikationen: Wir müssen Menschen und Maschinen völlig unterschiedlich behandeln. Man kann von einem Mangel sprechen, den auch der Zwilling von Ishiguro aufweist: „Forscher/innen aus dem Westen … halten Geminoid für nicht mehr als eine aufwändig gestaltete Puppe.“ (Website Ö1)
„Verfügen intelligente Maschinen über Emotionen, können sie moralisch handeln und haben sie womöglich Rechte?“ Nein, ja, nein, könnte man die Antworten von Oliver Bendel zusammenfassen. Teachtoday sprach mit ihm „über die Moral intelligenter Maschinen und das weite Feld der Maschinenethik“. Den Einstieg des Interviews bildet eine persönliche Frage: „Herr Bendel, wann haben Sie das letzte Mal etwas aus Ihrer Sicht Unmoralisches getan?“ Die Antwort: „Ich tue oft etwas Unmoralisches, aus der Sicht anderer und aus meiner Sicht. Man muss sein Leben nicht der Moral unterordnen, nicht als Individuum, nicht als Gruppe, nicht als Gesellschaft und auch nicht als Unternehmen. Aber natürlich gibt es Verhaltensweisen, die ich unmoralisch finde und die ich grundsätzlich vermeide.“ Und weiter: „Ein Ethiker muss auch nicht moralisch handeln. Er muss nicht gut sein. Ein Mediziner muss auch nicht gesund sein. Man beschäftigt sich einfach professionell mit einem Thema. Man erforscht einen Gegenstand.“ Das Interview kann hier aufgerufen werden.
Eine fliegende Alexa hat ihn der SPIEGEL etwas despektierlich genannt. Gemeint ist CIMON, ein autonomer, mit künstlicher Intelligenz verbundener Weltraumroboter, der demnächst im Columbus-Modul der ISS zum Einsatz kommen soll. Entwickelt hat ihn das Deutsche Zentrum für Luft- und Raumfahrt (DLR). „CIMON kann sehen, hören, verstehen, sprechen – und fliegen. Er ist rund, hat einen Durchmesser von 32 Zentimetern und wiegt fünf Kilogramm.“ (Website DLR) Sein Vorbild war nicht Alexa, sondern vielmehr, so der DLR auf seiner Website, Professor Simon Wright aus der 80er-Jahre-Zeichentrickserie „Captain Future“, ein „fliegendes Gehirn“ mit Sensoren, Kameras und einem Sprachprozessor. Mit Hilfe von 14 internen Ventilatoren kann sich CIMON frei in alle Raumrichtungen bewegen und rotieren. Er kann sich laut DLR dem Astronauten zuwenden, wenn er angesprochen wird, und ihm selbstständig oder auf sein Kommando hin folgen. Auch im Unterschied zu Alexa hat CIMON ein Gesicht, zu sehen auf dem Display an der abgeflachten Seite. Damit kann er freundlich und bestimmt auch zuversichtlich schauen. Ob er auch moralische Fähigkeiten hat, ist nicht bekannt. Weitere Informationen über www.dlr.de.
Abb.: Professor Simon Wright war ein fliegendes Gehirn
Können Roboter bald selbstständig Gefühle wie Hass oder Liebe entwickeln? Dies hat der WDR im April 2018 den Informations- und Maschinenethiker Oliver Bendel gefragt. Der Kontext war die Angst, die wir vor Maschinen haben oder haben können. Er antwortete: „Maschinen werden solche Gefühle meines Erachtens nicht entwickeln können, da diese biologisch-chemische und genetisch-hormonelle Grundlagen brauchen. Die Vorstellung, dass sie solche Gefühle haben, kann natürlich Angst machen. Und emotionale Roboter wie Pepper zeigen Gefühle – aber haben eben keine. Eine wichtige Frage ist, ob sie überhaupt Gefühle zeigen sollen. Und ob sie uns weismachen sollen, dass sie Menschen oder ähnlich wie Menschen sind.“ Uns ist in Europa die Angst vor künstlichen Kreaturen gleichsam eingepflanzt. Diese dachten wir uns bereits vor tausenden Jahren aus. Bei Homer und Ovid finden sich Schreckensgestalten wie Talos und Pandora, wobei die künstliche Frau in der Literatur einige Wandlungen erlebt hat. Später ging es ähnlich weiter, mit der Eisernen Jungfrau, dem Golem, Frankensteins Monster. Auch Ausnahmen gibt es, bereits in der Antike, wie Galatea, von Pygmalion erschaffen und von Aphrodite zum Leben erweckt. Das Interview kann über www1.wdr.de/wissen/technik/roboter-maschinenethik-interview-100.html nachgelesen werden.
Haben Roboter Rechte bzw. soll man sie mit Rechten ausstatten? Die eine Frage ist ethisch, die andere rechtlich deutbar. Oliver Bendel hält als Ethiker nichts von Rechten für Roboter. Dies können weder empfinden noch leiden, sie haben kein Bewusstsein, sie sind keine echten Personen, aber auch keine echten Lebewesen. Im Zivilrecht kann man, so seine Meinung, ohne weiteres eine elektronische Person konstruieren, die man verklagen kann und die dann haften muss (etwa über ein Budget, das sie hat, oder einen Fonds, mit dem sie verbunden ist). Einerseits ist das die Lösung für das Problem, dass sich in vielen Fällen kaum mehr eindeutig verantwortliche natürliche oder juristische Personen ausmachen lassen. Andererseits eben nicht, denn woher sollte das Geld kommen – wenn nicht von natürlichen und juristischen Personen, die mit dem Roboter in irgendeiner Verbindung stehen? Und bei selbstlernenden Systemen wie Tay wird es vollends kompliziert, wobei dieser Fall ins Strafrechtliche hineinreicht. Eine Gruppe von KI-Forschern, Philosophen, Theologen und Rechtswissenschaftlern hat sich in einem offenen Brief gegen die Schaffung des Status einer elektronischen Person gewandt, wie eine Arbeitsgruppe des Europäischen Parlaments sie dieses Jahr vorgeschlagen hat. Der Artikel „Streit um Rechte von Robotern“ stellt die unterschiedlichen Positionen dar. Er ist am 21. April 2018 in der Aargauer Zeitung erschienen und kann über www.aargauerzeitung.ch/leben/forschung-technik/streit-um-rechte-von-robotern-wer-haftet-wenn-etwas-schief-geht-132457958 aufgerufen werden.
Abb.: Wie gestaltet man eine elektronische Person?
Dieser Frage geht Oliver Bendel in der Zeitschrift Edison nach, in der Ausgabe 2/2018, erschienen am 13. April 2018. Die zuständige Disziplin ist die Roboterethik. Während sich die Maschinenethik auf die maschinelle Moral und damit allenfalls verbundene Pflichten oder Verpflichtungen konzentriert, interessiert sich die Roboterethik auch für moralische Rechte von Maschinen, insbesondere von Robotern. Schon vor Jahrzehnten hat man über diese Frage nachgedacht, doch in letzter Zeit gibt es diesbezügliche Überlegungen und Forderungen, denen man als Ethiker etwas entgegensetzen muss. Denn Oliver Bendel ist der Meinung, dass Roboter keine Rechte haben, haben werden und haben sollen. In seinen Ausführungen zieht er Vergleiche mit Menschen, Tieren und Pflanzen (Tiere haben Rechte, Pflanzen nicht). Auf der Website heißt es zu dem Handelsblatt-Spross: „Edison ist das neue Magazin für alle, die sich für Elektromobilität, vernetztes Leben und nachhaltige Energiegewinnung interessieren. Für alle, die in einer Zeit der Umbrüche und des rasanten technischen Fortschritts Orientierung suchen. Für alle, die Haltung zeigen möchten. Kurz: Es ist das neue Magazin für die Generation E.“ Es kann über edison-magazin.handelsblatt.com/epaper/13.04.2018 bestellt werden.
Am Rande der Handelsblatt-Jahrestagung „Strategisches IT-Management“ (15. bis 17. Januar 2018 in München) wurden Interviews mit den Vortragenden geführt und aufgezeichnet. Am zweiten Tag hatte zuerst Prof. Dr.-Ing. habil. Alois C. Knoll (Lehrstuhlinhaber für Echtzeitsysteme und Robotik, Technische Universität München) zum Human-Brain-Projekt der EU referiert, danach Dr. Martin Hofmann, Group CIO, Volkswagen AG über „Augmented Intelligence: AI in enterprise context“. Prof. Dr. oec. HSG Oliver Bendel (Professor für Wirtschaftsinformatik, Informationsethik und Maschinenethik, Hochschule für Wirtschaft FHNW) war auf „Die Ethik als Partnerin von Robotik und KI“ eingegangen. Im Video erläutert er, was Maschinenethik ist. Auf dem Panel hatten er, Prof. Dr.-Ing. habil. Alois C. Knoll, Prof. Dr. Dr. Eric Hilgendorf (Leiter der Forschungsstelle RobotRecht, Julius-Maximilians-Universität Würzburg) und Dr. Ole Wintermann (Senior-Projektleiter, Co-Founder, Blogger, Bertelsmann Stiftung) zum Thema „Sind intelligente Maschinen und Roboter die besseren Menschen?“ diskutiert. Auch dazu steht ein Video zur Verfügung. Alle Videos finden sich über veranstaltungen.handelsblatt.com.
In Tempe (Arizona) ist am 19. März 2018 bei einem Unfall mit einem Uber-Roboterauto eine Frau ums Leben gekommen. Sie schob ihr Fahrrad, als sie die Fahrbahn betrat. Der Insasse des Fahrzeugs griff nicht ein. Philipp Vetter von der Welt war am 20. März 2018 im Gespräch mit Oliver Bendel. Der Informations- und Maschinenethiker plädiert seit Jahren dafür, hoch- und vollautomatisierten Individualverkehr in erster Linie auf Autobahnen stattfinden zu lassen. Dort wird seiner Ansicht nach Leben geschützt. Was Uber und Co. in amerikanischen Städten machen, hält er für leichtfertig, unabhängig vom aktuellen Fall. Immer wieder hat er sich auch ein Bild vor Ort gemacht, etwa in San Francisco, wo selbstständig fahrende Autos im dichtesten Verkehr anzutreffen sind. Er rät dazu, solche Tests einzustellen und sich auf die Beherrschung von Autobahnen – recht leicht – und Landstraßen – recht schwierig – zu konzentrieren. Der Beitrag „Autonomes Fahren tötet. Warum? Weshalb? Egal!“ wurde am 20. März 2018 veröffentlicht und ist über www.welt.de/wirtschaft/article174745972/Uber-Unfall-mit-selbstfahrendem-Fahrzeug-koennte-Technik-zurueckwerfen.html aufrufbar.
Abb.: Müssen Roboterautos in Städten verboten werden?
„Eine deutliche Mehrheit der Stimmberechtigten will an den Rundfunkgebühren festhalten.“ So meldete es der Tages-Anzeiger am 4. März 2018. Welche Rolle haben Social Bots, in bestimmten Zusammenhängen auch Meinungsroboter genannt, bei der No-Billag-Initiative gespielt? Ein Team der Hochschule für Wirtschaft FHNW hat dies untersucht. Prof. Dr. Stefan Gürtler (Medien- und Kommunikationsexperte) und Prof. Dr. Oliver Bendel (Informations- und Maschinenethiker und Experte für Chatbots) geben am 7. März 2018 über eine Medienmitteilung die Zahlen bekannt. Aus der Projektbeschreibung: „Soziale Medien gewinnen bei der öffentlichen Meinungsbildung an Bedeutung. Ebenso nimmt deren Beeinflussung durch technische Mittel zu. Verschiedene Untersuchungen haben das Ausmaß und das Gefahrenpotenzial von sogenannten Meinungsrobotern aufgezeigt, die … politische Diskussionen mit maschinell erzeugter Kommunikation überschwemmen. Eine freie Meinungsbildung ist unabdingbare Grundvoraussetzung für eine funktionierende demokratische Gesellschaft. Sie muss vor manipulativen Eingriffen geschützt werden. Ein erster Schritt zu ihrem Schutz ist die Erprobung eines algorithmischen Suchverfahrens, wie es bereits in anderen Ländern zur erfolgreichen Detektion von Meinungsrobotern eingesetzt wurde.“ Kann man von guten und bösen Meinungsrobotern sprechen? Das wäre noch zu diskutieren. Auf jeden Fall sind einige von ihnen Münchhausen-Maschinen. Ein ausführlicher Bericht folgt im Sommer dieses Jahres.
Abb.: Auch in Deutschland wird über die Gebühren diskutiert