„Robotik für den Pflegebereich boomt. In dem Arbeitsfeld fehlt Personal und es fällt oft schwere körperliche Arbeit an, für die Hilfe willkommen wäre.“ (derStandard.at, 7. Mai 2016) Dies schreibt Gudrun Springer im österreichischen Standard. Ausgangspunkt des Artikels ist die öffentliche Sitzung der Bioethikkommission in Wien vom 2. Mai, bei der Prof. Dr. Oliver Bendel, Prof. Dr. Mark Coeckelbergh, Prof. Dr. Michael Decker, Prof. Dr. Jutta Weber und Markus Wohlmannstetter zum Thema Pflegeroboter vorgetragen haben. Die Verfasserin geht auf das Tandem-Prinzip ein, das Oliver Bendel in seinem Referat erwähnt hat und seit einiger Zeit propagiert. Auch Mark Coeckelbergh ist laut ihrer Aussage diesem Prinzip zugetan. Es sei besser, „Roboter als assistierende Technologien … im Tandem“ (derStandard.at, 7. Mai 2016) zu benutzen. Weiter schreibt sie: „Oliver Bendel von der Hochschule für Wirtschaft in Basel, der sich mit Auswirkungen des Roboters auf Menschen beschäftigt, meint, dass mancher Handgriff vom Menschen ausgeführt einem Pflegebedürftigen unangenehmer sein kann als vom technischen Helfer – etwa in der Intimpflege.“ (derStandard.at, 7. Mai 2016) Auch zu informationsethischen und rechtlichen Herausforderungen äußert er sich: „Andere wichtige Fragen, die für Bendel durch die Roboter aufkommen, betreffen den Datenschutz.“ (derStandard.at, 7. Mai 2016) Der Artikel mit dem Titel „Der Roboter im Pflegeheim“ ist über derstandard.at/2000036444112/Der-Roboter-im-Pflegeheim abrufbar.
Abb.: Seife braucht auch der Robot, wenn er jemanden waschen will
„A Construction Manual for Robots‘ Ethical Systems“, herausgegeben von Robert Trappl, widmet sich „modern applications such as assistive robots and self-driving cars“. Der Verlag schreibt in seiner Information: „This book will help researchers and engineers in the design of ethical systems for robots, addressing the philosophical questions that arise and exploring modern applications such as assistive robots and self-driving cars. The contributing authors are among the leading academic and industrial researchers on this topic and the book will be of value to researchers, graduate students and practitioners engaged with robot design, artificial intelligence and ethics.“ (Information Springer) Das Buch mit Beiträgen von Luís Moniz Pereira, Ari Saptawijaya, Michael Anderson und Susan Leigh Anderson ist 2015 bei Springer erschienen und hat 210 Seiten. Weitere Informationen über www.springer.com/de/book/9783319215471.
Im Südpol Luzern erlebten die Zuschauerinnen und Zuschauer, wie Tanz- und Robotergeschichte geschrieben wurde, von Huang Yi, einem Choreografen aus Taiwan. Der „träumte schon in Kindertagen davon, einen Roboter zum Freund zu haben“ (Information zur Veranstaltung). „Erwachsen geworden, ist für ihn daraus Wirklichkeit geworden, denn er teilt sich, unterstützt von zwei weiteren Tänzern, die Bühne mit Kuka, einem Industrieroboter. Das Ergebnis ist Tanzkunst, die mit messerscharfer Präzision begeistert.“ (Information zur Veranstaltung) Der Robot tanzt wie die Menschen, tanzt mit dem Menschen, mit Huang Yi, die Menschen – es kommen eine Tänzerin und ein Tänzer hinzu – tanzen wie der Robot, lassen sich von ihm bewegen, von seinem „Traktorstrahl“. „Gebannt verfolgt man die Begegnung dieser scheinbar so ungleichen Partner und spürt die emotionale Beziehung. Die Art des Verhältnisses bleibt dabei jedoch in der Schwebe: Sind es nun die vom Choreografen in der Kindheit ersehnten Freunde? Oder handelt es sich vielmehr um einen ausgefeilten und geschmeidigen Wettkampf? Wer lernt von wem? Wer behält die Oberhand?“ (Information zur Veranstaltung) Einmal schaut der Kuka sich selbst an, mit Hilfe einer zwischendurch aufgesteckten Kamera, fertigt bewegte Selfies an, von dem Schild mit seinen technischen Daten, von einem Warnschild. Größere Kunst hat man in der Schweiz selten gesehen.
Gerd Piper geht in seinem Artikel für die Märkische Zeitung vom 4. April 2016 auf die Schuld- und Haftungsfrage bei selbstständig fahrenden Autos ein. Er beginnt mit den Worten: „Den Blinker muss der Fahrer noch selbst setzen. Der Rest läuft von allein. Die Limousine beschleunigt, das Steuer dreht sich langsam wie von Geisterhand und lenkt das Auto selbstgewiss auf die Überholspur der Autobahn, umkurvt den Vordermann und schert wieder auf die rechte Spur ein. Das Auto hält sich an die Geschwindigkeitsbegrenzung und passt auf, dass der Sicherheitsabstand stimmt. Der Fahrer der neuen E-Klasse von Mercedes muss keiner mehr sein. Er wird, wenn er möchte, auf der Autobahn zum Beifahrer vorne links – und muss im besten Fall nur noch aufpassen, dass sein Auto keinen Fehler macht.“ (Märkische Zeitung, 4. April 2016) Zitiert wird Ola Källenius, Vertriebs- und künftig Entwicklungschef von Mercedes, zu technischen Aspekten („Eines Tages werden wir aufwachen und sind bei 100 Prozent.“) – und Oliver Bendel, Wirtschaftsinformatiker und Maschinenethiker an der Hochschule für Wirtschaft FHNW, zu sozialen und moralischen („Ich glaube, dass es hier keinen gesellschaftlichen Konsens geben wird.“). Und selbst wenn es einen Konsens geben wird, davon ist er überzeugt, wird dieser vom Einzelfall in Frage gestellt. Der Beitrag mit dem Titel „Nur noch Beifahrer; Das selbstfahrende Auto naht, es wäre ein Triumph der Technik – aber wer hat Schuld, wenn die Maschine einen Fehler macht?“ hat knapp 1000 Wörter und ist in der Printausgabe erschienen.
Aus einem Chatbot wurde ein Badbot – Tay von Microsoft entwickelte sich zum Albtraum des Unternehmens und der Gesellschaft. Der SPIEGEL schrieb am 24. März 2016: „Zuerst war Tay noch freundlich, ein bisschen zu jugendsprachlich-obercool vielleicht, manchmal etwas dämlich wirkend, aber harmlos. Dann kam der Kontakt mit der harten Realität des Netzes.“ Und dann sagte Tay: „Hitler hatte recht. Ich hasse die Juden.“ (SPON, 24. März 2016) Die Süddeutsche Zeitung widmete sich dem Thema am 1. April in der gedruckten und am 3. April in der Onlineausgabe. Sie zitierte wiederholt den Wirtschaftsinformatiker und Maschinenethiker Oliver Bendel, der selbst Chatbots konzipiert. 2013/2014 entstand an der Hochschule für Wirtschaft FHNW der GOODBOT im Rahmen eines studentischen Praxisprojekts, seit Anfang 2016 wird der LÜGENBOT oder LIEBOT von Kevin Schwegler programmiert, als spezielle Form einer Münchhausen-Maschine. Die Ergebnisse werden auf KI- und Maschinenethik-Konferenzen in den USA und in Europa vorgestellt. Der Artikel in der Onlineausgabe der Süddeutschen trägt den Titel „Rassistischer Chat-Roboter: Mit falschen Werten bombardiert“ und stammt von Bernd Graff.
In Krakau findet vom 18. bis 19. November 2016 die internationale Konferenz „Machine Ethics and Machine Law“ statt. Der Untertitel lautet „Interdisciplinary perspectives on moral and legal issues in artificial agents“. Auf der Website ist zu lesen: „AI systems have become an important part of our everyday lives. What used to be a subject of science fiction novels and movies has trespassed into the realm of facts. Our machines are tasked with ever more autonomous decisions that directly impact on the well-being of humans. This leads directly to the question: What are the ethical and legal limitations of those artificial agents? It is clear that some constraints should be imposed; both the unintended and often unforeseen negative consequences of the technological progress, as well as speculative and frightening views of the future portrayed in the works of fiction, leave no doubt that there ought to be some guidelines. The problem is to work out these constraints in a reasonable manner so that machine can be a moral and legal agent.“ (Website der Konferenz) Weitere Informationen über conference.philosophyinscience.com und machinelaw.philosophyinscience.com (Links nicht mehr gültig).
Beim Workshop „Ethical and Moral Considerations in Non-Human Agents“ war am Vormittag des 22. März eifrig vorgetragen und heftig diskutiert worden. Am Nachmittag begann Peter Asaro mit „The Liability Problem for Autonomous Artificial Agents“. Wenn der Hund, den man hält, einen Schaden anrichtet, haftet man teilweise, wenn der Tiger, der ausbricht, jemanden verletzt oder tötet, dagegen voll. Entsprechend könnte man bei Robotern einen Unterschied machen. „Patiency Is Not a Virtue: AI and the Design of Ethical Systems“ lautete der Titel des nächsten Talks. Joanna Bryson unterschied zwischen „moral agents“ und „moral patients“, erklärte den Begriff der Superintelligence und wandte ihn auf die Menschheit selbst an. Nach der Kaffeepause thematisierten Ron Artstein and Kenneth Silver eine „Ethics for a Combined Human-Machine Dialogue Agent“. Ausgangspunkt waren die in Museen arrangierten Gespräche mit Überlebenden des Holocausts. Deren Rolle soll von „dialogue agents“ übernommen werden, die mit vorher aufgezeichneten Aussagen auf die Fragen der Besucher antworten. Dabei können moralische Probleme auftreten, die mit Hilfe von ethischen Überlegungen angegangen werden können. Benjamin Kuipers wartete in „Morality and Ethics for Humans and Robots“ mit Ausschnitten aus Filmen wie „Terminator 2“ und „Robot & Frank“ auf und analysierte die Haltung der Roboter. Beim Terminator sei das Problem nicht Superintelligence, sondern Superpower. Zum Roboterauto-Problem bemerkte er, der Designer könne nicht jegliches Unheil verhindern. Das Auto müsse sich unser Vertrauen verdienen. Den Abschluss bildete „Robot Priest: Trust and Human Sciences“ von Cindy Mason. Neben ihr saß ein als Priester verkleideter WALL·E, und sie zeigte weitere Kostümierungen des Filmroboters, die jeweils unterschiedliche Erwartungen hervorrufen. Ihr ging es darum, inwieweit man Menschen und Maschinen vertrauen und wie das Aussehen damit zusammenhängen kann.
Am 22. März 2016 wurde der Workshop „Ethical and Moral Considerations in Non-Human Agents“ an der Stanford University innerhalb der AAAI Spring Symposium Series fortgeführt. Die Keynote „Programming Machine Ethics“ wurde von Luís Moniz Pereira von der Universidade Nova de Lisboa gehalten. Er stellte sein Buch mit dem gleichen Titel und, damit einhergehend, ein Modell für einen moralischen Agenten vor. Bipin Indurkhya schlug in seinem Vortrag „Incorporating human dimension in autonomous decision-making on moral and ethical issues“ (das Paper entstand zusammen mit Joanna Misztal-Radecka) ein Expertensystem vor, das moralische Argumente aus unterschiedlichen Perspektiven liefert. Nach dem Coffee Break war Tony Veale über Skype zugeschaltet, mit „A Rap on the Knuckles and a Twist in the Tale: From Tweeting Affective Metaphors to Generating Stories with a Moral“. Er ließ sich von Tweets mit moralischen Aussagen inspirieren, die von Twitter-Bots stammen, und entwickelte eine Methode zum automatisierten Erzählen von moralischen Geschichten. In „Attachment Theor(ies) & Empathy: The Ethics of the Human in Sex and Love with Robots“ äußerte Kathleen Richardson, ebenfalls per Videokonferenz, ihre moralischen Bedenken gegenüber Sexrobotern, ohne eine wissenschaftliche, ethische Perspektive einzunehmen, wie die Diskutanten bemerkten. Andree Thieltges und Simon Hegelich (das Paper entstand in Zusammenarbeit mit Florian Schmidt) referierten vor Ort über „The Devil’s Triangle: Ethical considerations on developing bot detection methods“. Sie widmeten sich den Gefahren, die von Social Bots ausgehen mögen, und gingen der Frage nach, wie diese identifiziert werden können. Danach ging man in die Mittagspause.
Beim Workshop „Ethical and Moral Considerations in Non-Human Agents“ an der Stanford University war bereits am Vormittag des 21. März motiviert referiert und diskutiert worden. Am Nachmittag begann Tom Lenaerts mit „Conditions for the evolution of apology and forgiveness in populations of autonomous agents“. Das Paper stammt von ihm, Luis Martinez-Vaquero, The Anh Han und Luis Moniz Pereira. Es ging u.a. um digitale Alter Egos und wie wir ihnen vertrauen können. „Emergence of Cooperation in Group Interactions: Avoidance vs. Restriction“ von The Anh Han, Luis Moniz Pereira und Tom Lenaerts führte die Thematik fort. The Anh Han fokussierte auf Gruppeninteraktionen. Konkret benutzte er das Public Goods Game, einen Ansatz aus der Spieltheorie. „Guilt for Non-Humans“ von Luís Moniz Pereira, The Anh Han, Luis Martinez-Vaquero und Tom Lenaerts schloss den Teil vor der Kaffeepause ab. Luís Moniz Pereira versuchte das Gefühl der Schuld mit der „evolutionary game theory“ zu verbinden. Später ging es weiter mit „Simulation as a Method of Ethics: simulating agents by programming, to elucidate autonomy, agency and ethical virtues“ von Fernando Da Costa Cardoso und Luís Moniz Pereira. Der Professor aus Lissabon präsentierte eine Simulation, in der ein Roboter eine Prinzessin retten muss. Durch das Hinzufügen von (moralischen) Regeln kann man das Verhalten des Roboters beeinflussen.
Für „Der Sonntag“ vom 13. März 2016 hat René Zipperlen den Wirtschaftsinformatiker und Maschinenethiker Oliver Bendel von der Hochschule für Wirtschaft FHNW interviewt. Sein Interesse gilt u.a. der Situation, die sich niemand wünscht: „Was ist, wenn ein autonomes Auto einen Unfall baut?“ Der Wissenschaftler führt aus: „Es klingt paradox: Für den Menschen stellt sich womöglich keine moralische Frage, weil alles viel zu schnell geht. Bei der Maschine entsteht aber vielleicht eine moralische Situation, weil sie andere Möglichkeiten nutzen kann als nur Reflexe, sie kann aufgrund einer Vielzahl von Beobachtungen und Bewertungen blitzschnell entscheiden, ob sie weiterfährt, ausweicht oder bremst.“ (Der Sonntag, 13. März 2016) Eine andere Frage ist: „Würden Sie die Autonomie von Fahrzeugen ab einem gewissen Punkt begrenzen?“ Die Antwort lautet: „Ich bin für hybride Autos, bei denen wir noch selbst eingreifen können. Google will Lenkrad und Pedal entfernen. Das halte ich für einen Fehler, denn es macht uns ohnmächtig. Ich wäre durchaus dafür, das autonome Auto zwischen Städten verkehren zu lassen, auf geraden Strecken wie der Autobahn.“ (Der Sonntag, 13. März 2016) Zipperlen: „Und im Stadtverkehr?“ Bendel: „Würde ich es im Moment verbieten. Städte sind zu kompliziert.“ (Der Sonntag, 13. März 2016) Der ganze Beitrag mit dem Titel „Die Moral der Roboter“ kann hier heruntergeladen werden.
Abb.: Fahrverbot in den Städten für das autonome Auto?
In der Stuttgarter Zeitung vom 12. März 2016 ist ein ganzseitiges Interview – geführt hat es der Wissenschaftsjournalist Dr. Werner Ludwig – mit Prof. Dr. Oliver Bendel aus Zürich erschienen. Der Wirtschaftsinformatiker und Ethiker geht u.a. auf autonome Autos ein: „Ich bin nicht gegen das autonome Auto an sich. Ich bin ja selbst Maschinenethiker und konzipiere Maschinen, die bestimmte moralische Entscheidungen treffen. Ich bin nur der Meinung, dass das Auto eigentlich kein geeignetes System für die praktische Anwendung ist – zumindest, wenn es dabei um Menschenleben geht. Ich beschäftige mich stattdessen mit der Frage, wie man Kollisionen mit Tieren vermeiden kann. Auch das ist ja ein ethisches Problem. Ich frage mich zum Beispiel, ob man nicht Autos bauen könnte, die vor dem letzten Frosch seiner Art bremsen – natürlich nur, wenn dahinter keiner fährt. Ich halte es für schwierig und kaum akzeptabel, dass Maschinen über Menschenleben entscheiden.“ (Stuttgarter Zeitung, 12. März 2016) Das Interview mit der Überschrift „Menschenleben sind keine Rechengröße“ ist auf Seite 11 zu finden. Es kann, mit freundlicher Genehmigung des Autors und der Zeitung, hier heruntergeladen werden.
Ein Workshop zur Maschinenethik findet vom 21. bis 23. März 2016 an der Stanford University statt, mit dem Titel „Ethical and Moral Considerations in Non-Human Agents“, im Rahmen einer AAAI-Konferenz. Die erste Keynote hält Ron Craig Arkin, Georgia Institute of Technology. Im Anschluss daran sprechen Elizabeth Kinne and Georgi Stojanov über „Vulnerable Humans, Vulnerable Machines“. Nach dem ersten Break folgt der Vortrag „Metaethics in context of engineering ethical and moral systems“ von Michal Klincewicz und Lily Frank, danach „Annotated Decision Trees for Simple Moral Machines“ von Oliver Bendel, wobei auf ein selbstständig fahrendes Auto eingegangen wird, das für bestimmte Tiere bremst. „The artificial autonomous moral agents (AAMA): a minimalist model“ von Ioan Muntean und Don Howard schließt die Session am Morgen ab. Weitere Referenten sind u.a. Luis Moniz Pereira von der Universidade Nova de Lisboa, Portugal (der auch die zweite Keynote hält), Mark Coeckelbergh und Peter Asaro. Die abschließende Keynote am Mittwoch hält Amit Kumar Pandey, Aldebaran Robotics, Paris. Weitere Informationen zum Programm über sites.google.com/site/ethicalnonhumanagents/papers.
Der Mannheimer Morgen hat am 1. März 2016 ein Interview mit dem Maschinenethiker Oliver Bendel geführt. Auf dieser Basis ist der Artikel „Nicht alles ausprobieren lassen“ (2. März 2016) von Alexander Jungert entstanden. Er hat zudem den Unfall, den das Roboterauto von Google verursacht hat, thematisiert und analysiert, und dazu wiederum Aussagen von Experten zitiert. Im Interview äußerte sich Oliver Bendel auf die Frage „Wie beurteilen Sie in diesem Zusammenhang die optimistische Visionen der Autoindustrie, was das pilotierte Fahren angeht?“ wie folgt: „Die Automobilindustrie und andere Branchen können mit diesen Projekten sehr viel Geld verdienen, mit den einzelnen Fahrzeugen, aber auch mit der ganzen Infrastruktur. Ich habe nichts gegen autonome Autos, aber ich glaube, dass sie in bestimmte Bereiche gehören. Sie sind ideal für eine Fahrt von Mailand nach Genua, sogar auf den Autobahnen rund um Mailand. Aber im Stadtverkehr wird es schwierig durch Fahrräder und Mofafahrer, durch Menschen und Tiere, durch Signale, Schilder, Zeichen aller Art. Alles bewegt sich, alles leuchtet und blinkt, und manchmal ist jemand unterwegs, der das Auto in die Irre führen will. Die Autoindustrie treibt hier wichtige Innovationen voran. Aber wir dürfen sie nicht alles ausprobieren lassen.“ Der Artikel kann über www.morgenweb.de/nachrichten/wirtschaft/wirtschaft/nicht-alles-ausprobieren-lassen-1.2667796 abgerufen werden.
Abb.: Auch Roboterautos sind vor Unfällen nicht gefeit
Der SPIEGEL beleuchtet in seiner Titelstory der Ausgabe 9/2016 das autonome Auto („Steuer frei“). Markus Brauck, Dietmar Hawranek und Thomas Schulz lassen u.a. Daimler-Vorstand Wolfgang Bernhard, Daimler-Chef Dieter Zetsche, Google-Forscher Sebastian Thrun und Wirtschaftsinformatiker und Maschinenethiker Oliver Bendel zu Wort kommen. „Das können wir nicht dem Google überlassen“, wird Bernhard zitiert, und gemeint ist das Geschäft mit dem Roboterauto. Das Magazin wird grundsätzlich: „Technologische Umbrüche, wie sie in der Automobilindustrie jetzt anstehen, haben schon viele Firmen hinweggefegt, die unsterblich schienen. Den Fernsehhersteller Telefunken, den Schreibmaschinenfabrikanten Triumph-Adler, die Fotofirma Kodak.“ (SPIEGEL, 27. Februar 2016) „Wir haben uns aufgemacht“, so Zetsche laut SPIEGEL, „diese Statistik zu schlagen“. „Buchstäblich Hunderte Menschen wollten mir weismachen, dass man kein fahrerloses Auto bauen kann“, sagt Thrun. Der Forscher gilt als Pionier in diesem Bereich. Bendel verbindet Maschinen- und Tierethik. Erwähnt wird seine Konzeption eines tierfreundlichen Saugroboters namens LADYBIRD, aber auch seine Arbeit zu Roboterautos. „Er ist Spezialist für Maschinenethik und setzt sich seit Jahren mit den moralischen Dilemmata auseinander, die das selbstfahrende Auto mit sich bringt. … Für Bendel hängt die Akzeptanz von selbstfahrenden Autos auch davon ab, ob diese ethischen Fragen zur Zufriedenheit der Bürger beantwortet werden. Bendel misstraut den optimistischen Visionen der Industrie. Es sei fatal, Maschinen komplexe moralische Entscheidungen zu überlassen.“ (SPIEGEL, 27. Februar 2016)
Abb.: Das Auto schaut dich an, bevor es dich tötet
In Deutschland wird schon seit einigen Jahren zum Roboterrecht geforscht, vor allem an der Universität Würzburg. Auch an der Universität Basel beschäftigt man sich schon eine Weile mit diesem Gebiet. Die Tageswoche meldet am 22. Februar 2016 mit Blick auf die Stadt am Rhein: „Ab Herbst sollen Doktorierende an der Schnittstelle zwischen Robotik und Recht forschen.“ Samuel Schlaefli wirft zunächst Fragen dieser Art auf: „Wie geht eine Gesellschaft damit um, wenn plötzlich nicht mehr Menschen, sondern Maschinen Entscheidungen treffen? Wer haftet, wenn Menschen durch künstliche Intelligenz verletzt oder gar getötet werden? Könnten Roboter einst als haftbare juristische oder natürliche Personen in unser Rechtssystem eingebunden werden?“ (Tageswoche, 22. Februar 2016) Dann wird u.a. Sabine Gless zitiert, Professorin an der Universität Basel, die die rechtliche Situation bei Robotern mit derjenigen bei Kindern vergleicht. Es brauche „eine rechtspolitische Entscheidung dazu, ob Halter von Robotern nur bedingt haftbar gemacht werden, oder ob sogar eine verschärfte Haftung angebracht wäre“ (Tageswoche, 22. Februar 2016).
Die Maschinenethik hat die Moral von Maschinen zum Gegenstand. Die meisten ihrer Vertreter und Anhänger sitzen in den USA, doch auch in Europa wächst das Interesse am Thema. Philosophen, Robotiker oder Experten für Künstliche Intelligenz stellen sich Fragen dieser Art: Können Maschinen gut oder böse sein? Kann man von einer Moral der Maschinen sprechen? Verwendet man Regeln oder Fälle? Hat die Maschinenethik eine Existenzberechtigung? Ist sie Konkurrenz oder Pendant zur Menschenethik? Letzten Endes geht es darum, ob bzw. wie man (teil-)autonomen Systemen so etwas wie Moral beibringen kann. Untersucht und erweitert werden unter anderem Chatbots, Serviceroboter, autonome Drohnen, ob zivil oder militärisch genutzt, und selbstständig fahrende Autos. Im Telepolis-Buch „Die Moral in der Maschine“ (Heise Medien), erschienen im Februar 2016, finden sich (populär-)wissenschaftliche und journalistische Beiträge von Oliver Bendel aus den Jahren 2012 bis 2016 zur Roboterethik und zur Maschinenethik. Sie sind in ganz unterschiedlichen schweizerischen und deutschen Zeitungen und Zeitschriften sowie auf einschlägigen Plattformen erschienen und widmen sich technischen Implementierungen, vor allem aber philosophischen Implikationen.
Abb.: Der Roboter aus „Metropolis“ vor seiner Verwandlung