Beim DVR-Forum „Automatisiertes Fahren und Ethik“ wurde ein Film gedreht, der im Juli 2016 zur Verfügung gestellt wurde. Man kann ihn über www.youtube.com/watch?v=SH_9kr6fZK8 aufrufen. Zudem hat der Veranstalter Texte und Fotos über www.dvr.de veröffentlicht. Das DVR-Forum fand am 14. Juni 2016 in der Berlin-Brandenburgischen Akademie der Wissenschaften am Gendarmenmarkt in Berlin-Mitte statt. Der Untertitel „Welche Entscheidungen wollen wir Maschinen überlassen?“ deutete den Schwerpunkt an. An der Podiumsdiskussion nahmen Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW), Prof. Dr. Dr. Eric Hilgendorf (Universität Würzburg), Prof. Dr. Jürgen Leohold (Volkswagen AG), Prof. Dr. Volker Lüdemann (Hochschule Osnabrück) und Prof. Klaus Kompaß (BMW Group) teil. Es moderierte Monika Jones von der Deutschen Welle. Weitere Informationen über www.tag-der-verkehrssicherheit.de.
Kein Sex mit dem Auto
SoftBank und Honda wollen ein sprechendes Auto bauen – das meldet Golem am 23. Juli 2016. „Mittels Sensoren, Mikrofonen und Kameras sollen anhand von Veränderungen in der Sprache, Gestik und Körpermerkmalen Emotionen des Fahrers gelesen und von der KI des Wagens ausgewertet werden. Bei stressigen Situationen soll die KI dann beispielsweise aufmunternde Worte spenden, oder bei langen Fahrten alleine als Gesprächspartner fungieren.“ (Golem, 23. Juli 2016) Oliver Bendel hat in seinem Artikel „Ein Auto mit Charakter“ vom 17. November 2015 geschrieben: „Es ist naheliegend, einem Auto, das mit Fahrerassistenzsystemen vollgestopft oder im Gesamten ein Roboter ist, einen Charakter angedeihen zu lassen, und diesen im Wesentlichen mit Hilfe auditiver Schnittstellen und Künstlicher Intelligenz (auf welchem Niveau auch immer) zu realisieren.“ (ICTkommunikation, 17. November 2015) An einer Stelle heißt es: „Wenn das Auto schon ein Charakter ist oder einen Charakter hat, kann man auch daran denken, es mit Moral auszustatten.“ (ICTkommunikation, 17. November 2015) Diese Idee wird von dem Maschinenethiker kritisch diskutiert. Auch die Idee, dem Auto einen Charakter zu geben, wird von ihm nur als Möglichkeit gesehen, die es zu untersuchen gilt. Man darf gespannt sein, was die Hersteller auf die Straße bringen. Die Plattform des geplanten Fahrzeugs steht bereits fest: Es ist Pepper von SoftBank und Aldebaran Robotics, der zuletzt in die Schlagzeilen kam, weil man mit ihm laut Benutzerhandbuch keinen Sex haben soll; selbst eine Manipulation seiner Stimme zur Erzielung einer erotisierenden Wirkung verbat man sich. Vermutlich wird die Bedienungsanleitung des sprechenden Autos ähnlich abturnend sein.
Abb.: Sex mit dem Auto ist verboten
Maschinenrichter
„Der Algorithmus als Richter“ lautet der Titel eines Beitrags von Katharina Schuchmann für politik-digital.de vom 21. Juli 2016. „Automatisierte Justiz – ein Projekt aus den Niederlanden zeigt, wie es gehen kann und hat damit Erfolg. Der Robo-Richter ist wohl nur eine Frage der Zeit. Sind Justizirrtümer damit eine Sache der Vergangenheit?“ (politik-digital.de, 21. Juli 2016) Die Verfasserin geht auf ein Pilotprojekt in den Niederlanden ein, das System Rechtwijzer, nach ihren Worten ein automatisierter Streitschlichtungsservice. „Derzeit bietet das Portal Lösungen in Scheidungsangelegenheiten und bei Beschwerden zu Online-Käufen an.“ Zudem wirft sie einen Blick in die Zukunft, über Schlichtung und Scheidung hinaus. Es scheine nur eine Frage der Zeit zu sein, „bis lernende Algorithmen in der Lage sind, Urteile über weniger eindeutige Verhältnisse zu fällen“ (politik-digital.de, 21. Juli 2016). Vorstellbar sei, dass mittelfristig eine Umkehr der Verhältnisse stattfinde und der Algorithmus nicht mehr den Juristen unterstütze, sondern dieser den Algorithmus, ihn mit Meinungen und menschlichen Einschätzungen füttere und ansonsten walten (und schalten) lasse. Wie bei verschiedenen anderen Automatisierungsbestrebungen – etwa bei Banken und Versicherungen – wäre es freilich auch hier wichtig, dass der Mensch das letzte Wort behält. Zwar kann man Befangenheit und Gefühligkeit ein Stück weit durch maschinelle Verfahren ausgleichen; aber Empathie und Intuition sind meist essentielle Bestandteile rationaler Entscheidungsprozesse. Obwohl es nicht um moralische Urteile geht, sondern um rechtliche, kann die Maschinenethik zur Gestaltung von „Richtersystemen“ beitragen und durch die Konzeption und Implementierung auch die Grenzen der „Maschinenrichter“ aufzeigen.
Abb.: Welches Urteil fällt die Maschine?
Autonom bei Amsterdam
Daimler hat bei Amsterdam (zwischen dem Flughafen Schipohl und der Stadt Haarlem) selbstfahrende Busse eingesetzt. Der Mannheimer Morgen hat am 18. Juli 2016 Oliver Bendel dazu befragt. Der Maschinenethiker hat schriftlich geantwortet: „Grundsätzlich rate ich davon ab, autonome Fahrzeuge in Städten und Ballungsgebieten einzusetzen. In diesen wimmelt es von Fahrzeugen, Verkehrsteilnehmern, Objekten wie Tauben, Luftballons und Seifenblasen, Lichtreflexen, Schatten und Signalen. Zugleich sehe ich wie Daimler durchaus Potenzial für den öffentlichen Nahverkehr. Man kann das Risiko minimieren, indem man die Geschwindigkeit stark senkt, spezielle Spuren nutzt und verschiedenartige Sensoren koppelt. In Sitten im Wallis verkehren die autonomen Shuttles der PostAuto AG sehr langsam, auf einer bekannten Rundstrecke. Das ist eine gute Lösung. Dennoch könnte eines Tages ein kleines Kind zu Schaden kommen. Die Geschwindigkeit der Daimler-Busse ist sehr hoch. Das mag dann funktionieren, wenn sich auf diesen Spuren ansonsten nichts und niemand befinden kann. Es handelt sich hier immerhin nicht um die Innenstadt von Amsterdam, sondern um eine übersichtliche Strecke zwischen Flughafen und Haarlem. Ich rate auf jeden Fall dazu, nicht allein die Kameras beobachten und entscheiden zu lassen. Sie täuschen sich schnell und sind leicht zu täuschen, auch durch böswillige Passanten mit Taschenspiegeln und Laserpointern. Es sollten unbedingt weitere Systeme die Situation prüfen, etwa Radar, Lidar und Ultrasound, und vor allem sollte eine Art Mehrheitsentscheidung vorhanden sein. Wenn drei Systeme erklären, dass die Luft rein ist, sollte sie rein sein.“ Mehrere Statements wurden in den Artikel „Stadtbus mit Autopilot“ eingearbeitet, der am selben Tag erschienen ist und über www.morgenweb.de/nachrichten/wirtschaft/regionale-wirtschaft/1.2881794 abgerufen werden kann.
Abb.: Auch das gibt es in und bei Amsterdam
Von Talos bis Pandora
„Einer meiner Lieblingsgötter ist Hephaistos, der Schöpfer von Talos und Pandora. Über die Frau mit der Büchse muss man kaum ein Wort verlieren. Talos ist weniger bekannt, obwohl er als Spielzeug bis in unsere Gegenwart überdauert hat. Er, der Wächter von Kreta, bewarf herannahende Boote mit Steinen, bis sie mitsamt den Feinden untergingen. Wenn diese doch das Ufer erreichten, drückte er sie an seinen metallenen Körper, der inzwischen glühte. Das erinnert an eine andere künstliche Figur, die eiserne Jungfrau des Nabis – doch bleiben wir bei Talos.“ Mit diesen Worten beginnt ein Beitrag von Oliver Bendel, der am 16. Juli 2017 in der Beilage Sonntag – und damit in Zeitungen wie Hannoversche Allgemeine und Leipziger Volkszeitung – erschienen ist. Von den erdachten Maschinen und Robotern der Antike wird ein Bogen gespannt bis zu selbstfahrenden Autos. Und zur Maschinenethik, die die Möglichkeiten moralischer Maschinen erkundet. Diese sind ein Topos der Ideengeschichte der künstlichen Kreatur, und ganz gegensätzliche Geschöpfe wie Galatea und Golem treffen sich einerseits in ihrer Sprachlosigkeit und Tumbheit, andererseits auch in ihren Möglichkeiten moralischen oder unmoralischen Handelns. Während Galatea weitgehend Projektionsfläche und Gebärmaschine bleibt, wird der Golem in einer Version zur Zerstörungsmaschine, losgelassen auf Prag. Der Beitrag mit dem Titel „Maschine entmündigt Mensch“ (ursprünglich: „Von Talos bis Pandora“) kann hier aufgerufen werden.
Nachrichten aus der neuen Fabrik
„Im Aargau kam der GOODBOT zur Welt. Programmiert wurde er in verschiedenen Kantonen, doch am Campus Brugg-Windisch der FHNW wurde er erdacht und ausprobiert. Wir hatten 2013 verschiedene Chatbots auf Websites mit Aussagen und Fragen gefüttert. Die Ergebnisse waren erschütternd. Maschinen dieser Art sind dazu da, die Benutzer über Produkte und Dienstleistungen zu informieren. Sie sind auch vorbereitet auf Fragen, die sie selbst und die Welt betreffen. Wenn die Sprache indes auf einen beabsichtigten Selbstmord oder Amoklauf kam, versagten die meisten von ihnen.“ Mit diesen Worten beginnt der Artikel „Nachrichten aus der neuen Fabrik“ von Oliver Bendel, der in der Aargauer Wirtschaft Nr. 7 (14. Juli 2016) erschienen ist. Und weiter: „Ich erfand den GOODBOT, der bei Problemen besser reagieren und im Extremfall eine nationale Notfallnummer herausgeben konnte. Drei Studenten implementierten ihn prototypisch. Die Gestaltungsdisziplinen, deren Methoden wir anwandten, waren soziale Robotik und Maschinenethik. Erstere bringt Roboter hervor, die zu sozialen Interaktionen fähig sind und Menschen nicht überfordern und nicht verletzen, letztere Maschinen, die moralisch angemessen entscheiden und handeln.“ (Aargauer Wirtschaft, 14. Juli 2016) Im Folgenden wird auf die Industrie 4.0 und die Smart Factory eingegangen, wo soziale Robotik und Maschinenethik ebenfalls eine Rolle spielen. Der ganze Artikel kann über hier heruntergeladen werden.
Abb.: Die Smart Factory ist mit der Umwelt vernetzt
Aufhalten lassen wir uns nicht
Die Journalistin Heike Henzmann hat im Rahmen der Serie „Walk and Talk“ für die Zeitschrift aktuelle technik (at) ein langes Gespräch mit dem Wirtschaftsinformatiker und Maschinenethiker Oliver Bendel geführt. Der erste Teil des Interviews ist im Juni 2016 erschienen und in diesem Blog besprochen worden. Der zweite Teil mit dem Titel „Aufhalten lassen wir uns nicht.“ liegt seit dem 14. Juli vor und kann hier heruntergeladen werden. In dem Gespräch ging es, wie bereits ausgeführt, um Maschinenethik, Informationsethik und Technologiefolgenabschätzung sowie um Moral und Ethik im Allgemeinen. Zur Maschinenethik führt Oliver Bendel aus: „Die Maschinenethik begreife ich als Gestaltungsdisziplin, die Informationsethik als Reflexionsdisziplin. Die Maschinenethik ist die Disziplin, die die Moral der Maschine zum Thema hat. Die Moral des Menschen wird anders als in der Menschenethik nur nebenbei betrachtet, als Mittel zum Zweck. Eine menschliche Moral ist sehr viel besser als eine maschinelle Moral. Der maschinellen Moral fehlt einiges. Die Maschine kann aber mindestens eine so gute Moral haben wie der menschliche Fundamentalist.“ (at, 7/2016) Diese These wird im Folgenden näher beleuchtet und begründet. Neben dem Text finden sich in beiden Beiträgen viele Fotos, aufgenommen bei miesestem Regenwetter und bester Diskutierlaune.
Autonome Autos in der Sendung „Kontrovers“
In der Sendung „Kontrovers“ (Bayerisches Fernsehen) vom 13. Juli 2016 ging es um selbstfahrende Autos. Zu Wort kamen neben Bürgerinnen und Bürgern u.a. Alexander Dobrindt, Bundesverkehrsminister von Deutschland, und Prof. Dr. Oliver Bendel, Wirtschaftsinformatiker, Informations- und Maschinenethiker an der Hochschule für Wirtschaft FHNW. Im Ankündigungstext wurde unter dem Titel „Auch eine Frage der Moral“ der Inhalt des Films skizziert und auf Dilemmata eingegangen: „Es gibt viele offene Fragen: Wie verhält sich ein autonomes Fahrzeug in einer Gefahrensituation? Was macht das Auto, wenn plötzlich ein kleines Mädchen vor ihm auf die Straße läuft? Was, wenn der Fahrer das Kind nur verschonen kann, indem er ausweicht, aber dadurch zum Beispiel einen Senioren gefährdet? Ist ein junges Leben mehr wert als ein älteres?“ (Website BR) Oliver Bendel ist nicht gegen hoch- und vollautomatisiertes Fahren oder autonome Autos. Diese gehören nur nach seiner Meinung auf die Autobahn, nicht in die Stadt. Selbst die Autobahn ist noch schwierig zu bewältigen; die Stadt zu bewältigen, ist kaum möglich. Ein Problem sind Kameras, die sich schnell täuschen respektive leicht täuschen lassen. Sie müssen auf jeden Fall mit weiteren Sensoren gekoppelt werden. Das Gespräch mit Oliver Bendel führte Patrick Lerch. Weitere Informationen über www.br.de.
Abb.: Das Interview mit Oliver Bendel fand in München statt
K5 übersieht Kind
Der Sicherheits- und Überwachungsroboter von Knightscope im Stanford Shopping Center hat ein Kind leicht verletzt. Dies meldete GIZMODO am 12. Juli 2016: „A 300-pound security robot … knocked down and ran over a 16-month-old boy. The parents of the injured boy are understandably pissed, claiming the autonomous machine is dangerous.“ (GIZMODO, 12. Juli 2016) Oliver Bendel hatte im Frühjahr über den K5 berichtet, dem er selbst vor Ort begegnet war. Dabei hatte er ihn mit einem Modell aus China, dem AnBot, verglichen und Überlegungen aus Sicht der Ethik angestellt: „Ich war verwundert, dass man dem K5 in Stanford so nahe kommen konnte. Vielleicht gibt es auch einen Knopf bei ihm, den man drücken kann. In diesem Fall müsste er eine gewisse Nähe erlauben. Aber was ist, wenn er ein Kind oder ein Tier überfährt? Wenn sein enormes Gewicht auf einem kleinen Körper liegen bleibt?“ Zum Vorgang schreibt GIZMODO: „When the Knightscope K5 senses trouble, it alerts local authorities – though it didn’t seem particularly concerned when it plowed into the toddler earlier this week. Little is known about the incident, but the robot’s sensors didn’t seem to detect Harwin – and that’s obviously a problem.“ (GIZMODO, 12. Juli 2016) Der Beitrag von Oliver Bendel ist am 19. Mai in der Zeitschrift inside-it.ch erschienen und kann über www.inside-it.ch/post/blechpolizisten-mit-elektroschockern-20160519 aufgerufen werden.
Wie gefährlich sind Roboter?
Den Chancen und Risiken von Robotern widmet sich die Bild am Sonntag am 10. Juli 2016 auf einer Doppelseite. „Wie viel Roboter ist gut?“ fragt der Autor, Florian Zerfaß, im Titel. Am 7. Juli sprach er mit Oliver Bendel, Wirtschaftsinformatiker, Informationsethiker und Maschinenethiker, der zu den Chancen zählt, dass Roboter die Menschen unterstützen und entlasten. Konkret erwähnte er gegenüber dem Journalisten das BMW-Werk in Spartanburg, wo Leichtbauroboter die Türdichtungen eindrücken und so die Handgelenke der Arbeiter entlasten, die unmittelbar daneben ihren weniger beschwerlichen Aufgaben nachgehen. Auch Pflegeroboter führte er an, die zusammen mit Pflegern im Tandem die Patienten umbetten und -lagern – Prototypen wie Robear, die in Bälde in Pflegeheimen und Krankenhäusern einsatzbereit sein sollen. Mit Risiken behaftet seien selbstlernende Systeme in offenen Welten. In der BamS wird Oliver Bendel mehrfach zitiert. Unter anderem weist er als Maschinenethiker darauf hin, dass man Maschinen eine Art von Moral beibringen kann. Der Artikel wird auf der Titelseite mit der Frage „Wie gefährlich sind Roboter?“ angeteasert und ist auf den Seiten 8 und 9 abgedruckt. Die Seiten 4 und 5 gehören dem Bundesverkehrsminister Alexander Dobrindt, der über seine „großen Baustellen“ reden soll. Eine davon ist die Ethikkommission, die die Entscheidungen automatischer und autonomer Autos aus ethischer Sicht beurteilen und sie in moralischer Hinsicht bestimmen soll. Ob ihr dies gelingen wird, steht in den Sternen. Oliver Bendel warnt davor, dass Autos über Leben und Tod von Menschen bestimmen.
Abb.: Ist das Mädchen sicher?
Eine Bombenidee
In Dallas wurde, wie Telepolis meldete, „ein ferngesteuerter Roboter zum Platzieren einer Bombe eingesetzt, um einen Täter auszuschalten“ (Telepolis, 8. Juli 2016). Eigentlich kein Fall für die Maschinenethik, die sich auf Entscheidungen (teil-)autonomer Systeme konzentriert. Aber dennoch ein interessantes Beispiel, weil es zeigt, dass Roboter oftmals vielfältig genutzt, umgewidmet und zweckentfremdet werden können. Florian Rötzer schreibt in diesem Sinne: „Praktisch macht es keinen Unterschied, ob der Täter schließlich durch von Polizisten abgegebene Schüsse ausgeschaltet wird oder durch einen Sprengsatz, den ein Roboter ferngesteuert zu diesem brachte und in die Luft gehen ließ. Aber es zeigt …, dass auch Nichtkampfroboter Dual-Use-Maschinen sind und zu tödlichen Waffen umfunktioniert werden können …“ (Telepolis, 8. Juli 2016) Damit wächst die Zahl der potenziellen Kampfroboter und Kriegsmaschinen erheblich, und auch private Drohnen können zum Werkzeug von Behörden oder auch von Terroristen werden. Die Angst vor der Mehrfachverwendung geht nicht nur in der Medienlandschaft und in der Gesellschaft, sondern auch in der Wirtschaft um. Vor einiger Zeit warnte ein Hersteller davor, seinen niedlichen Spielzeugroboter Pepper für Sexspiele zu verwenden. Das wird sicherlich nicht die Lust zügeln, sondern die Phantasie beflügeln, und man muss nur auf Gebrauchsanweisungen und Vorführungen der etwas anderen Art warten. Auch Rötzer spekuliert, dass der Einsatz in Dallas die Polizei „auf neue Ideen bringen könnte“ (Telepolis, 8. Juli 2016). Für die Maschinenethik ergibt sich die Erkenntnis, dass Entscheidungen der Software unter Berücksichtigung unterschiedlicher Möglichkeiten der Hardware programmiert werden müssen.
Abb.: Roboter mit Bomben werden sich verbreiten
Die Versklavung der Maschinen
„Der Maschinenethiker Oliver Bendel beschäftigt sich mit selbstfahrenden Autos und versucht, ihnen Moral beizubringen. Wer aber entscheidet, welche Moral befolgt werden soll?“ (Website SRF, 6. Juli 2016) Mit diesen Worten beginnt ein Beitrag von Yves Bossart auf der Website des Schweizer Fernsehens, der ein Interview mit dem Wissenschaftler enthält und auf visualisierte Gedankenexperimente des Senders verweist. Am Ende wird Oliver Bendel nach Rechten von Robotern befragt. Er antwortet darauf: „Für moralische Rücksicht braucht es einen Lebenswillen, Bewusstsein oder Empfindungsfähigkeit. All das haben Maschinen noch nicht einmal im Ansatz. Deswegen dürfen wir alles mit ihnen machen, ja sie dürfen auch versklavt werden. Das einzige, was dagegen spricht, ist der psychologische Verdacht, dass wir Menschen vielleicht moralisch abstumpfen, wenn wir menschenähnliche Wesen schlecht behandeln oder versklaven. Ein Argument, das man in ähnlicher Form bereits beim deutschen Philosophen Immanuel Kant findet.“ Der Beitrag kann über www.srf.ch/kultur/gesellschaft-religion/autonome-autos-gehoeren-nicht-in-unsere-staedte abgerufen werden.
Abb.: Versklavte Maschinen statt versklavte Menschen
Von Tür zu Tür
Die Süddeutsche Zeitung widmete am 5. Juli 2016 die berühmte Seite Drei fünf Personen, die sich mit dem „Zusammenleben von Mensch und Maschine“ beschäftigen, nämlich Oliver Bendel („Maschinenethiker“), Severin Kacianda („Robotikinformatiker“), Volker Hartmann („Jurist“), Lennart Lutz („Roboterrechtler“) und Eric Hilgendorf („Strafrechtsprofessor“). Mit dem Erstgenannten, seines Zeichens studierter Philosoph, promovierter Wirtschaftsinformatiker und Professor an der Hochschule für Wirtschaft FHNW in der Schweiz, hatte Hannes Vollmuth am 24. April 2016 in Berlin zu einer Taxifahrt abgemacht. Der Unfall des Tesla-Autos in den USA war zu diesem Zeitpunkt noch nicht passiert. Dennoch sprach sich Oliver Bendel dezidiert dafür aus, sowohl automatische als auch autonome Autos zu beschränken. Er sieht sie auf Autobahnen, die wie in Europa in der Regel frei von Fußgängern, Radfahrern und Wendemöglichkeiten sind. In Florida war an einer Kreuzung auf einem Highway ein Sattelschlepper senkrecht zu einem Model S geraten. Der Autopilot mit seinem Auge, der Kamera, hatte die aufragende Fläche des Aufliegers für den Himmel (so die erste Vermutung des Unternehmens) oder ein Straßenschild (so eine zweite Erklärung) gehalten. Der Wissenschaftler und der Journalist fuhren mit dem Taxi von Berlin-Mitte zu einer Autobahn, auf der Roboterautos getestet wurden. Sie unterhielten sich über moralische Maschinen, automatische und autonome Autos – und die Fahrt mit dem Tesla Model S, die Oliver Bendel einige Zeit zuvor absolviert hatte. Er war freihändig über die Autobahn bei Bern geglitten, hatte dem Autopiloten beim Spurhalten und -wechseln vertraut und Spaß dabei. Dennoch hätte er die Kontrolle nicht mehrere Minuten abgegeben. Sein Traum ist es, dass er eines Tages von einem autonomen Auto von Mailand nach Genua befördert wird und entweder aus dem Fenster schauen oder in Ruhe arbeiten kann. Eine Beförderung wie bei einem Zug, aber von Tür zu Tür. Der Artikel ist unter dem Titel „Error“ erschienen.
Machine Ethics and Law in Cracow
The call for papers for „Machine Ethics and Machine Law“ has been released. This international conference will take place in Cracow (Poland) from 18 to 19 November 2016. According to the announcement, the deadline for abstract submissions is 9 September 2016. The following information is provided on the website: „Artificial Intelligence systems have become an important part of our everyday lives. What used to be a subject of science fiction novels and movies has trespassed into the realm of facts. Many decision making processes are delegated to machines and these decisions have direct impact on humans and societies at large. This leads directly to the question: What are the ethical and legal limitations of those artificial agents? Issues such as liability, moral and legal responsibility (in different contexts: from autonomous cars to military drones) are coming into the forefront. It is clear that some constraints should be imposed; both the unintended and often unforeseen negative consequences of the technological progress, as well as speculative and frightening views of the future portrayed in the works of fiction, leave no doubt that there ought to be some guidelines. The problem is to work out these constraints in a reasonable manner so that machine can be a moral and legal agent, or else argue that it is impossible and why.“ (conference website) The conference is a follow-up of the AAAI Spring Symposium on „Ethical and Moral Considerations in Non-Human Agents“ which was held in March 2016 at Stanford University. Further information via machinelaw.philosophyinscience.com (link no longer valid).
Fig.: Moral machines are also relevant in farming
Der Roboter der Schmerzen
„Darf ein Roboter einen Menschen nach eigenem Gutdünken verletzen? Ein US-Robotiker hat einen Roboter gebaut, der selbst entscheidet, ob er einem Menschen in den Finger sticht. Die Aktion soll eine Diskussion über Roboter anregen.“ (Golem, 13. Juni 2016) Mit diesen Worten beginnt ein Artikel in Golem, der die Arbeit von Alexander Reben, Bereichsleiter beim kalifornischen Inkubator Stochastic Labs, vorstellt. Der Roboter ist nichts anderes als ein Arm, an dessen Ende eine Nadel angebracht ist. „Er steht auf einer kleinen Plattform. Darauf gibt es eine Markierung, die anzeigt, wo der Finger platziert wird.“ (Golem, 13. Juni 2016) Der Wissenschaftler gibt an, den ersten Roboter gebaut zu haben, der „autonom und absichtlich“ das erste Robotergesetz von Isaac Asimov bricht. Auch die Forschung des Pentagon zu autonomen Kampfrobotern weist in diese Richtung. Derzeit sind die Drohnen noch ferngesteuert, aber das wird sich zu Lande und in der Luft bald ändern. Der Roboter von Alexander Reben kann als unmoralische Maschine („immoral machine“) bezeichnet werden, insofern er absichtlich und systematisch gegen das Wohl des Menschen verstößt, ohne dass der Zweck die Mittel heiligen würde.
Abb.: Auch eine solche Nadel kann Schmerzen verursachen
Eine verhängnisvolle Verwechslung
Am 1. Juli 2016 war Matthias Meili vom Tages-Anzeiger im Gespräch mit dem Wirtschaftsinformatiker und Maschinenethiker Oliver Bendel. Thema war der Unfall des Tesla Model S. Ein Sattelschlepper war über eine Einfahrt auf dem Highway, über die die Richtung gewechselt werden kann, senkrecht zum PKW geraten, der die weiße Fläche für den Himmel bzw. ein Schild gehalten hat und unvermindert weitergefahren ist. „Dieser Unfall hätte von einem menschlichen Fahrer absolut vermieden werden können, sofern es nicht zu schnell gegangen ist, was ich aber nicht beurteilen kann. Grundsätzlich hat der Mensch kein Problem damit, eine sehr helle Fläche vom Himmel zu unterscheiden.“ (Tages-Anzeiger, 1. Juli 2016) Vermutlich hätte der Fahrer den Sattelzug auch frühzeitig gesehen und hätte ausweichen oder herunterbremsen können. Oliver Bendel ist nicht grundsätzlich gegen automatisierte und autonome Autos, ganz im Gegenteil: „Ich habe den Tesla vor einigen Monaten mit Autopilot auf einer Autobahn in der Nähe von Bern gefahren und das sehr genossen. Der Wagen hat erst mal den Verkehr beobachtet und als eine Lücke kam, hat er selbständig die Spur gewechselt. Das macht er sehr weich und sehr flüssig, es war faszinierend.“ (Tages-Anzeiger, 1. Juli 2016) Der Wissenschaftler rät dazu, in den nächsten Jahren weitere Tests und Experimente zu machen und hoch- und vollautomatisierte bzw. autonome Autos vorrangig auf Autobahnen ohne Wendemöglichkeiten fahren zu lassen. Der Artikel vom 1. Juli kann über www.tagesanzeiger.ch/wissen/technik/ein-mensch-haette-diesen-unfall-nicht-gebaut/story/26161200 aufgerufen werden.