Machine ethics researches the morality of semi-autonomous and autonomous machines. In 2013 and 2014, the School of Business at the University of Applied Sciences and Arts Northwestern Switzerland FHNW implemented a prototype of the GOODBOT, which is a novelty chatbot and a simple moral machine. One of its meta rules was it should not lie unless not lying would hurt the user. In a follow-up project in 2016 the LIEBOT (aka LÜGENBOT) was developed, as an example of a Munchausen machine. The student Kevin Schwegler, supervised by Prof. Dr. Oliver Bendel and Prof. Dr. Bradley Richards, used the Eclipse Scout framework. The whitepaper which was published on July 25, 2016 via liebot.org outlines the background and the development of the LIEBOT. It describes – after a short introduction to the history and theory of lying and automatic lying (including the term of Munchausen machines) – the principles and pre-defined standards the bad bot will be able to consider. Then it is discussed how Munchausen machines as immoral machines can contribute to constructing and optimizing moral machines. After all the LIEBOT project is a substantial contribution to machine ethics as well as a critical review of electronic language-based systems and services, in particular of virtual assistants and chatbots.
Beim DVR-Forum „Automatisiertes Fahren und Ethik“ wurde ein Film gedreht, der im Juli 2016 zur Verfügung gestellt wurde. Man kann ihn über www.youtube.com/watch?v=SH_9kr6fZK8 aufrufen. Zudem hat der Veranstalter Texte und Fotos über www.dvr.de veröffentlicht. Das DVR-Forum fand am 14. Juni 2016 in der Berlin-Brandenburgischen Akademie der Wissenschaften am Gendarmenmarkt in Berlin-Mitte statt. Der Untertitel „Welche Entscheidungen wollen wir Maschinen überlassen?“ deutete den Schwerpunkt an. An der Podiumsdiskussion nahmen Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW), Prof. Dr. Dr. Eric Hilgendorf (Universität Würzburg), Prof. Dr. Jürgen Leohold (Volkswagen AG), Prof. Dr. Volker Lüdemann (Hochschule Osnabrück) und Prof. Klaus Kompaß (BMW Group) teil. Es moderierte Monika Jones von der Deutschen Welle. Weitere Informationen über www.tag-der-verkehrssicherheit.de.
SoftBank und Honda wollen ein sprechendes Auto bauen – das meldet Golem am 23. Juli 2016. „Mittels Sensoren, Mikrofonen und Kameras sollen anhand von Veränderungen in der Sprache, Gestik und Körpermerkmalen Emotionen des Fahrers gelesen und von der KI des Wagens ausgewertet werden. Bei stressigen Situationen soll die KI dann beispielsweise aufmunternde Worte spenden, oder bei langen Fahrten alleine als Gesprächspartner fungieren.“ (Golem, 23. Juli 2016) Oliver Bendel hat in seinem Artikel „Ein Auto mit Charakter“ vom 17. November 2015 geschrieben: „Es ist naheliegend, einem Auto, das mit Fahrerassistenzsystemen vollgestopft oder im Gesamten ein Roboter ist, einen Charakter angedeihen zu lassen, und diesen im Wesentlichen mit Hilfe auditiver Schnittstellen und Künstlicher Intelligenz (auf welchem Niveau auch immer) zu realisieren.“ (ICTkommunikation, 17. November 2015) An einer Stelle heißt es: „Wenn das Auto schon ein Charakter ist oder einen Charakter hat, kann man auch daran denken, es mit Moral auszustatten.“ (ICTkommunikation, 17. November 2015) Diese Idee wird von dem Maschinenethiker kritisch diskutiert. Auch die Idee, dem Auto einen Charakter zu geben, wird von ihm nur als Möglichkeit gesehen, die es zu untersuchen gilt. Man darf gespannt sein, was die Hersteller auf die Straße bringen. Die Plattform des geplanten Fahrzeugs steht bereits fest: Es ist Pepper von SoftBank und Aldebaran Robotics, der zuletzt in die Schlagzeilen kam, weil man mit ihm laut Benutzerhandbuch keinen Sex haben soll; selbst eine Manipulation seiner Stimme zur Erzielung einer erotisierenden Wirkung verbat man sich. Vermutlich wird die Bedienungsanleitung des sprechenden Autos ähnlich abturnend sein.
Daimler hat bei Amsterdam (zwischen dem Flughafen Schipohl und der Stadt Haarlem) selbstfahrende Busse eingesetzt. Der Mannheimer Morgen hat am 18. Juli 2016 Oliver Bendel dazu befragt. Der Maschinenethiker hat schriftlich geantwortet: „Grundsätzlich rate ich davon ab, autonome Fahrzeuge in Städten und Ballungsgebieten einzusetzen. In diesen wimmelt es von Fahrzeugen, Verkehrsteilnehmern, Objekten wie Tauben, Luftballons und Seifenblasen, Lichtreflexen, Schatten und Signalen. Zugleich sehe ich wie Daimler durchaus Potenzial für den öffentlichen Nahverkehr. Man kann das Risiko minimieren, indem man die Geschwindigkeit stark senkt, spezielle Spuren nutzt und verschiedenartige Sensoren koppelt. In Sitten im Wallis verkehren die autonomen Shuttles der PostAuto AG sehr langsam, auf einer bekannten Rundstrecke. Das ist eine gute Lösung. Dennoch könnte eines Tages ein kleines Kind zu Schaden kommen. Die Geschwindigkeit der Daimler-Busse ist sehr hoch. Das mag dann funktionieren, wenn sich auf diesen Spuren ansonsten nichts und niemand befinden kann. Es handelt sich hier immerhin nicht um die Innenstadt von Amsterdam, sondern um eine übersichtliche Strecke zwischen Flughafen und Haarlem. Ich rate auf jeden Fall dazu, nicht allein die Kameras beobachten und entscheiden zu lassen. Sie täuschen sich schnell und sind leicht zu täuschen, auch durch böswillige Passanten mit Taschenspiegeln und Laserpointern. Es sollten unbedingt weitere Systeme die Situation prüfen, etwa Radar, Lidar und Ultrasound, und vor allem sollte eine Art Mehrheitsentscheidung vorhanden sein. Wenn drei Systeme erklären, dass die Luft rein ist, sollte sie rein sein.“ Mehrere Statements wurden in den Artikel „Stadtbus mit Autopilot“ eingearbeitet, der am selben Tag erschienen ist und über www.morgenweb.de/nachrichten/wirtschaft/regionale-wirtschaft/1.2881794 abgerufen werden kann.
„Einer meiner Lieblingsgötter ist Hephaistos, der Schöpfer von Talos und Pandora. Über die Frau mit der Büchse muss man kaum ein Wort verlieren. Talos ist weniger bekannt, obwohl er als Spielzeug bis in unsere Gegenwart überdauert hat. Er, der Wächter von Kreta, bewarf herannahende Boote mit Steinen, bis sie mitsamt den Feinden untergingen. Wenn diese doch das Ufer erreichten, drückte er sie an seinen metallenen Körper, der inzwischen glühte. Das erinnert an eine andere künstliche Figur, die eiserne Jungfrau des Nabis – doch bleiben wir bei Talos.“ Mit diesen Worten beginnt ein Beitrag von Oliver Bendel, der am 16. Juli 2017 in der Beilage Sonntag – und damit in Zeitungen wie Hannoversche Allgemeine und Leipziger Volkszeitung – erschienen ist. Von den erdachten Maschinen und Robotern der Antike wird ein Bogen gespannt bis zu selbstfahrenden Autos. Und zur Maschinenethik, die die Möglichkeiten moralischer Maschinen erkundet. Diese sind ein Topos der Ideengeschichte der künstlichen Kreatur, und ganz gegensätzliche Geschöpfe wie Galatea und Golem treffen sich einerseits in ihrer Sprachlosigkeit und Tumbheit, andererseits auch in ihren Möglichkeiten moralischen oder unmoralischen Handelns. Während Galatea weitgehend Projektionsfläche und Gebärmaschine bleibt, wird der Golem in einer Version zur Zerstörungsmaschine, losgelassen auf Prag. Der Beitrag mit dem Titel „Maschine entmündigt Mensch“ (ursprünglich: „Von Talos bis Pandora“) kann hier aufgerufen werden.
„Im Aargau kam der GOODBOT zur Welt. Programmiert wurde er in verschiedenen Kantonen, doch am Campus Brugg-Windisch der FHNW wurde er erdacht und ausprobiert. Wir hatten 2013 verschiedene Chatbots auf Websites mit Aussagen und Fragen gefüttert. Die Ergebnisse waren erschütternd. Maschinen dieser Art sind dazu da, die Benutzer über Produkte und Dienstleistungen zu informieren. Sie sind auch vorbereitet auf Fragen, die sie selbst und die Welt betreffen. Wenn die Sprache indes auf einen beabsichtigten Selbstmord oder Amoklauf kam, versagten die meisten von ihnen.“ Mit diesen Worten beginnt der Artikel „Nachrichten aus der neuen Fabrik“ von Oliver Bendel, der in der Aargauer Wirtschaft Nr. 7 (14. Juli 2016) erschienen ist. Und weiter: „Ich erfand den GOODBOT, der bei Problemen besser reagieren und im Extremfall eine nationale Notfallnummer herausgeben konnte. Drei Studenten implementierten ihn prototypisch. Die Gestaltungsdisziplinen, deren Methoden wir anwandten, waren soziale Robotik und Maschinenethik. Erstere bringt Roboter hervor, die zu sozialen Interaktionen fähig sind und Menschen nicht überfordern und nicht verletzen, letztere Maschinen, die moralisch angemessen entscheiden und handeln.“ (Aargauer Wirtschaft, 14. Juli 2016) Im Folgenden wird auf die Industrie 4.0 und die Smart Factory eingegangen, wo soziale Robotik und Maschinenethik ebenfalls eine Rolle spielen. Der ganze Artikel kann über hier heruntergeladen werden.
Abb.: Die Smart Factory ist mit der Umwelt vernetzt
In der Sendung „Kontrovers“ (Bayerisches Fernsehen) vom 13. Juli 2016 ging es um selbstfahrende Autos. Zu Wort kamen neben Bürgerinnen und Bürgern u.a. Alexander Dobrindt, Bundesverkehrsminister von Deutschland, und Prof. Dr. Oliver Bendel, Wirtschaftsinformatiker, Informations- und Maschinenethiker an der Hochschule für Wirtschaft FHNW. Im Ankündigungstext wurde unter dem Titel „Auch eine Frage der Moral“ der Inhalt des Films skizziert und auf Dilemmata eingegangen: „Es gibt viele offene Fragen: Wie verhält sich ein autonomes Fahrzeug in einer Gefahrensituation? Was macht das Auto, wenn plötzlich ein kleines Mädchen vor ihm auf die Straße läuft? Was, wenn der Fahrer das Kind nur verschonen kann, indem er ausweicht, aber dadurch zum Beispiel einen Senioren gefährdet? Ist ein junges Leben mehr wert als ein älteres?“ (Website BR) Oliver Bendel ist nicht gegen hoch- und vollautomatisiertes Fahren oder autonome Autos. Diese gehören nur nach seiner Meinung auf die Autobahn, nicht in die Stadt. Selbst die Autobahn ist noch schwierig zu bewältigen; die Stadt zu bewältigen, ist kaum möglich. Ein Problem sind Kameras, die sich schnell täuschen respektive leicht täuschen lassen. Sie müssen auf jeden Fall mit weiteren Sensoren gekoppelt werden. Das Gespräch mit Oliver Bendel führte Patrick Lerch. Weitere Informationen über www.br.de.
Abb.: Das Interview mit Oliver Bendel fand in München statt
Der Sicherheits- und Überwachungsroboter von Knightscope im Stanford Shopping Center hat ein Kind leicht verletzt. Dies meldete GIZMODO am 12. Juli 2016: „A 300-pound security robot … knocked down and ran over a 16-month-old boy. The parents of the injured boy are understandably pissed, claiming the autonomous machine is dangerous.“ (GIZMODO, 12. Juli 2016) Oliver Bendel hatte im Frühjahr über den K5 berichtet, dem er selbst vor Ort begegnet war. Dabei hatte er ihn mit einem Modell aus China, dem AnBot, verglichen und Überlegungen aus Sicht der Ethik angestellt: „Ich war verwundert, dass man dem K5 in Stanford so nahe kommen konnte. Vielleicht gibt es auch einen Knopf bei ihm, den man drücken kann. In diesem Fall müsste er eine gewisse Nähe erlauben. Aber was ist, wenn er ein Kind oder ein Tier überfährt? Wenn sein enormes Gewicht auf einem kleinen Körper liegen bleibt?“ Zum Vorgang schreibt GIZMODO: „When the Knightscope K5 senses trouble, it alerts local authorities – though it didn’t seem particularly concerned when it plowed into the toddler earlier this week. Little is known about the incident, but the robot’s sensors didn’t seem to detect Harwin – and that’s obviously a problem.“ (GIZMODO, 12. Juli 2016) Der Beitrag von Oliver Bendel ist am 19. Mai in der Zeitschrift inside-it.ch erschienen und kann über www.inside-it.ch/post/blechpolizisten-mit-elektroschockern-20160519 aufgerufen werden.
Im Gespräch mit Deutschlandradio Kultur war Oliver Bendel am 11. Juli 2016 ab 18.15 Uhr in der Sendung „Studio 9“. Frank Appel, der Post-Chef, hatte die Diskussion einer Robotersteuer (auch Maschinensteuer genannt) vorgeschlagen. Ein Problem ist, was man genau besteuern soll. Welche Roboter sind betroffen? Um welche Arbeit geht es konkret? Vielleicht ist die Robotersteuer gar nicht praktikabel. Bei Maschinen, die Menschen ersetzen, scheint der Gedanke zunächst charmant zu sein: Wenn der Mitarbeiter entlassen wird, oder wenn er erst gar nicht eingestellt wird, weil ein Roboter die Arbeit macht, besteuert man dessen Arbeit. Allerdings müsste sichergestellt werden, dass der Entlassene oder Nichteingestellte etwas davon hat. Die Robotersteuer sollte also nicht ohne flankierende Maßnahmen eingeführt werden. Für die Robotersteuer spricht, dass der Roboter als Risiko für Arbeitnehmer erkannt wird. Gegen sie spricht, dass er kaum als Chance für Arbeitgeber und -nehmer erkannt wird. Selbst wenn er uns ersetzt, kann daraus eine Chance entstehen, eben wenn wir trotzdem Geld verdienen und trotzdem gut leben können. Deshalb, könnte man argumentieren, muss sein Einsatz gefördert und nicht gehemmt werden. Eine Idee wäre, die Maschinensteuer nur einzuführen, wenn sie z.B. direkt mit dem bedingungslosen Grundeinkommen gekoppelt wäre. Ein solches hat Frank Appel explizit abgelehnt. Zugleich sollte man die Entwicklung von innovativen Robotern und den innovativen Einsatz von Robotern belohnen. Letztlich geht es darum, die Gewinne, die auch in der Smart Factory erzielt werden, gerecht zu verteilen. Weitere Informationen über http://www.deutschlandradio.de; dort kann auch der Podcast angehört und heruntergeladen werden.
Den Chancen und Risiken von Robotern widmet sich die Bild am Sonntag am 10. Juli 2016 auf einer Doppelseite. „Wie viel Roboter ist gut?“ fragt der Autor, Florian Zerfaß, im Titel. Am 7. Juli sprach er mit Oliver Bendel, Wirtschaftsinformatiker, Informationsethiker und Maschinenethiker, der zu den Chancen zählt, dass Roboter die Menschen unterstützen und entlasten. Konkret erwähnte er gegenüber dem Journalisten das BMW-Werk in Spartanburg, wo Leichtbauroboter die Türdichtungen eindrücken und so die Handgelenke der Arbeiter entlasten, die unmittelbar daneben ihren weniger beschwerlichen Aufgaben nachgehen. Auch Pflegeroboter führte er an, die zusammen mit Pflegern im Tandem die Patienten umbetten und -lagern – Prototypen wie Robear, die in Bälde in Pflegeheimen und Krankenhäusern einsatzbereit sein sollen. Mit Risiken behaftet seien selbstlernende Systeme in offenen Welten. In der BamS wird Oliver Bendel mehrfach zitiert. Unter anderem weist er als Maschinenethiker darauf hin, dass man Maschinen eine Art von Moral beibringen kann. Der Artikel wird auf der Titelseite mit der Frage „Wie gefährlich sind Roboter?“ angeteasert und ist auf den Seiten 8 und 9 abgedruckt. Die Seiten 4 und 5 gehören dem Bundesverkehrsminister Alexander Dobrindt, der über seine „großen Baustellen“ reden soll. Eine davon ist die Ethikkommission, die die Entscheidungen automatischer und autonomer Autos aus ethischer Sicht beurteilen und sie in moralischer Hinsicht bestimmen soll. Ob ihr dies gelingen wird, steht in den Sternen. Oliver Bendel warnt davor, dass Autos über Leben und Tod von Menschen bestimmen.
In Dallas wurde, wie Telepolis meldete, „ein ferngesteuerter Roboter zum Platzieren einer Bombe eingesetzt, um einen Täter auszuschalten“ (Telepolis, 8. Juli 2016). Eigentlich kein Fall für die Maschinenethik, die sich auf Entscheidungen (teil-)autonomer Systeme konzentriert. Aber dennoch ein interessantes Beispiel, weil es zeigt, dass Roboter oftmals vielfältig genutzt, umgewidmet und zweckentfremdet werden können. Florian Rötzer schreibt in diesem Sinne: „Praktisch macht es keinen Unterschied, ob der Täter schließlich durch von Polizisten abgegebene Schüsse ausgeschaltet wird oder durch einen Sprengsatz, den ein Roboter ferngesteuert zu diesem brachte und in die Luft gehen ließ. Aber es zeigt …, dass auch Nichtkampfroboter Dual-Use-Maschinen sind und zu tödlichen Waffen umfunktioniert werden können …“ (Telepolis, 8. Juli 2016) Damit wächst die Zahl der potenziellen Kampfroboter und Kriegsmaschinen erheblich, und auch private Drohnen können zum Werkzeug von Behörden oder auch von Terroristen werden. Die Angst vor der Mehrfachverwendung geht nicht nur in der Medienlandschaft und in der Gesellschaft, sondern auch in der Wirtschaft um. Vor einiger Zeit warnte ein Hersteller davor, seinen niedlichen Spielzeugroboter Pepper für Sexspiele zu verwenden. Das wird sicherlich nicht die Lust zügeln, sondern die Phantasie beflügeln, und man muss nur auf Gebrauchsanweisungen und Vorführungen der etwas anderen Art warten. Auch Rötzer spekuliert, dass der Einsatz in Dallas die Polizei „auf neue Ideen bringen könnte“ (Telepolis, 8. Juli 2016). Für die Maschinenethik ergibt sich die Erkenntnis, dass Entscheidungen der Software unter Berücksichtigung unterschiedlicher Möglichkeiten der Hardware programmiert werden müssen.
„Der Maschinenethiker Oliver Bendel beschäftigt sich mit selbstfahrenden Autos und versucht, ihnen Moral beizubringen. Wer aber entscheidet, welche Moral befolgt werden soll?“ (Website SRF, 6. Juli 2016) Mit diesen Worten beginnt ein Beitrag von Yves Bossart auf der Website des Schweizer Fernsehens, der ein Interview mit dem Wissenschaftler enthält und auf visualisierte Gedankenexperimente des Senders verweist. Am Ende wird Oliver Bendel nach Rechten von Robotern befragt. Er antwortet darauf: „Für moralische Rücksicht braucht es einen Lebenswillen, Bewusstsein oder Empfindungsfähigkeit. All das haben Maschinen noch nicht einmal im Ansatz. Deswegen dürfen wir alles mit ihnen machen, ja sie dürfen auch versklavt werden. Das einzige, was dagegen spricht, ist der psychologische Verdacht, dass wir Menschen vielleicht moralisch abstumpfen, wenn wir menschenähnliche Wesen schlecht behandeln oder versklaven. Ein Argument, das man in ähnlicher Form bereits beim deutschen Philosophen Immanuel Kant findet.“ Der Beitrag kann über www.srf.ch/kultur/gesellschaft-religion/autonome-autos-gehoeren-nicht-in-unsere-staedte abgerufen werden.
Abb.: Versklavte Maschinen statt versklavte Menschen
Die Süddeutsche Zeitung widmete am 5. Juli 2016 die berühmte Seite Drei fünf Personen, die sich mit dem „Zusammenleben von Mensch und Maschine“ beschäftigen, nämlich Oliver Bendel („Maschinenethiker“), Severin Kacianda („Robotikinformatiker“), Volker Hartmann („Jurist“), Lennart Lutz („Roboterrechtler“) und Eric Hilgendorf („Strafrechtsprofessor“). Mit dem Erstgenannten, seines Zeichens studierter Philosoph, promovierter Wirtschaftsinformatiker und Professor an der Hochschule für Wirtschaft FHNW in der Schweiz, hatte Hannes Vollmuth am 24. April 2016 in Berlin zu einer Taxifahrt abgemacht. Der Unfall des Tesla-Autos in den USA war zu diesem Zeitpunkt noch nicht passiert. Dennoch sprach sich Oliver Bendel dezidiert dafür aus, sowohl automatische als auch autonome Autos zu beschränken. Er sieht sie auf Autobahnen, die wie in Europa in der Regel frei von Fußgängern, Radfahrern und Wendemöglichkeiten sind. In Florida war an einer Kreuzung auf einem Highway ein Sattelschlepper senkrecht zu einem Model S geraten. Der Autopilot mit seinem Auge, der Kamera, hatte die aufragende Fläche des Aufliegers für den Himmel (so die erste Vermutung des Unternehmens) oder ein Straßenschild (so eine zweite Erklärung) gehalten. Der Wissenschaftler und der Journalist fuhren mit dem Taxi von Berlin-Mitte zu einer Autobahn, auf der Roboterautos getestet wurden. Sie unterhielten sich über moralische Maschinen, automatische und autonome Autos – und die Fahrt mit dem Tesla Model S, die Oliver Bendel einige Zeit zuvor absolviert hatte. Er war freihändig über die Autobahn bei Bern geglitten, hatte dem Autopiloten beim Spurhalten und -wechseln vertraut und Spaß dabei. Dennoch hätte er die Kontrolle nicht mehrere Minuten abgegeben. Sein Traum ist es, dass er eines Tages von einem autonomen Auto von Mailand nach Genua befördert wird und entweder aus dem Fenster schauen oder in Ruhe arbeiten kann. Eine Beförderung wie bei einem Zug, aber von Tür zu Tür. Der Artikel ist unter dem Titel „Error“ erschienen.
The call for papers for „Machine Ethics and Machine Law“ has been released. This international conference will take place in Cracow (Poland) from 18 to 19 November 2016. According to the announcement, the deadline for abstract submissions is 9 September 2016. The following information is provided on the website: „Artificial Intelligence systems have become an important part of our everyday lives. What used to be a subject of science fiction novels and movies has trespassed into the realm of facts. Many decision making processes are delegated to machines and these decisions have direct impact on humans and societies at large. This leads directly to the question: What are the ethical and legal limitations of those artificial agents? Issues such as liability, moral and legal responsibility (in different contexts: from autonomous cars to military drones) are coming into the forefront. It is clear that some constraints should be imposed; both the unintended and often unforeseen negative consequences of the technological progress, as well as speculative and frightening views of the future portrayed in the works of fiction, leave no doubt that there ought to be some guidelines. The problem is to work out these constraints in a reasonable manner so that machine can be a moral and legal agent, or else argue that it is impossible and why.“ (conference website) The conference is a follow-up of the AAAI Spring Symposium on „Ethical and Moral Considerations in Non-Human Agents“ which was held in March 2016 at Stanford University. Further information via machinelaw.philosophyinscience.com (link no longer valid).
„Darf ein Roboter einen Menschen nach eigenem Gutdünken verletzen? Ein US-Robotiker hat einen Roboter gebaut, der selbst entscheidet, ob er einem Menschen in den Finger sticht. Die Aktion soll eine Diskussion über Roboter anregen.“ (Golem, 13. Juni 2016) Mit diesen Worten beginnt ein Artikel in Golem, der die Arbeit von Alexander Reben, Bereichsleiter beim kalifornischen Inkubator Stochastic Labs, vorstellt. Der Roboter ist nichts anderes als ein Arm, an dessen Ende eine Nadel angebracht ist. „Er steht auf einer kleinen Plattform. Darauf gibt es eine Markierung, die anzeigt, wo der Finger platziert wird.“ (Golem, 13. Juni 2016) Der Wissenschaftler gibt an, den ersten Roboter gebaut zu haben, der „autonom und absichtlich“ das erste Robotergesetz von Isaac Asimov bricht. Auch die Forschung des Pentagon zu autonomen Kampfrobotern weist in diese Richtung. Derzeit sind die Drohnen noch ferngesteuert, aber das wird sich zu Lande und in der Luft bald ändern. Der Roboter von Alexander Reben kann als unmoralische Maschine („immoral machine“) bezeichnet werden, insofern er absichtlich und systematisch gegen das Wohl des Menschen verstößt, ohne dass der Zweck die Mittel heiligen würde.
Abb.: Auch eine solche Nadel kann Schmerzen verursachen
Der tödliche Unfall mit einem Tesla Model S vom Mai 2016, der derzeit durch die Medien geht, wurde vom Hersteller am 30. Juni 2016 wie folgt beschrieben: „What we know is that the vehicle was on a divided highway with Autopilot engaged when a tractor trailer drove across the highway perpendicular to the Model S. Neither Autopilot nor the driver noticed the white side of the tractor trailer against a brightly lit sky, so the brake was not applied. The high ride height of the trailer combined with its positioning across the road and the extremely rare circumstances of the impact caused the Model S to pass under the trailer, with the bottom of the trailer impacting the windshield of the Model S.“ (Tesla-Blog, 30. Juni 2016) Demnach kamen zwei Umstände zusammen. Zum einen ist der Sattelzug senkrecht auf den Highway getroffen bzw. hat senkrecht zum Automobil gestanden. Eine ähnliche Situation könnte sich mit LKW und PKW in europäischen Städten ständig ergeben, auf europäischen Autobahnen dagegen kaum. Zum anderen hat sich die Kamera täuschen lassen und, von unten her aufnehmend, die weiße Fläche des Fahrzeugs mit dem hellen Himmel dahinter gleichgesetzt. Dies zeigt einmal mehr, dass Kameras nur bedingt eine geeignete Technik für automatische und autonome Autos sind und in jedem Falle mit verschiedenen anderen Systemen wie Radar und LiDAR kombiniert werden müssen. Kameras kann man leicht täuschen und täuschen sich leicht. Im Tesla Model S ist eine komplexe Sensorik verbaut (Kameras, Radar, Ultraschall). Allerdings besteht offenbar Verbesserungsbedarf, und was das optische System wahrnimmt, muss unbedingt durch ein anderes geeignetes System überprüft werden. Zusätzlich könnten die Hersteller konventioneller PKW und LKW in die Pflicht genommen werden. In Zukunft sind graue, weiße oder blaue Karosserien und Sattelauflieger vielleicht zu vermeiden.
Abb.: Auch die Fläche dieses LKWs könnte verwechselt werden