Schlagworte: Roboterphilosophie

ROBOPHILOSOPHY 2020 und 2022

Eine der weltweit wichtigsten Konferenzen für Roboterphilosophie und soziale Robotik, die ROBOPHILOSOPHY, fand vom 18. bis 21. August 2020 statt, nicht in Aarhus (Dänemark), wie ursprünglich geplant, sondern – wegen der COVID-19-Pandemie – in virtueller Form. Organisatoren und Moderatoren waren Marco Nørskov und Johanna Seibt. Ein beträchtlicher Teil der Vorträge war der Maschinenethik verpflichtet, etwa „Moral Machines“ (Aleksandra Kornienko), „Permissibility-Under-a-Description Reasoning for Deontological Robots“ (Felix Lindner) und „The Morality Menu Project“ (Oliver Bendel). Die Keynotes stammten von Selma Šabanović (Indiana University Bloomington), Robert Sparrow (Monash University), Shannon Vallor (The University of Edinburgh), Alan Winfield (University of the West of England), Aimee van Wynsberghe (Delft University of Technology) und John Danaher (National University of Ireland). Winfield zeigte sich in seinem herausragenden Referat skeptisch gegenüber moralischen Maschinen, woraufhin Bendel in der Diskussion deutlich machte, dass sie in manchen Bereichen nützlich, in anderen gefährlich sind, und die Bedeutung der Maschinenethik für die Erforschung der maschinellen und menschlichen Moral hervorhob, womit sich Winfield wiederum einverstanden zeigte. Die letzte Konferenz wurde 2018 in Wien durchgeführt. Keynoter waren damals u.a. Hiroshi Ishiguro, Joanna Bryson und Oliver Bendel. Die nächste ROBOPHILOSOPHY wird, wie die Veranstalter am Ende der Veranstaltung, bekanntgaben, 2022 an der Universität Helsinki stattfinden.

Abb.: Vorgestellt wurde auch das Moralmenü

Buch zur Mensch-Roboter-Kollaboration

Das von Prof. Dr. Hans-Jürgen Buxbaum herausgegebene Buch „Mensch-Roboter-Kollaboration“ (Springer Gabler) ist seit Mai 2020 in elektronischer Form verfügbar, ab Sommer auch in gedruckter. Auf der Website des Verlags gibt es folgende Information hierzu: „Im Kontext der Industrie 4.0 sind ein wachsender Wettbewerbsdruck, immer größere Anforderungen an Flexibilität und Qualität und immer höhere Ansprüche der Stakeholder wahrnehmbar. In der bekannten Situation des demographischen Wandels entstehen zunehmend neue Assistenzsysteme, insbesondere in der Mensch-Roboter-Kollaboration (MRK). Diese Systeme arbeiten nicht mehr isoliert hinter Zäunen, sondern Hand in Hand mit den Menschen. Sie sollen den Menschen bei monotonen oder kraftraubenden Arbeiten unterstützen oder entlasten. Durch die direkte Zusammenarbeit von Mensch und Maschine rücken Arbeitssicherheit und Ergonomie zunehmend in den Fokus. Klärungsbedarf gibt es bei der Gestaltung von MRK-Arbeitsplätzen und bei der Akzeptanz dieser Arbeitsplätze. Auch neue Aufgabenfelder sind im Gespräch, die sich z.B. in Pflege und Medizin erschließen lassen. Arbeitspsychologie und Human Factors bekommen in der roboterbasierten Automatisierung eine neue, wichtige Bedeutung. Zudem stellt sich die ethische Frage, ob diese neuen Roboter auf längere Sicht den Menschen entlasten oder ersetzen.“ (Website Springer) Zudem ist folgender Hinweis zu finden: „Hintergrund dieser Veröffentlichung ist der Ladenburger Diskurs der Daimler und Benz Stiftung zum Thema MRK im März 2019. Dieser ist hervorragend besetzt mit einer deutlich interdisziplinären Ausrichtung, die in diesem Thema bislang einmalig ist. Die Teilnehmer sind Autoren dieses Buchs.“ (Website Springer) Zusätzlich wurde Prof. Dr. Oliver Bendel eingeladen, der der wissenschaftliche Leiter des Ladenburger Diskurses 2017 zu Pflegerobotern und der wissenschaftliche Leiter des Berliner Kolloquiums 2019 zu Robotern in der Pflege war. Er nimmt, wie auch Prof. Dr. Hartmut Remmers, die philosophische Perspektive ein. Sein Beitrag trägt den Titel „Die Maschine an meiner Seite: Philosophische Betrachtungen zur Mensch-Roboter-Kollaboration“.

Der rote Kaugummiautomat deutscher Dörfer

„Automaten gibt es seit tausenden Jahren, von den dampfbetriebenen Altären der Antike über die Androiden im Spätbarock (Musikerin, Schreiber und Zeichner) bis hin zu modernen Maschinen.“ So beginnt ein Beitrag von Oliver Bendel für das Gabler Wirtschaftslexikon. Es werden mehrere Beispiele gegeben: „Automaten verrichten selbstständig eine bestimmte Tätigkeit, etwa das Zubereiten und Ausgeben von Kaffee (Kaffeeautomat), das Auswerfen von Zigaretten (Zigarettenautomat) oder das Anzeigen der Zeit (Uhr). Manche sind rein mechanisch, wie der rote Kaugummiautomat deutscher Dörfer und Städte, andere elektronisch und vernetzt.“ Und Abgrenzungen – wie zu Robotern – vorgenommen. Am Ende kommt die Ethik zu Wort: „Wirtschafts-, Technik- und Informationsethik widmen sich den Herausforderungen, die sich durch Automaten und Automation ergeben, sei es in Bezug auf die Ersetzung von Mitarbeitenden, sei es in Bezug auf die Möglichkeit der Gefährdung, Verletzung und Überwachung. Die genannten Bereichsethiken betrachten ebenso den Beitrag von Automaten und Automation zu einem guten Leben, nicht zuletzt vor dem Hintergrund, dass Arbeit idealisiert und ideologisiert wird.“ Der Beitrag ist im Januar 2019 erschienen und kann über wirtschaftslexikon.gabler.de/definition/automat-119939 aufgerufen werden.

Abb.: Ein roter Kaugummiautomat

Diskussion über autonome Kampfroboter

Die Heinrich-Böll-Stiftung kündigt eine Veranstaltung zu autonomen Kampfrobotern an: „Künstliche Intelligenz (KI) ist das große Glücksversprechen des 21. Jahrhunderts und wird viele Lebensbereiche moderner Industriegesellschaften dramatisch verändern, von der Mobilität zur industriellen Fertigung oder der Krankenpflege. KI wird auch die Sicherheits- und Verteidigungspolitik verändern. Sie wird dazu führen, dass moderne Waffensysteme zunehmend autonom agieren und die menschlichen Eingriffsmöglichkeiten auf ein Minimum reduzieren.“ (Information HBS) Dies werfe, so die Stiftung, ethische Fragen auf, insbesondere dann, wenn zukünftig Kampfroboter ihre Ziele autonom auswählen und bekämpfen. „Doch wie realistisch ist dieses Szenario? Wieviel Autonomie steckt schon heute in modernen Waffensystemen und welche Entwicklungstendenzen zeichnen sich ab?“ (Information HBS) Diese Fragen will man mit Noel Sharkey, „einem führenden Experten für Ethik und Robotik“, einer Vertreterin des Auswärtigen Amtes und einem Mitglied des Bundestags diskutieren. Die Veranstaltung findet am 23. Januar 2019 von 19.00 bis 20.30 Uhr bei der Heinrich-Böll-Stiftung in Berlin statt.

Abb.: Der will nur spielen

Proceedings of Robophilosophy 2018

In November 2018 the „Proceedings of Robophilosophy 2018“ with the title „Envisioning robots in society – power, politics, and public space“ were published. Editors are Mark Coeckelbergh, Janina Loh, Michael Funk, Johanna Seibt, and Marco Nørskov. In addition to the contributions of the participants, the book also contains abstracts and extended abstracts of the keynotes by Simon Penny, Raja Chatila, Hiroshi Ishiguro, Guy Standing, Catelijne Muller, Juha Heikkilä, Joanna Bryson, and Oliver Bendel (his article about service robots from the perspective of ethics is available here). Robophilosophy is the most important international conference for robophilosophy and roboethics. In February 2018 it took place at the University of Vienna. Machine ethics was also an issue this time. „Robots are predicted to play a role in many aspects of our lives in the future, affecting work, personal relationships, education, business, law, medicine and the arts. As they become increasingly intelligent, autonomous, and communicative, they will be able to function in ever more complex physical and social surroundings, transforming the practices, organizations, and societies in which they are embedded.“ (IOS Press) More information via www.ios.com.

Fig.: Robophilosophy in Vienna

Der fröhliche Roboter

„Können Roboter fröhlich sein?“ So lautet der Titel eines Beitrags im neuen Aufbruch, der im Herbst 2018 erschienen ist. Das Google-Magazin ist seit wenigen Jahren auf dem Markt und wird von einer Agentur der Süddeutschen Zeitung produziert. „Künstliche Intelligenz“ ist der Titel der aktuellen Ausgabe, die u.a. dem Spiegel beiliegt. Die Antwort auf die genannte und die eine oder andere Frage gibt der Informations- und Maschinenethiker Oliver Bendel. Er ist der Meinung, dass Roboter bzw. KI-Systeme keine Gefühle haben und haben können. Der Forschung dazu will er sich dennoch nicht verschließen. So plant er, das Symposium „Towards Conscious AI Systems“ im Rahmen der AAAI 2019 Spring Symposium Series an der Stanford University zu besuchen. Wer oder was Bewusstsein hat, kann Gefühle entwickeln, so könnte man postulieren. Ein fröhlicher Roboter könnte ein Gewinn sein, ein trauriger ein Problem. Selbst wenn solche Maschinen nie erschaffen werden können – wir werden im Rahmen der Forschung viel über die Gefühle von Menschen erfahren. Das Interview kann hier heruntergeladen werden.

Abb.: Ein fröhlicher Mensch

Roboter gegen den Pflegenotstand?

Am 10. September 2018 wurde die Sendung „Pflege – Was kann sie leisten, was muss sich ändern?“ in Bayern 2 ausgestrahlt. Zu Wort kommt Oliver Bendel, Informations- und Maschinenethiker aus Zürich. Er beschäftigt sich seit mehreren Jahren mit Robotern in der Pflege. Er ist nicht der Meinung, dass diese den Pflegenotstand beheben können. Dafür braucht es andere Maßnahmen. Sie können aber die Pflegekraft unterstützen. Oliver Bendel hält es für wichtig, diese Perspektive einzunehmen und nicht ausschließlich auf den Patienten zu schauen. Natürlich ist dieser ebenso wichtig, und er ist sozusagen der Ausgangspunkt aller einschlägigen Strukturen und Prozesse. Für ihn bedeuten Pflegeroboter sowohl Vor- als auch Nachteile. Einerseits stärken sie seine persönliche Autonomie, machen ihn unabhängiger und beweglicher. Andererseits schwächen sie seine informationelle Autonomie. Manche der Roboter, die sich in Pflegeheimen und Krankenhäusern finden, verfügen über Kameras und Mikrofone und damit zusammenhängend über Gesichts- und Stimmerkennung. Das ist ebenso nützlich wie gefährlich. Der Podcast kann hier angehört werden.

Wer ist verantwortlich, wenn ein Roboter tötet?

Im „Tatort“ vom 16. September 2018 war der Roboter der Mörder. Wobei, er war eher das Werkzeug der Mörderin, die ihm eine neue Armbewegung beibrachte. Tatsächlich lassen sich Roboter dieser Art ganz einfach trainieren, indem man ihren Arm führt und die Bewegung abspeichert. Diese muss dann nur noch zur richtigen Zeit ablaufen. Im Krimi tat sie das, und das Opfer war so freundlich, sich genau so zu positionieren, dass sie – der Greifer umfasste eine metallene Spitze, die eigentlich zu anderen Zwecken diente – tödlich war. Die Frankfurter Allgemeine Zeitung vom selben Tag machte den Faktencheck. Sie hatte Oliver Bendel nach der Verantwortung gefragt. Nach seiner Meinung kann ein autonomer Roboter (oder ein KI-System) kaum eine moralische Verantwortung haben. Man könnte allenfalls sagen, dass er, indem er eine Aufgabe übernimmt, eine Verantwortung trägt. Dies wäre eine sehr schwache Form der Primärverantwortung. Man kann ihn nicht zur Verantwortung ziehen (Sekundärverantwortung), und wenn, dann gleitet man schon in die rechtliche Perspektive hinüber (Tertiärverantwortung). Wenn man einem Roboter Verantwortung überträgt, wird diese in gewisser Weise zerstört. Das macht dann nichts, wenn es sich um eine einfache Aufgabe ohne ernsthafte Konsequenzen handelt. Der Faktencheck kann über www.faz.net/aktuell/feuilleton/medien/tatort/der-neue-tatort-aus-berlin-im-faktencheck-15787708.html aufgerufen werden.

Abb.: Der Tod im „Tatort“ war nicht schön

Haben Maschinen Bewusstsein?

VRODO hat ein Interview mit dem Roboterphilosophen, Informations- und Maschinenethiker Oliver Bendel geführt. Es ging um moralische Maschinen und am Rande auch um die Frage, ob Maschinen eines Tages Bewusstsein oder Selbstbewusstsein haben können. Für Oliver Bendel gehört zum Bewusstsein, dass eine innere Stimme ausruft: Ah, das ist ja die Welt! Diese innere Stimme kann seiner Meinung auch ein Tier haben. Jeder Igel, jede Kröte hat Bewusstsein. Zum Selbstbewusstsein gehört, dass die innere Stimme ausruft: Ah, das bin ja ich! Ein Affe hat Selbstbewusstsein. Der Roboterphilosoph denkt nicht, dass man ein echtes Bewusstsein von Maschinen wird schaffen können. Auf jeden Fall werde der Roboter nie mit seiner inneren Stimme ausrufen: Ah, das bin ja ich, der Roboter! „I, Robot“ – das sei Science-Fiction. Die Forschung über maschinelles Bewusstsein hält Oliver Bendel dennoch für wichtig. Bei einem der Symposien der AAAI Spring Symposia an der Stanford University wird es um dieses Thema gehen. Das Interview wurde von Maximilan Schreiner geführt und kann über vrodo.de/was-ein-roboterphilosoph-ueber-maschinenmoral-denkt/ nachgelesen werden.

Abb.: Menschen haben Bewusstsein

Wozu brauchen wir die Maschinenethik?

Im „Handbuch Maschinenethik“ ist im August 2018 der Beitrag „Wozu brauchen wir die Maschinenethik?“ von Oliver Bendel erschienen. Die Zusammenfassung: „Die Maschinenethik ist eine junge, dynamische Disziplin. Es ist einfach, ihren Gegenstand zu bestimmen, die Moral in der Maschine, und es fanden zahlreiche begriffliche Klärungen statt. Dennoch gibt es immer wieder Verwechslungen und Missverständnisse. Diese erinnern an die Diskussionen der ersten 40, 50 Jahre der Künstlichen Intelligenz. Dieser wurde vorgehalten, keine Fortschritte zu erzielen, ihr wurde vorgeworfen, dass Systeme nicht intelligent sein können, und es wurde von manchen nicht realisiert oder akzeptiert, dass man metaphorisch oder intentional sprechen kann, mit in die Zukunft gerichteten Absichten. Der vorliegende Beitrag will Grundlagen der Maschinenethik erarbeiten, ohne andere Grundlagenartikel und -bücher nachzuzeichnen und zusammenzufassen. Vielmehr wird, nachdem der Begriff der Maschinenethik erörtert wurde, die Frage beantwortet, warum wir eine solche Disziplin brauchen, zunächst aus philosophischer, dann aus praktischer Perspektive.“ Die Beiträge des von Oliver Bendel herausgegebenen Springer-Handbuchs erscheinen laufend und werden über link.springer.com/referencework/10.1007/978-3-658-17484-2 aufgeführt.

Abb.: Wie wird die Entscheidung ausfallen?

Tiere haben Rechte, Roboter nicht

Der Artikel „Haben Roboter Rechte?“ von Oliver Bendel aus der Zeitschrift Edison (Ausgabe 2/2018) kann hier heruntergeladen werden. Die zuständige Disziplin für diese Frage ist die Roboterethik (bzw. die Roboterphilosophie). Während sich die Maschinenethik auf die maschinelle Moral und damit allenfalls verbundene Pflichten oder Verpflichtungen konzentriert, interessiert sich die Roboterethik auch für moralische Rechte von Maschinen, insbesondere von Robotern. Schon vor Jahrzehnten hat man über diese Frage nachgedacht, doch in letzter Zeit gibt es diesbezügliche Überlegungen und Forderungen, denen man als Ethiker etwas entgegensetzen muss. Denn Oliver Bendel ist der Meinung, dass Roboter keine Rechte haben, haben werden und haben sollen. In seinen Ausführungen zieht er Vergleiche mit Menschen, Tieren und Pflanzen (Tiere haben Rechte, Pflanzen nicht). Er erwähnt in „Haben Roboter Rechte?“ auch Sophia, den humanoiden Roboter, dem in Saudi-Arabien die Staatsbürgerschaft verliehen wurde. Ihr wird in Edison zudem ein eigener Beitrag gewidmet.

Abb.: Tiere haben Rechte

Interview zu Cobots

In der Netzwoche 10/2018 findet sich ein ganzseitiges Interview mit Oliver Bendel zu Kooperations- und Kollaborationsrobotern, auch Co-Robots oder Cobots genannt. Der Informations- und Maschinenethiker hält die Teams oder Tandems aus Mensch und Maschine für nützlich und hilfreich. Mensch und Maschine spielen jeweils ihre Stärken aus. Der Mensch wird entlastet. Ein Problem könnte in Zukunft allerdings die Überwachung sein. Die Maschine kommt uns sehr nahe, und mit Hilfe ihrer Sensoren und ihrer Software könnte sie uns ausspionieren. Dies hat Oliver Bendel in einem anderen Interview, mit der SonntagsZeitung, betont. Im Moment überwiegen für ihn klar die Vorteile. Interessant findet er zudem, dass Kooperations- und Kollaborationsroboter nicht nur in Produktion und Logistik, sondern auch in Pflege und Therapie eingesetzt werden. Damit schlagen sie eine Brücke zwischen Industrie- und Servicerobotern. Das Interview kann mit freundlicher Genehmigung der Zeitschrift als PDF hier heruntergeladen oder auch online gelesen werden.