Über die Moral der Maschinen

Ein vierteiliges Interview mit dem Maschinenethiker und Wirtschaftsinformatiker Oliver Bendel ist am 31. Mai 2016 in Telepolis erschienen. Es geht um autonome Autos, um neuartige Chatbots wie den GOODBOT und um tierfreundliche Saugroboter wie LADYBIRD. Es geht um die Forschung in der Schweiz und in den USA und das Zusammenleben mit den Maschinen. Zum Verkehr der Zukunft sagt Bendel: „Was also tun? Ich rate hartnäckig dazu, bestimmte Maschinen in offenen Welten nicht auf uns loszulassen. Es sind vermutlich tragfähige Kompromisse möglich. Man kann autonome Autos in den Städten verbieten und zwischen den Städten fahren lassen, auf bestimmten Spuren, wobei der Spurwechsel meist gut beherrscht wird, zu bestimmten Uhrzeiten, mit bestimmten Geschwindigkeiten. Eventuell auch im Entenmarsch, ein Auto fährt voran, die anderen bilden eine Kette wie die Küken hinter der Mutter. Projekte dieser Art hat es gegeben. Bei einer solchen Entflechtung des Verkehrs sind diejenigen beruhigt, die dem autonomen Auto misstrauen, und es werden kaum Unfälle mit konventionellen Fahrzeugen auftreten.“ (Telepolis, 31. Mai 2016) Der Beitrag mit dem Titel „Über die Moral der Maschinen und eine programmierte Ethik“ kann über www.heise.de/tp/artikel/48/48387/1.html abgerufen werden.

Duck

Abb.: Über den Entenmarsch staunt auch die Quietscheente

From Teledildonics to Roboethics

The second international congress on „Love and Sex with Robots“ will be taking place in London, from 19 to 20 December 2016. Topics are robot emotions, humanoid robots, clone robots, entertainment robots, teledildonics, intelligent electronic sex hardware and roboethics. In the introduction it is said: „Within the fields of Human-Computer Interaction and Human-Robot Interaction, the past few years have witnessed a strong upsurge of interest in the more personal aspects of human relationships with these artificial partners. This upsurge has not only been apparent amongst the general public, as evidenced by an increase in coverage in the print media, TV documentaries and feature films, but also within the academic community.“ (Website LSR 2016) The congress „provides an excellent opportunity for academics and industry professionals to present and discuss their innovative work and ideas in an academic symposium“ (Website LSR 2016). According to the CfP, full papers should „be no more than 10 pages (excluding references) and extended abstracts should be no more than 3 pages (excluding references)“ (Website LSR 2016). More information via loveandsexwithrobots.org.

Logo_Congress

Fig.: Logo and mascot of the congress

Roboterethik im Deutschlandfunk

Am Donnerstag, 26. Mai 2016, ist der Wirtschaftsinformatiker, Informationsethiker und Maschinenethiker Oliver Bendel im Gespräch mit Inge Breuer. Das Schwerpunktthema im Deutschlandfunk lautet „Roboterethik: Wieviel Moral brauchen intelligente Maschinen?“ Aus der Ankündigung des Senders: „Bereits heute übernehmen Roboter eine Vielzahl von Aufgaben in der Industrie, im Finanzsektor, aber zunehmend auch bei Serviceleistungen, in der Pflege und im Verkehr. Diese schlauen Maschinen werden zunehmend autonomer und können auch komplexe Entscheidungen selbst treffen. Je autonomer solche intelligenten Systeme aber handeln, desto mehr stellt sich die Grundfrage nach der moralischen Fundierung der von diesen Maschinen getroffenen Entscheidungen. Wie vermag die ‚Moral der Maschine‘ sichergestellt, wie weit kann sie ihr von Beginn an ‚einprogrammiert‘ werden? Z.B. bei einem selbstfahrenden Auto: Soll es einem Unfall ausweichen, wenn es erkennt, dass dann stattdessen ein anderer den Unfall haben wird? Sind die eigenen Insassen – und damit Kunden des Herstellers – schutzwürdiger als Dritte? Wer trägt die Verantwortung für die Entscheidungen der Maschine? Zunehmend wird auch in Deutschland die Frage gestellt, ob man (teil-)autonomen Systemen so etwas wie Moral beibringen kann.“ Die Rubrik „Aus Kultur- und Sozialwissenschaften“ wird ab 20.10 Uhr ausgestrahlt.

Walker

Abb.: Wohin geht der Robot?

Grundrechte für Primaten

Grundrechte für Primaten fordert ein Positionspapier, das im April 2016 erschienen ist. Im Abstract heißt es: „Nichtmenschliche Primaten sind hochkomplexe Wesen und besitzen ein fundamentales Interesse daran, zu leben und körperlich und geistig unversehrt zu bleiben. Die bestehenden rechtlichen Bestimmungen in der Schweiz tragen diesen Interessen aber kaum Rechnung, weshalb Primaten des Schutzes durch Grundrechte bedürfen. Um die Forderung nach Grundrechten umzusetzen, wird ein konkreter Vorschlag für eine kantonale Initiative gemacht, die die Verankerung von Grundrechten auf Leben und auf körperliche und geistige Unversehrtheit für nichtmenschliche Primaten auf kantonaler Verfassungsstufe verlangt.“ Autorinnen und Autoren sind Raffael Fasel (Sentience Politics), Charlotte Blattner (PhD-Kandidatin im Völker- und Tierrecht, Universität Basel), Adriano Mannino (Präsident von Sentience Politics) und Tobias Baumann (Leiter Strategie von Sentience Politics). Als Unterstützer werden Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft, Fachhochschule Nordwestschweiz FHNW) und Prof. Dr. Markus Wild (Universität Basel) genannt. Bendel verbindet in seiner Forschung Maschinen- und Tierethik und hat im April 2016 zur Tier-Maschine-Interaktion an der Universität Bochum vorgetragen. Wild vertritt an seiner Hochschule u.a. die Tierphilosophie, inklusive der Tierethik, sowie die Philosophie der Biologie. Das Positionspapier kann direkt über sentience-politics.org heruntergeladen werden (Link nicht mehr gültig).

Primat

Abb.: Ein Primat wie du und ich

Contributions on Machine Ethics

The proceedings of the AAAI conference 2016 have been published in March 2016 („The 2016 AAAI Spring Symposium Series: Technical Reports“). The symposium „Ethical and Moral Considerations in Non-Human Agents“ was dedicated to the discipline of machine ethics. Ron Arkin (Georgia Institute of Technology), Luís Moniz Pereira (Universidade Nova de Lisboa), Peter Asaro (New School for Public Engagement, New York) and Oliver Bendel (School of Business FHNW) spoke about moral and immoral machines. The contribution „Annotated Decision Trees for Simple Moral Machines“ (Oliver Bendel) can be found on the pages 195 – 201. In the abstract it is said: „Autonomization often follows after the automization on which it is based. More and more machines have to make decisions with moral implications. Machine ethics, which can be seen as an equivalent of human ethics, analyses the chances and limits of moral machines. So far, decision trees have not been commonly used for modelling moral machines. This article proposes an approach for creating annotated decision trees, and specifies their central components. The focus is on simple moral machines. The chances of such models are illustrated with the example of a self-driving car that is friendly to humans and animals. Finally the advantages and disadvantages are discussed and conclusions are drawn.“ The proceedings can be ordered via www.aaai.org.

Qualifizierung des Faktors Mensch

Nach dem Wunsch von Alexander Dobrindt sollen „Autopilot und Fahrer rechtlich gleichgestellt“ werden, wie die Welt am 22. Mai berichtet. Der Verkehrsminister will zudem „ethische Fragen klären lassen“ (Die Welt, 22. Mai 2016). „Denn die Automatisierung kann zu moralisch kaum lösbaren Problemen führen. So sind Situationen vorstellbar, in denen ein Fahrzeug zwar einen Unfall nicht mehr verhindern, aber noch die Entscheidung treffen kann, ob es nach links ausweicht, wo eine Gruppe Schulkinder steht oder nach rechts wo ein älterer Fußgänger gerade die Straße überquert.“ (Die Welt, 22. Mai 2016) Dobrindt wolle deshalb „unter Beteiligung von Wissenschaft, Automobilindustrie und Digitalwirtschaft eine Kommission“ gründen, „die klare Leitlinien für Algorithmen entwickelt, welche die Fahrzeugreaktionen in Risikosituationen bestimmen“ (Die Welt, 22. Mai 2016). Allerdings will der Minister schon jetzt zwei Grundsätze für die Computersteuerungen vorgeben: 1. „Ein autonomes Auto müsse sich im Zweifel immer für den Sachschaden und gegen den Personenschaden entscheiden.“ Und 2: „Eine Qualifizierung des Faktors Mensch ist unzulässig“, wie es im entsprechenden Strategiepapier heißt. Ein Minister dürfe nur so wertvoll sein „wie alle anderen Menschen“ (Die Welt, 22. Mai 2016). Die Zeitung bemerkt dazu ganz richtig: „Doch gelöst ist das Problem mit dieser Festlegung natürlich noch nicht, denn nach irgendeinem Prinzip muss das Auto schließlich entscheiden, in welche Richtung es ausweicht, wenn ein Unfall unvermeidlich ist.“ Man darf gespannt sein, wer in die Kommission berufen wird und wie unabhängig diese ist. Die Welt hat in der Vergangenheit immer wieder über autonome Autos aus Sicht der Maschinenethik berichtet, etwa in diesem Artikel von Barbara Schneider und diesem Beitrag von Philipp Vetter.

 

Yellow_Car

Abb.: Ist es so freundlich, wie es scheint?

Blechpolizisten mit Elektroschockern

Im Silicon Valley sind Überwachungsroboter von Knightscope im Einsatz. Oliver Bendel – der Autor des Artikels „Blechpolizisten mit Elektroschockern“ – begegnete einem von ihnen im Shopping Center bei der Stanford University, an der er kurz zuvor einen Vortrag über Roboterautos gehalten hatte. Fast wäre er mit ihm zusammengestoßen, als er von Tür zu Tür, von Gebäude zu Gebäude unterwegs war. Es war ein milder Frühlingstag im März 2016, und vom ewigen Regen des Vormonats war nichts mehr zu sehen. „Überwachungsroboter dieser Art markieren physische Präsenz. Sie mischen sich unter die Menschen und rollen neben den Tieren.“ (inside-it.ch, 19. Mai 2016) Wenn es leer werde auf den Straßen und Wegen, seien ihre Silhouetten und Schatten zu sehen, und in den Räumen und Gebäuden seien sie diejenigen, die das Licht ausmachen. Neben dem K5 und dem kleinen Bruder, dem K3, ist seit kurzem ein weiteres Modell auf dem Markt. In China schaut der AnBot nach dem Rechten, und wenn er einen Verdächtigen entdeckt, kann er den Elektroschocker auf ihn richten. Während er im normalen Betrieb ein autonomer Roboter ist, wird er in einem solchen Fall zum Teleroboter: Die Waffe wird von einem Menschen ferngesteuert und im Ernstfall betätigt. Der Beitrag von Oliver Bendel, in dem auch ethische Aspekte angesprochen werden, ist am 19. Mai 2016 in der Zeitschrift inside-it.ch erschienen und kann über www.inside-it.ch/post/blechpolizisten-mit-elektroschockern-20160519 aufgerufen werden.

AnBot

Abb.: Ein Verwandter von AnBot und K5 bzw. K3

The GOODBOT Project

„The GOODBOT project was realized in 2013/14 in the context of machine ethics. First the tutoring person (the author of this contribution) laid out some general considerations. Then a student practice project was tendered within the school. Three future business informatics scientists applied for the practice-related work, developed the prototype over several months in cooperation with the professor, and presented it early in 2014. The successor project LIEBOT started in 2016.“ These are the initial words of a new contribution in Germany’s oldest online magazine, Telepolis. The author, Oliver Bendel, presents the GOODBOT project which is a part of his research on machine ethics. „The GOODBOT responds more or less appropriately to morally charged statements, thereby it differs from the majority of chatbots. It recognizes problems as the designers anticipated certain emotive words users might enter. It rates precarious statements or questions and escalates on multiple levels. Provided the chat runs according to standard, it is just a standard chatbot, but under extreme conditions it turns into a simple moral machine.“ The article „The GOODBOT Project: A Chatbot as a Moral Machine“ was published on May 17, 2016 and can be opened via http://www.heise.de/tp/artikel/48/48260/1.html.

Maschinen in Entscheidungsnot

Der Beitrag „Wer ist verantwortlich, wenn die künstliche Intelligenz versagt?“ wird am 17. Mai 2016 auf Deutschlandradio Kultur wiederholt. Heiner Kiesel widmet sich erneut – wie am 12. Januar 2016 – „Maschinen in Entscheidungsnot“. Im Ankündigungstext auf der Website heißt es: „In den 30er-Jahren des letzten Jahrhunderts hat der Biochemiker und Science-Fiction-Autor Isaac Asimov drei einfache Gesetze für Roboter aufgestellt. Damit sollte die Gefährdung von Menschen durch autonome Systeme ausgeschlossen werden. In der Gegenwart nimmt die Selbstständigkeit von Robotern konkrete Züge an. Selbststeuernde Autos nehmen am Straßenverkehr teil, Pflegeroboter werden für den Einsatz in Pflegestationen getestet und das Militär forscht mit Hochdruck an Kampfrobotern, die ihre Aufträge effizient und autonom abarbeiten. Wir sind dabei, viele Entscheidungen an die dienstfertigen Maschinen zu übergeben. Es wird unser Leben verändern. Aber während die technische Entwicklung rasant voranschreitet, gibt es kaum eine Perspektive darauf, wie die Gesetze heute aussehen müssen, die die rechtlichen und gesellschaftlichen Folgen unter Kontrolle bringen.“ (Website Deutschlandradio Kultur) Der Beitrag mit Statements von Oliver Bendel und Eric Hilgendorf beginnt kurz nach 19:00 Uhr. Weitere Informationen über www.deutschlandradiokultur.de/.

calculator

Abb.: Was ist, wenn der Roboter sich verrechnet?

A Robot in the Robot

NeXus, the magazine of the student projects connectUS, Focus India, Insight China and exploreASEAN (University of Applied Sciences and Arts Northwestern Switzerland FHNW), interviewed the machine ethicist and business information systems engineer Prof. Dr. Oliver Bendel. The first question Stephen Randes asked was: „Cars are an integral part of US culture and identity. How will self-driving cars be accepted in that market?“ The answer: „Some Americans will surely miss the fun of driving. However, there is a new kind of driving enjoyment. As everyone knows who has ever tried out the autopilot of the Tesla model S. Whether the social approval will be given remains to be seen. There are certainly reasons to reject autonomous cars in particular areas.“ The next question: „What about safety concerns? What happens if an accident cannot be avoided?“ The scientist’s answer: „This is a subject that we explore in machine ethics: whom shall the autonomous car kill if it cannot brake in time? You can teach it rules or feed it with cases, and make it a complex moral machine that decides on people’s life and death. I, personally, argue in favor of simple moral machines. I am not against robot cars – I advise not to let them drive at any place and at any time. It is a question of avoiding accidents if possible.“ The last question related again to the market and the development of mobility: „Market analysts expect 10 million self-driving cars on the roads by 2020. How do you think this will change mobility (individual transport, public transport, workplace commutes)?“ Oliver Bendel declared: „I see opportunities for public transport. In the Valais, PostAuto is testing autonomous shuttles. Their speed is very low, so that there can be hardly any damage. Private autonomous cars are well suited for the traffic between cities. New forms of car sharing are possible as well. Maybe one day self-driving cars might even be sent to fetch a pizza, which, however, implies that there is a robot in the robot – except the pizza is simply thrown into the car.“ A part of the interview was published in the April issue, including further information on the person and the motivation.

Mobile_Robot

Fig.: This robot could take the pizza

The LIEBOT Project

The LIEBOT project is based on preparatory works by Prof. Dr. Oliver Bendel who already initiated the GOODBOT, a chatbot which can be considered a simple moral machine. Since 2013 he has published several articles on this subject and presented automatic strategies with a view to lying. A business informatics student of the School of Business FHNW, Kevin Schwegler, was contracted early in 2016 to implement the LIEBOT (aka LÜGENBOT) as a prototype in the scope of his graduation thesis under consideration and continuance of the preparatory works. The objective of the LIEBOT project is to give practical evidence of the potential of lies and risks of natural language systems. Online media and websites create or aggregate more and more texts automatically (robo-content) and robo-journalism is growing. Natural language dialog systems are becoming very popular. The chatbot to be programmed – the LIEBOT – shall be able to produce untruths and to respond in a morally inadequate manner. This makes it a reversion of the premise applied to the development of the GOODBOT and a continuance of the corresponding work under new auspices. A simple immoral machine is born. Further information as from autumn 2016 via luegenbot.ch and liebot.org (links no longer valid).

Fig.: From truth to lie

Maschinenethik im Kassensaal

Am 2. Mai 2016 fand in Wien eine öffentliche Sitzung der österreichischen Bioethikkommission zum Thema „Von Mensch und Maschine: Roboter in der Pflege“ statt. Wegen des großen Andrangs war sie in den Kassensaal, wo früher Geldgeschäfte getätigt wurden, verlegt worden, einen prächtigen Saal der Bundesregierung. Zunächst trafen sich die Referenten zu einem Hintergrundgespräch mit Pressevertretern im Bundeskanzleramt am Minoritenplatz. Nach einem Mittagessen im Café Landtmann ging man in den Kassensaal hinüber. Die Vorsitzende der Bioethikkommission, Christiane Druml, eröffnete die Veranstaltung. Oliver Bendel von der Hochschule für Wirtschaft FHNW referierte zu Maschinen- und Informationsethik und zu ethischen Fragen des Einsatzes von Pflegerobotern. Er ist der Meinung, dass diese die persönliche Autonomie von Patienten verbessern, aber auch deren informationelle Autonomie verletzen können. Mark Coeckelbergh, inzwischen an der Universität Wien tätig, fragte nach den Anforderungen in der Pflege und wie Pflegeroboter, auch aus Sicht der Maschinenethik, dazu passen, und Michael Decker vom KIT in Karlsruhe präsentierte ein aktuelles Projekt in diesem Bereich. Grundsätzliche Technologiekritik übte Jutta Weber von der Universität Paderborn. Markus Wohlmannstetter von der Krankenanstalt Rudolfstiftung nahm die Perspektive der Pflegerinnen und Pfleger ein. Ina Wagner, Mitglied der Bioethikkommission, fasste die Ergebnisse zusammen. Im Anschluss stellten Mitglieder der Kommission und der Öffentlichkeit eine Stunde lang ihre Fragen, wobei nicht nur teilautonome Pflege-, sondern auch autonome Kampfroboter thematisiert wurden, deren Einsatz ein älterer Österreicher forderte, während Oliver Bendel sich dagegen aussprach, obwohl sie, wie er erklärte, nicht plündern, brandschatzen oder vergewaltigen, also auch gewisse Vorteile hätten. Am Ende wurden die Referenten, die der Alpenrepublik ihre Erkenntnisse honorarfrei übermittelt hatten, mit einem kräftigen Applaus verabschiedet. Weitere Informationen und Fotos über www.ots.at/presseaussendung/OTS_20160503_OTS0014/bioethikkommission-diskutiert-den-einsatz-von-robotern-im-pflegebereich

 

Roboterautos aus Sicht von Automobilindustrie und Maschinenethik

„Die Maschinenethik, eine Gestaltungsdisziplin mit Nähe zu Künstlicher Intelligenz (KI) und Robotik, hat ihre eigenen Workshops und Tagungen, in den USA und in Polen, und immer mehr Publikationen erscheinen. Im März 2016 trafen sich ihre Vertreter in Stanford im Rahmen der AAAI Spring Symposia, im Juli will man sich in New York bei der IJCAI16 austauschen, etwa über Roboterautos.“ Mit diesen Worten beginnt ein Artikel von Oliver Bendel, der am 29. April 2016 in ICTkommunikation erschienen ist. „Die Automobilindustrie reagiert auf die Überlegungen und Vorschläge zum Teil aufgeschlossen, zum Teil abwehrend. Sie wittert ein Milliardengeschäft und rüstet sich für die Herausforderungen und die Auseinandersetzungen.“ (ICTkommunikation, 29. April 2016) Der Verfasser erklärt in seinem Beitrag mit dem Titel „Roboterautos aus Sicht von Automobilindustrie und Maschinenethik“ zentrale Begriffe und Ansätze der Maschinenethik, wobei er Äußerungen aus der Wirtschaft einbezieht, und spricht sich für autonome Autos in bestimmten Bereichen aus. Mehr über ictk.ch/inhalt/roboterautos-aus-sicht-von-automobilindustrie-und-maschinenethik.

Mercedes_Robocar

Abb.: Wie sieht das Auto der Zukunft aus und wo fährt es?

Robots‘ Ethical Systems

„A Construction Manual for Robots‘ Ethical Systems“, herausgegeben von Robert Trappl, widmet sich „modern applications such as assistive robots and self-driving cars“. Der Verlag schreibt in seiner Information: „This book will help researchers and engineers in the design of ethical systems for robots, addressing the philosophical questions that arise and exploring modern applications such as assistive robots and self-driving cars. The contributing authors are among the leading academic and industrial researchers on this topic and the book will be of value to researchers, graduate students and practitioners engaged with robot design, artificial intelligence and ethics.“ (Information Springer) Das Buch mit Beiträgen von Luís Moniz Pereira, Ari Saptawijaya, Michael Anderson und Susan Leigh Anderson ist 2015 bei Springer erschienen und hat 210 Seiten. Weitere Informationen über www.springer.com/de/book/9783319215471.

Automatisiertes Fahren und Ethik

Das DVR-Forum „Automatisiertes Fahren und Ethik“ findet am 14. Juni 2016 in der Berlin-Brandenburgischen Akademie der Wissenschaften statt. Der Untertitel „Welche Entscheidungen wollen wir Maschinen überlassen?“ deutet den Schwerpunkt an. In der Beschreibung heißt es: „Schon heute werden wir durch Assistenzfunktionen beim Autofahren unterstützt. Diese helfen, Unfälle zu vermeiden oder deren Folgen zu vermindern. In nicht allzu ferner Zukunft werden hochautomatisierte Fahrfunktionen folgen: Das Fahrzeug übernimmt – zunächst zeitweise – die Fahraufgabe, es gibt Gas, lenkt und bremst. Die Fahrenden können sich in dieser Zeit anderweitig beschäftigen und müssen die Fahrsituation nicht überwachen. Doch was geschieht beim hochautomatisierten Fahren in einem Notfall, wenn sich ein Unfall nicht mehr vermeiden lässt?“ Und weiter: „In solchen Situationen müssen die Fahrzeuge in Sekundenbruchteilen Entscheidungen treffen. Dafür müssen sie programmiert werden, Menschen müssen festlegen, wie das Auto reagieren soll. In rasender Geschwindigkeit kann die Maschine viele Möglichkeiten durchspielen und die Reaktion auswählen, die den größten Erfolg – bzw. den geringsten Schaden – verspricht. An der Podiumsdiskussion nehmen Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW), Prof. Dr. Dr. Eric Hilgendorf (Universität Würzburg), Prof. Dr. Jürgen Leohold (Volkswagen AG), Prof. Dr. Volker Lüdemann (Hochschule Osnabrück) und Prof. Klaus Kompaß (BMW Group) teil. Es moderiert Monika Jones von der Deutschen Welle. Weitere Informationen über www.tag-der-verkehrssicherheit.de.

TagderVS

Abb.: Logo des Tags der Verkehrssicherheit

Von Mensch und Maschine

Eine öffentliche Sitzung der österreichischen Bioethikkommission trägt den Titel „Von Mensch und Maschine: Roboter in der Pflege“. Sie findet am 2. Mai 2016 im Bundeskanzleramt in Wien statt. Es tragen nach der Eröffnung von Dr. Christiane Druml (Vorsitzende der Bioethikkommission) vor: Prof. Dr. Oliver Bendel, Fachhochschule Nordwestschweiz, Institut für Wirtschaftsinformatik („Die Maschine in der Moral“), Prof. Dr. Mark Coeckelbergh, Universität Wien, Institut für Philosophie („Machine ethics in healthcare“), Prof. Dr. Michael Decker, Karlsruhe Institut für Technologie, Institut für Philosophie („Einsatz von Robotern in der Pflege – empirische Erfahrungen“), Prof. Dr. Jutta Weber, Universität Paderborn, Institut für Medienwissenschaften („Maschinelle Versorgung: Die impliziten Werte der sozialen Robotik und ihre gesellschaftlichen Konsequenzen“) und Markus Wohlmannstetter, MSc., Anästhesiologische Intensivstation 1B, Krankenanstalt Rudolfstiftung („Einsatz von Robotern in der Pflege – aus der Sicht der Pflege“). Das „Wrap-up“ verantwortet Prof. Dr. Ina Wagner, Mitglied der Bioethikkommission. Weitere Informationen über den Flyer zur Veranstaltung.

Bett

Abb.: Das Bett bleibt nicht leer