„Pflegeroboter“ bei Springer erschienen

Das Buch „Pflegeroboter“, herausgegeben von Oliver Bendel, ist im November 2018 bei Springer Gabler erschienen, herunterladbar bei SpringerLink (bis Ende des Jahres folgt die Printausgabe). Es bündelt technische, wirtschaftliche, medizinische und ethische Reflexionen über Pflegeroboter. Autorinnen und Autoren sind (in alphabetischer Reihenfolge) Elisabeth André, Heidrun Becker, Oliver Bendel, Hans Buxbaum, Sabine Daxberger, Nicola Döring, Michael Früh, Alina Gasser, Christoph Gisinger, Klaus Hauer, Manfred Hülsken-Giesler, Kathrin Janowski, Christoph Kehl, Jeanne Kreis, Birgit Lugrin, Katja Mombaur, Hartmut Remmers, Hannes Ritschel, Daniel Schilberg, Sumona Sen und Bernd Carsten Stahl. Manche Autoren gehen Fragen aus Wirtschafts-, Medizin- und Informationsethik nach: Wer trägt die Verantwortung bei einer fehlerhaften Betreuung und Versorgung durch die Maschine? Inwieweit kann diese die persönliche und informationelle Autonomie des Patienten unterstützen oder gefährden? Ist der Roboter eine Entlastung oder ein Konkurrent für Pflegekräfte? Weitere Informationen über www.springer.com/de/book/9783658226978. Zur Verfügung steht auch ein Flyer.

Proceedings of Robophilosophy 2018

In November 2018 the „Proceedings of Robophilosophy 2018“ with the title „Envisioning robots in society – power, politics, and public space“ were published. Editors are Mark Coeckelbergh, Janina Loh, Michael Funk, Johanna Seibt, and Marco Nørskov. In addition to the contributions of the participants, the book also contains abstracts and extended abstracts of the keynotes by Simon Penny, Raja Chatila, Hiroshi Ishiguro, Guy Standing, Catelijne Muller, Juha Heikkilä, Joanna Bryson, and Oliver Bendel (his article about service robots from the perspective of ethics is available here). Robophilosophy is the most important international conference for robophilosophy and roboethics. In February 2018 it took place at the University of Vienna. Machine ethics was also an issue this time. „Robots are predicted to play a role in many aspects of our lives in the future, affecting work, personal relationships, education, business, law, medicine and the arts. As they become increasingly intelligent, autonomous, and communicative, they will be able to function in ever more complex physical and social surroundings, transforming the practices, organizations, and societies in which they are embedded.“ (IOS Press) More information via www.ios.com.

Fig.: Robophilosophy in Vienna

Therapie und Robotik

„Therapieroboter unterstützen therapeutische Maßnahmen oder wenden selbst, häufig als autonome Maschinen, solche an. Sie sind mit ihrem Aussehen und in ihrer Körperlichkeit wie traditionelle Therapiegeräte präsent, machen aber darüber hinaus selbst Übungen mit Gelähmten, unterhalten Betagte und fordern Demente und Autisten mit Fragen und Spielen heraus. Manche verfügen über mimische, gestische und sprachliche Fähigkeiten und sind in einem bestimmten Umfang denk- und lernfähig (wenn man diese Begriffe auf Computersysteme anwenden will).“ Mit diesen Worten beginnt der Beitrag „Therapieroboter“ von Oliver Bendel für das Wirtschaftslexikon von Springer Gabler, erschienen im November 2018. Auch die Perspektive der Ethik wird eingenommen: „Der Frage der Verantwortung widmen sich Informationsethik und Medizinethik sowie Roboterethik. Der Hersteller (respektive der Entwickler) muss, zusammen mit dem Heim oder der Anstalt bzw. einer sonstigen Einrichtung, die Verantwortung tragen und die Haftung übernehmen. Allerdings kann er sich darauf berufen, dass die Effekte insgesamt positiv sein mögen, und darauf beharren, dass Einzelfälle mit negativen Implikationen in Kauf zu nehmen und zu verkraften seien.“ Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/therapieroboter-100563 abgerufen werden.

Abb.: Massagetherapie

The Effects of Voices

The University of Potsdam dedicates its current research to voices. The scientists – among them Dr. Yuefang Zhou and Katharina Kühne – are studying the first impression during communication. The survey website says: „The current study will last approximately 20 minutes. You will be asked some questions about the voice you hear. Please answer them honestly and spontaneously. There are no right or wrong answers; we are interested in your subjective perception. Just choose one out of the suggested alternatives.“ Prof. Dr. Oliver Bendel, FHNW School of Business, produced three samples and donated them to the project. „Your responses will be treated confidentially and your anonymity will be ensured. Your responses cannot be identified and related to you as an individual, if you choose to leave your e-mail address at the end of the study this cannot be linked back to your responses. All responses will be compiled together and analysed as a group.“ The questionnaire can be accessed via www.soscisurvey.de/impress/ (Link nicht mehr gültig).

Fig.: The effects of voices

Über Liebespuppen in der Schweiz

Unter der Überschrift “Die Maschine als Gespielin” berichtete die SonntagsZeitung am 21. Oktober 2018 über den zunehmenden Gebrauch von Liebespuppen und die Weiterentwicklung von Sexrobotern. Ein ähnlicher Artikel war bereits am 29. September des Jahres in der Süddeutschen Zeitung erschienen. Oliver Bendel und Christian Weber hatten sich im Münchner Excelsior am Hauptbahnhof getroffen und waren von dort in Gedanken nach Dortmund gereist, wo sich das Bordoll befindet, und nach Barcelona und Moskau. Auch in der Schweiz, erzählte der Informations- und Maschinenethiker aus Zürich, legt sich das eine oder andere Etablissement eine Liebespuppe zu. Beispiele sind das Studio Elite in Luzern, die OltenGirls in Olten und der Lust-Tempel in Wohlen. Die Bereitstellung und Nutzung von Liebespuppen muss nach seiner Meinung erforscht werden, wie auch die Frage, ob man sie in Pflege und Therapie einsetzen kann. Der Beitrag in der SonntagsZeitung kann hier heruntergeladen werden.

Abb.: Auch in der Schweiz verbreiten sich Liebespuppen

Übersetzung und KI: Gefahr oder Chance?

„Welchen Platz nimmt die Technologie des Posthumanismus in der Übersetzung ein? Die Geschichte der Künstlichen Intelligenz ist eng mit jener der Übersetzung verknüpft. Grund dafür ist vielleicht die Tatsache, dass die Suche nach dem tieferen Sinn etwas sehr Menschliches ist und einer Maschine kaum zugetraut wird.“ (Website ASTTI) Die maschinelle Übersetzung (engl. „machine translation“, kurz MT), seit jeher ein zentrales Thema im IT-Bereich, habe in den letzten Jahren enorme Fortschritte gemacht. Läutet sie, so der Schweizerische Übersetzer-, Terminologen- und Dolmetscherverband (ASTTI), das Ende der menschlichen Übersetzung ein? „Der ASTTI möchte diese Büchse der Pandora öffnen und lädt alle interessierten Sprachmittlerinnen und Sprachmittler zu seiner Jahrestagung équivalences ein, die sich am 16. November 2018 im Kursaal in Bern mit dem faszinierenden Thema MT auseinandersetzen wird.“ (Website ASTTI) Die Vortragenden sind Martin Kappus, Sabrina Girletti, Daria Caiano, Samuel Läubl, Alison López-Edge, Anna Busby, Hellmut Riediger, Gabriele Galati und Oliver Bendel. Mehr über new.astti.ch/web/Jahrestagung_equivalences_488_3.php.

Abb.: Maschinelle Simultanübersetzung

Mensch, Maschine und Verantwortung

Im Oktober 2018 ist ein neuer Beitrag im „Handbuch Maschinenethik“ erschienen. Er stammt von Julian Nida-Rümelin und Fiorella Battaglia und trägt den Titel „Mensch, Maschine und Verantwortung“. Im Abstract heißt es: „Verantwortung ist eine der größten Fragen, wenn nicht gar die Frage in der Ethik der Maschinen. In diesem Artikel werden wir für begriffliche Klärung sorgen. Damit wollen wir eine philosophische Auseinandersetzung mit der Frage nach der Verantwortung der Maschinen ermöglichen.“ Seit Ende 2016 sitzen renommierte Wissenschaftlerinnen und Wissenschaftler an ihren Kapiteln zum „Handbuch Maschinenethik“, das von Oliver Bendel herausgegeben wird. Anfang 2019 soll das gedruckte Werk auf den Markt kommen. Mit dabei sind etwa Luís Moniz Pereira aus Lissabon, einer der bekanntesten Maschinenethiker der Welt, und Roboterethikerin Janina Loh, die in Wien mit Mark Coeckelbergh zusammenarbeitet, zudem Catrin Misselhorn, die vor kurzem ihr Grundlagenwerk zur Maschinenethik bei Reclam veröffentlicht hat. Eine Übersicht über die Beiträge, die laufend elektronisch veröffentlicht werden, findet sich über link.springer.com/referencework/10.1007/978-3-658-17484-2

Abb.: Können Maschinen Verantwortung tragen?

 

Pflegeroboter im Fokus

„Hilf mir, Justin!“ lautet der Titel eines Beitrags von Sina Horsthemke im Magazin Focus-Gesundheit vom 23. Oktober 2018. Er beginnt mit folgenden Worten: „Obwohl Justin erst zehn Jahre alt ist, hat er die Kraft eines Erwachsenen. Seine blauen Arme sind so stark, dass er einen Kasten Bier tragen kann. Sie sind so lang, dass er Gegenstände aus 2,70 Meter Höhe greift. Trotz seiner 200 Kilo hält Justin auf seinen Rollen locker mit gehenden Menschen mit. Im Deutschen Zentrum für Luft- und Raumfahrt (DLR), wo Wissenschaftler den Roboter entwickelt haben, hat er alle Hände voll zu tun. Er übt für zukünftige Mars-Missionen. Und dafür, bald in einem Krankenhaus die Pflegekräfte zu unterstützen.“ Um Pflegeroboter geht es in dem vierseitigen, bebilderten Artikel, und zu Wort kommen u.a. Dr.-Ing. Alexander Dietrich (Leiter des „Smile“-Projekts am DLR in Oberpfaffenhofen bei München), Dr. rer. medic. Patrick Jahn (Leiter Stabsstelle Pflegeforschung am Universitätsklinikum Halle) und Prof. Dr. oec. HSG Oliver Bendel (Informations- und Maschinenethiker an der Hochschule für Wirtschaft FHNW in Brugg-Windisch). Das Heft kann über www.focus-magazin.de/focus-gesundheit bezogen werden.

Abb.: Unterstützung für Ärzte und Pfleger

Smart Machines and Save Animals

„With a few decades, autonomous and semi-autonomous machines will be found throughout Earth’s environments, from homes and gardens to parks and farms and so-called working landscapes – everywhere, really, that humans are found, and perhaps even places we’re not. And while much attention is given to how those machines will interact with people, far less is paid to their impacts on animals.“ (Anthropocene, October 10, 2018) „Machines can disturb, frighten, injure, and kill animals,“ says Oliver Bendel, an information systems professor at the University of Applied Sciences and Arts Northwestern Switzerland, according to the magazine. „Animal-friendly machines are needed.“ (Anthropocene, October 10, 2018) In the article „Will smart machines be kind to animals?“ the magazine Anthropocene deals with animal-friendly machines and introduces the work of the scientist. It is based on his paper „Towards animal-friendly machines“ (Paladyn) and an interview conducted by journalist Brandon Keim with Oliver Bendel. More via www.anthropocenemagazine.org/2018/10/animal-friendly-ai/.

Fig.: Also a cat can be safe, even on the street

Die Liebe zu Elfen

Unter der Überschrift „AI love you“ berichtete die Süddeutsche Zeitung am 29. September 2018 über den zunehmenden Gebrauch von Liebespuppen und die Weiterentwicklung von Sexrobotern. Vorausgegangen war ein einstündiges Interview mit Oliver Bendel, der als Informations- und Maschinenethiker dieses Phänomen erforscht. Der Journalist und er trafen sich im Münchner Excelsior am Hauptbahnhof und reisten von dort in Gedanken nach Dortmund, wo sich das Bordoll befindet, und nach Barcelona und Moskau. Auch in der Schweiz, erzählte der Ethiker, legt sich das eine oder andere Etablissement eine Liebespuppe zu. So weit wie das Bordoll, wo es keine Menschen mehr gibt, die Besitzerin und die Kunden ausgenommen, treibt es aber noch niemand. Im Bordoll interessieren sich die meist jungen Männer auch für Fantasyfiguren, für Elfen und Manga- und Animemädchen. So etwas muss erforscht werden, wie auch die Frage, ob man Liebespuppen in Pflege und Therapie einsetzen kann. Dieser Frage widmet sich wiederum ein aktueller Beitrag von Oliver Bendel in der IT for Health. Der Beitrag in der Süddeutschen kann hier kostenpflichtig abgerufen werden.

Abb.: Die Liebe zu Elfen

Der fröhliche Roboter

„Können Roboter fröhlich sein?“ So lautet der Titel eines Beitrags im neuen Aufbruch, der im Herbst 2018 erschienen ist. Das Google-Magazin ist seit wenigen Jahren auf dem Markt und wird von einer Agentur der Süddeutschen Zeitung produziert. „Künstliche Intelligenz“ ist der Titel der aktuellen Ausgabe, die u.a. dem Spiegel beiliegt. Die Antwort auf die genannte und die eine oder andere Frage gibt der Informations- und Maschinenethiker Oliver Bendel. Er ist der Meinung, dass Roboter bzw. KI-Systeme keine Gefühle haben und haben können. Der Forschung dazu will er sich dennoch nicht verschließen. So plant er, das Symposium „Towards Conscious AI Systems“ im Rahmen der AAAI 2019 Spring Symposium Series an der Stanford University zu besuchen. Wer oder was Bewusstsein hat, kann Gefühle entwickeln, so könnte man postulieren. Ein fröhlicher Roboter könnte ein Gewinn sein, ein trauriger ein Problem. Selbst wenn solche Maschinen nie erschaffen werden können – wir werden im Rahmen der Forschung viel über die Gefühle von Menschen erfahren. Das Interview kann hier heruntergeladen werden.

Abb.: Ein fröhlicher Mensch

Roboter gegen den Pflegenotstand?

Am 10. September 2018 wurde die Sendung „Pflege – Was kann sie leisten, was muss sich ändern?“ in Bayern 2 ausgestrahlt. Zu Wort kommt Oliver Bendel, Informations- und Maschinenethiker aus Zürich. Er beschäftigt sich seit mehreren Jahren mit Robotern in der Pflege. Er ist nicht der Meinung, dass diese den Pflegenotstand beheben können. Dafür braucht es andere Maßnahmen. Sie können aber die Pflegekraft unterstützen. Oliver Bendel hält es für wichtig, diese Perspektive einzunehmen und nicht ausschließlich auf den Patienten zu schauen. Natürlich ist dieser ebenso wichtig, und er ist sozusagen der Ausgangspunkt aller einschlägigen Strukturen und Prozesse. Für ihn bedeuten Pflegeroboter sowohl Vor- als auch Nachteile. Einerseits stärken sie seine persönliche Autonomie, machen ihn unabhängiger und beweglicher. Andererseits schwächen sie seine informationelle Autonomie. Manche der Roboter, die sich in Pflegeheimen und Krankenhäusern finden, verfügen über Kameras und Mikrofone und damit zusammenhängend über Gesichts- und Stimmerkennung. Das ist ebenso nützlich wie gefährlich. Der Podcast kann hier angehört werden (Link nicht mehr gültig).

Wer ist verantwortlich, wenn ein Roboter tötet?

Im „Tatort“ vom 16. September 2018 war der Roboter der Mörder. Wobei, er war eher das Werkzeug der Mörderin, die ihm eine neue Armbewegung beibrachte. Tatsächlich lassen sich Roboter dieser Art ganz einfach trainieren, indem man ihren Arm führt und die Bewegung abspeichert. Diese muss dann nur noch zur richtigen Zeit ablaufen. Im Krimi tat sie das, und das Opfer war so freundlich, sich genau so zu positionieren, dass sie – der Greifer umfasste eine metallene Spitze, die eigentlich zu anderen Zwecken diente – tödlich war. Die Frankfurter Allgemeine Zeitung vom selben Tag machte den Faktencheck. Sie hatte Oliver Bendel nach der Verantwortung gefragt. Nach seiner Meinung kann ein autonomer Roboter (oder ein KI-System) kaum eine moralische Verantwortung haben. Man könnte allenfalls sagen, dass er, indem er eine Aufgabe übernimmt, eine Verantwortung trägt. Dies wäre eine sehr schwache Form der Primärverantwortung. Man kann ihn nicht zur Verantwortung ziehen (Sekundärverantwortung), und wenn, dann gleitet man schon in die rechtliche Perspektive hinüber (Tertiärverantwortung). Wenn man einem Roboter Verantwortung überträgt, wird diese in gewisser Weise zerstört. Das macht dann nichts, wenn es sich um eine einfache Aufgabe ohne ernsthafte Konsequenzen handelt. Der Faktencheck kann über www.faz.net/aktuell/feuilleton/medien/tatort/der-neue-tatort-aus-berlin-im-faktencheck-15787708.html aufgerufen werden.

Abb.: Der Tod im „Tatort“ war nicht schön

Wie sollen Roboter gestaltet sein?

In einem Interview mit dem Schweizer Fernsehen, das in Ausschnitten am 6. September 2018 in 10vor10 ausgestrahlt wurde, wurde der Informations- und Maschinenethiker Oliver Bendel gefragt, ob es überhaupt und wozu es humanoide Roboter brauche. Er wies zunächst darauf hin, dass die Schaffung künstlicher Kreaturen ein Menschheitstraum sein. Man denke an Galatea von Pygmalion oder an Pandora und Talos von Hephaistos. Dann erklärte er, solche Roboter seien ein Spiegel des Menschen. Diese erblickten darin das, was sie sind und nicht sind, und sie verstünden, wie kompliziert ein Lächeln ist, wie schwer zu konstruieren. Nicht zuletzt gibt es Anwendungsbereiche, in denen humanoide Roboter sinnvoll sind, etwa die Hotelrezeption oder ein Bordell. Andere Bereiche eignen sich nicht oder nur bedingt. So muss der Pakethersteller nicht von seiner maschinellen Kopie ersetzt werden – es genügt ein kleiner, abstrakt gestalteter Roboter. Dass dieser dann zur Stolperfalle werden kann, ist ein anderes Thema. Der Beitrag, in dem Oliver Bendel zu Wort kommt, geht auf Sophia von Hanson Robotics und die Frage der Gestaltung von Robotern ein. Er kann hier aufgerufen werden.

Abb.: Sollen Roboter humanoid sein?

Haben Maschinen Bewusstsein?

VRODO hat ein Interview mit dem Roboterphilosophen, Informations- und Maschinenethiker Oliver Bendel geführt. Es ging um moralische Maschinen und am Rande auch um die Frage, ob Maschinen eines Tages Bewusstsein oder Selbstbewusstsein haben können. Für Oliver Bendel gehört zum Bewusstsein, dass eine innere Stimme ausruft: Ah, das ist ja die Welt! Diese innere Stimme kann seiner Meinung auch ein Tier haben. Jeder Igel, jede Kröte hat Bewusstsein. Zum Selbstbewusstsein gehört, dass die innere Stimme ausruft: Ah, das bin ja ich! Ein Affe hat Selbstbewusstsein. Der Roboterphilosoph denkt nicht, dass man ein echtes Bewusstsein von Maschinen wird schaffen können. Auf jeden Fall werde der Roboter nie mit seiner inneren Stimme ausrufen: Ah, das bin ja ich, der Roboter! „I, Robot“ – das sei Science-Fiction. Die Forschung über maschinelles Bewusstsein hält Oliver Bendel dennoch für wichtig. Bei einem der Symposien der AAAI Spring Symposia an der Stanford University wird es um dieses Thema gehen. Das Interview wurde von Maximilan Schreiner geführt und kann über the-decoder.de/was-ein-roboterphilosoph-ueber-maschinenmoral-denkt/ nachgelesen werden.

Abb.: Menschen haben Bewusstsein

Das BESTBOT-Projekt in den Medien

Der BESTBOT wurde in mehreren Medien thematisiert. In der ICTkommunikation vom 15. August 2018 war zu lesen: „Wie der Liebot ist der Bestbot ein vernetztes System, das z.B. Suchmaschinen und Lexika anzapft. Der Bestbot analysiert die Texteingaben des Users u.a. mit textbasierter Emotionserkennungssoftware. Zugleich wird Gesichtserkennung eingesetzt, wiederum mit Emotionserkennung. Wenn der Benutzer etwa angibt, dass es ihm gut geht, sein Gesicht aber anderes verrät, spricht der Chatbot diese Diskrepanz an.“ VRODO titelte am 10. September 2018 mit „Das Chatbot-Dilemma: Kann eine Maschine moralisch sein?“ und schrieb im Teaser: „Die Interaktion zwischen Mensch und Computer ist längst eine Sache der Moral, beispielsweise beim Tracking von Klicks. Zukünftige Mensch-Maschine-Schnittstellen setzen da noch etwas drauf: Sprache kann analysiert, das Gesicht gescannt und eine Bewegung registriert werden. Das verschärft das moralische Spannungsfeld.“ Die Zeitschrift hatte den BESTBOT getestet und ging ausführlich auf das System ein. Oliver Bendel, der Erfinder des Chatbots, ist der Meinung, dass sich in der moralischen Maschine eine unmoralische versteckt, nämlich eine, die die Freiheit des Benutzers bedroht.

Abb.: Versteckt sich in der moralischen Maschine eine unmoralische?