Facing Social Robots – Emotional Reactions towards Social Robots

2020 
Ein Army Colonel empfindet Mitleid mit einem Roboter, der versuchsweise Landminen entscharft und deklariert den Test als inhuman (Garreau, 2007). Roboter bekommen militarische Beforderungen, Beerdigungen und Ehrenmedaillen (Garreau, 2007; Carpenter, 2013). Ein Schildkrotenroboter wird entwickelt, um Kindern beizubringen, Roboter gut zu behandeln (Ackermann, 2018). Der humanoide Roboter Sophia wurde erst kurzlich Saudi-Arabischer Staatsburger und es gibt bereits Debatten, ob Roboter Rechte bekommen sollen (Delcker, 2018). Diese und ahnliche Entwicklungen zeigen schon jetzt die Bedeutsamkeit von Robotern und die emotionale Wirkung die diese auslosen. Dennoch scheinen sich diese emotionalen Reaktionen auf einer anderen Ebene abzuspielen, gemessen an Kommentaren in Internetforen. Dort ist oftmals die Rede davon, wieso jemand uberhaupt emotional auf einen Roboter reagieren kann. Tatsachlich ist es, rein rational gesehen, schwierig zu erklaren, warum Menschen mit einer leblosen (‚mindless‘) Maschine mitfuhlen sollten. Und dennoch zeugen nicht nur oben genannte Berichte, sondern auch erste wissenschaftliche Studien (z.B. Rosenthal- von der Putten et al., 2013) von dem emotionalen Einfluss den Roboter auf Menschen haben konnen. Trotz der Bedeutsamkeit der Erforschung emotionaler Reaktionen auf Roboter existieren bislang wenige wissenschaftliche Studien hierzu. Tatsachlich identifizierten Kappas, Krumhuber und Kuster (2013) die systematische Analyse und Evaluation sozialer Reaktionen auf Roboter als eine der grosten Herausforderungen der affektiven Mensch-Roboter Interaktion. Nach Scherer (2001; 2005) bestehen Emotionen aus der Koordination und Synchronisation verschiedener Komponenten, die miteinander verknupft sind. Motorischer Ausdruck (Mimik), subjektives Erleben, Handlungstendenzen, physiologische und kognitive Komponenten gehoren hierzu. Um eine Emotion vollstandig zu erfassen, mussten all diese Komponenten gemessen werden, jedoch wurde eine solch umfassende Analyse bisher noch nie durchgefuhrt (Scherer, 2005). Hauptsachlich werden Fragebogen eingesetzt (vgl. Bethel & Murphy, 2010), die allerdings meist nur das subjektive Erleben abfragen. Bakeman und Gottman (1997) geben sogar an, dass nur etwa 8% der psychologischen Forschung auf Verhaltensdaten basiert, obwohl die Psychologie traditionell als das ‚Studium von Psyche und Verhalten‘ (American Psychological Association, 2018) definiert wird. Die Messung anderer Emotionskomponenten ist selten. Zudem sind Fragebogen mit einer Reihe von Nachteilen behaftet (Austin, Deary, Gibson, McGregor, Dent, 1998; Fan et al., 2006; Wilcox, 2011). Bethel und Murphy (2010) als auch Arkin und Moshkina (2015) pladieren fur einen Multi-Methodenansatz um ein umfassenderes Verstandnis von affektiven Prozessen in der Mensch-Roboter Interaktion zu erlangen. Das Hauptziel der vorliegenden Dissertation ist es daher, mithilfe eines Multi-Methodenansatzes verschiedene Komponenten von Emotionen (motorischer Ausdruck, subjektive Gefuhlskomponente, Handlungstendenzen) zu erfassen und so zu einem vollstandigeren und tiefgreifenderem Bild emotionaler Prozesse auf Roboter beizutragen. Um dieses Ziel zu erreichen, wurden drei experimentelle Studien mit insgesamt 491 Teilnehmern durchgefuhrt. Mit unterschiedlichen Ebenen der „apparent reality“ (Frijda, 2007) sowie Macht / Kontrolle uber die Situation (vgl. Scherer & Ellgring, 2007) wurde untersucht, inwiefern sich Intensitat und Qualitat emotionaler Reaktionen auf Roboter andern und welche weiteren Faktoren (Aussehen des Roboters, emotionale Expressivitat des Roboters, Behandlung des Roboters, Autoritatsstatus des Roboters) Einfluss ausuben. Experiment 1 basierte auf Videos, die verschiedene Arten von Robotern (tierahnlich, anthropomorph, maschinenartig), die entweder emotional expressiv waren oder nicht (an / aus) in verschiedenen Situationen (freundliche Behandlung des Roboters vs. Misshandlung) zeigten. Fragebogen uber selbstberichtete Gefuhle und die motorisch-expressive Komponente von Emotionen: Mimik (vgl. Scherer, 2005) wurden analysiert. Das Facial Action Coding System (Ekman, Friesen, & Hager, 2002), die umfassendste und am weitesten verbreitete Methode zur objektiven Untersuchung von Mimik, wurde hierfur verwendet. Die Ergebnisse zeigten, dass die Probanden Gesichtsausdrucke (Action Unit [AU] 12 und AUs, die mit positiven Emotionen assoziiert sind, sowie AU 4 und AUs, die mit negativen Emotionen assoziiert sind) sowie selbstberichtete Gefuhle in Ubereinstimmung mit der Valenz der in den Videos gezeigten Behandlung zeigten. Bei emotional expressiven Robotern konnten starkere emotionale Reaktionen beobachtet werden als bei nicht-expressiven Robotern. Der tierahnliche Roboter Pleo erfuhr in der Misshandlungs-Bedingung am meisten Mitleid, Empathie, negative Gefuhle und Traurigkeit, gefolgt vom anthropomorphen Roboter Reeti und am wenigsten fur den maschinenartigen Roboter Roomba. Roomba wurde am meisten Antipathie zugeschrieben. Die Ergebnisse knupfen an fruhere Forschungen an (z.B. Krach et al., 2008; Menne & Schwab, 2018; Riek et al., 2009; Rosenthal-von der Putten et al., 2013) und zeigen das Potenzial der Mimik fur eine naturliche Mensch-Roboter Interaktion. Experiment 2 und Experiment 3 ubertrugen die klassischen Experimente von Milgram (1963; 1974) zum Thema Gehorsam in den Kontext der Mensch-Roboter Interaktion. Die Gehorsamkeitsstudien von Milgram wurden als sehr geeignet erachtet, um das Ausmas der Empathie gegenuber einem Roboter im Verhaltnis zum Gehorsam gegenuber einem Roboter zu untersuchen. Experiment 2 unterschied sich von Experiment 3 in der Ebene der „apparent reality“ (Frijda, 2007): in Anlehnung an Milgram (1963) wurde eine rein text-basierte Studie (Experiment 2) einer live Mensch-Roboter Interaktion (Experiment 3) gegenubergestellt. Wahrend die abhangigen Variablen von Experiment 2 aus den Selbstberichten emotionaler Gefuhle sowie Einschatzungen des hypothetischen Verhaltens bestand, erfasste Experiment 3 subjektive Gefuhle sowie reales Verhalten (Reaktionszeit: Dauer des Zogerns; Gehorsamkeitsrate; Anzahl der Proteste; Mimik) der Teilnehmer. Beide Experimente untersuchten den Einfluss der Faktoren „Autoritatsstatus“ (hoch / niedrig) des Roboters, der die Befehle erteilt (Nao) und die emotionale Expressivitat (an / aus) des Roboters, der die Strafen erhalt (Pleo). Die subjektiven Gefuhle der Teilnehmer aus Experiment 2 unterschieden sich zwischen den Gruppen nicht. Daruber hinaus gaben nur wenige Teilnehmer (20.2%) an, dass sie den „Opfer“-Roboter definitiv bestrafen wurden. Ein ahnliches Ergebnis fand auch Milgram (1963). Das reale Verhalten von Versuchsteilnehmern in Milgrams‘ Labor-Experiment unterschied sich jedoch von Einschatzungen hypothetischen Verhaltens von Teilnehmern, denen Milgram das Experiment nur beschrieben hatte. Ebenso lassen Kommentare von Teilnehmern aus Experiment 2 darauf schliesen, dass das beschriebene Szenario moglicherweise als fiktiv eingestuft wurde und Einschatzungen von hypothetischem Verhalten daher kein realistisches Bild realen Verhaltens gegenuber Roboter in einer live Interaktion zeichnen konnen. Daher wurde ein weiteres Experiment (Experiment 3) mit einer Live Interaktion mit einem Roboter als Autoritatsfigur (hoher Autoritatsstatus vs. niedriger) und einem weiteren Roboter als „Opfer“ (emotional expressiv vs. nicht expressiv) durchgefuhrt. Es wurden Gruppenunterschiede in Fragebogen uber emotionale Reaktionen gefunden. Dem emotional expressiven Roboter wurde mehr Empathie entgegengebracht und es wurde mehr Freude und weniger Antipathie berichtet als gegenuber einem nicht-expressiven Roboter. Auserdem konnten Gesichtsausdrucke beobachtet werden, die mit negativen Emotionen assoziiert sind wahrend Probanden Nao’s Befehl ausfuhrten und Pleo bestraften. Obwohl Probanden tendenziell langer zogerten, wenn sie einen emotional expressiven Roboter bestrafen sollten und der Befehl von einem Roboter mit niedrigem Autoritatsstatus kam, wurde dieser Unterschied nicht signifikant. Zudem waren alle bis auf einen Probanden gehorsam und bestraften Pleo, wie vom Nao Roboter befohlen. Dieses Ergebnis steht in starkem Gegensatz zu dem selbstberichteten hypothetischen Verhalten der Teilnehmer aus Experiment 2 und unterstutzt die Annahme, dass die Einschatzungen von hypothetischem Verhalten in einem Mensch-Roboter-Gehorsamkeitsszenario nicht zuverlassig sind fur echtes Verhalten in einer live Mensch-Roboter Interaktion. Situative Variablen, wie z.B. der Gehorsam gegenuber Autoritaten, sogar gegenuber einem Roboter, scheinen starker zu sein als Empathie fur einen Roboter. Dieser Befund knupft an andere Studien an (z.B. Bartneck & Hu, 2008; Geiskkovitch et al., 2016; Menne, 2017; Slater et al., 2006), eroffnet neue Erkenntnisse zum Einfluss von Robotern, zeigt aber auch auf, dass die Wahl einer Methode um Empathie fur einen Roboter zu evozieren eine nicht triviale Angelegenheit ist (vgl. Geiskkovitch et al., 2016; vgl. Milgram, 1965). Insgesamt stutzen die Ergebnisse die Annahme, dass die emotionalen Reaktionen auf Roboter tiefgreifend sind und sich sowohl auf der subjektiven Ebene als auch in der motorischen Komponente zeigen. Menschen reagieren emotional auf einen Roboter, der emotional expressiv ist und eher weniger wie eine Maschine aussieht. Sie empfinden Empathie und negative Gefuhle, wenn ein Roboter misshandelt wird und diese emotionalen Reaktionen spiegeln sich in der Mimik. Daruber hinaus unterscheiden sich die Einschatzungen von Menschen uber ihr eigenes hypothetisches Verhalten von ihrem tatsachlichen Verhalten, weshalb videobasierte oder live Interaktionen zur Analyse realer Verhaltensreaktionen empfohlen wird. Die Ankunft sozialer Roboter in der Gesellschaft fuhrt zu nie dagewesenen Fragen und diese Dissertation liefert einen ersten Schritt zum Verstandnis dieser neuen Herausforderungen.
    • Correction
    • Source
    • Cite
    • Save
    • Machine Reading By IdeaReader
    0
    References
    0
    Citations
    NaN
    KQI
    []