Frontiers in Psychology
Introduction
Der Begriff Empathie leitet sich von dem altgriechischen Wort „εμπάθεια“ („εν πάθoς“, d.h. in Leidenschaft) ab, aus dem das deutsche Wort „Einfühlung“ gebildet wurde, das so viel bedeutet wie „hineinfühlen“. Empathie wurde als ein vielschichtiger Prozess definiert, der emotionale und kognitive Komponenten umfasst (Christov-Moore et al., 2014). In dieser Studie konzentrieren wir uns hauptsächlich auf die emotionale Empathie. In einem interaktiven Prozess zwischen Mensch und Mensch führt emotionale Empathie dazu, dass man die Gefühle eines anderen wahrnimmt und spiegelt die Übereinstimmung zwischen dem „Selbst“ und den Gefühlen des „Anderen“ wider (Kanske, 2018). Als solches umfasst emotionale Empathie die ähnliche Teilhabe am positiven oder negativen emotionalen Zustand der anderen Person, die durch direkte zwischenmenschliche Kommunikation erzeugt werden kann (Lamm et al., 2017).
Emotionale Empathie ist nachweislich eine Voraussetzung für die Synchronisation zwischen Kindern und ihren Müttern. Im Alter von 2 bis 3 Jahren scheinen Kinder in der Lage zu sein, die emotionalen Zustände anderer zu antizipieren (Tramacere und Ferrari, 2016). Entwicklungsbezogene Hinweise deuten darauf hin, dass Kinder im Alter von 6 bis 7 Jahren positive und negative Emotionen ihrer belebten oder unbelebten Begleiter in komplexen Situationen erkennen und empathisch darauf reagieren können (Winnicott, 1971). Da Kinder in verschiedene Umgebungen mit kontrastierenden Konventionen, einschließlich Emotionen, hineinwachsen, könnte es sinnvoll sein, dass sie unterschiedliche Vorstellungen über die Bedeutung entwickeln, die mit diesen Konventionen verbunden ist. Zur Erforschung der zwischenmenschlichen Kommunikation wurden viele Möglichkeiten genutzt. Während man davon ausgeht, dass kontextbezogene Faktoren für die Gestaltung einer besseren zwischenmenschlichen Interaktion ausschlaggebend sind, gehen Theorien davon aus, dass Kinder mit einem integrierten Gefühl und Ausdruck ihres emotionalen Selbst in ihrer Beziehung zu anderen geboren werden (Frith und Frith, 2003). In der Mensch-Mensch-Interaktion basiert die emotionale Anpassung zwischen Begleitern auf Synchronisation und Beziehung (Lischke et al., 2018). Daher wurde nachgewiesen, dass Menschen, die verbal und nonverbal von Angesicht zu Angesicht interagieren, ihre Reaktionen auf natürliche Weise synchronisieren (Llobera et al., 2016; Cornejo et al., 2017).
Außerhalb der Studien zur zwischenmenschlichen Interaktion gibt es einige bildungsübergreifende Untersuchungen darüber, wie Kinder mit Robotern interagieren. Allerdings sind diese Untersuchungen nicht überzeugend. Einige Studien haben gezeigt, dass bei der Verwendung von Robotern als Gefährten einige Aspekte der Mensch-Mensch-Kommunikation direkt in der Mensch-Roboter-Kommunikation repliziert wurden (Audrey, 2009). Einige andere haben gezeigt, dass die Art und Weise, wie Menschen mit Robotern kommunizieren, von der Ausbildung abhängt (Castellano et al., 2010; Shahid et al., 2014). Die meisten der oben erwähnten Studien, die auf Beobachtungen oder Selbstauskünften beruhen, wurden häufiger mit Erwachsenen als mit Kindern durchgeführt, die anthropomorphe oder zoomorphe Roboter benutzen (Mitchell und Hamm, 1997). Dem Vergleich zwischen Mensch-Mensch- und Mensch-Roboter-Interaktion mit Spielzeugrobotern (d. h. nicht-anthropomorphen oder nicht-zoomorphen Robotern) wurde nur wenig Aufmerksamkeit gewidmet. Darüber hinaus wurde in den oben genannten bildungsübergreifenden Studien nie die Frage nach einem Synchronisationsmechanismus zwischen Begleitern (Menschen und/oder Robotern) untersucht. Diese Frage ist jedoch von grundlegender Bedeutung, wenn wir die Mensch-Roboter-Interaktion erforschen (Giannopulu, 2016a,b, 2018).
Indem wir die Bedeutung der Synchronisation hervorheben, ist unsere Sichtweise deckungsgleich mit der neurokonstruktivistischen Position. Nach dieser Position entsteht emotionale Entwicklung, einschließlich emotionaler Empathie, durch dynamische kontextuelle Veränderungen in neuronalen Strukturen, die zu Konstruktionsrepräsentationen über mehrere Hirnregionen hinweg führen (Marschal et al., 2010). Diese Repräsentationen hängen also nicht nur vom neuronalen Kontext, sondern auch vom physischen Kontext ab (Cacioppo et al., 2014). Die Analogie zwischen der neuronalen Aktivität während des Erlebens hat die Interpretation der emotionalen Empathie als Simulationsprozess weiter motiviert, der mit einem robusten Biomarker verbunden ist: dem Spiegelneuronensystem (Rizzolatti und Craighero, 2008). Neurowissenschaftliche Erkenntnisse deuten darauf hin, dass es suggestive Parallelen zwischen dem emotionalen Erleben von „Selbst“ und „Anderen“ gibt (Lamm et al., 2011). Sich entwickelnde Areale wie die Amygdala, die posteriore Insula und der ventromediale präfrontale Kortex teilen emotionale Empathie bei Kindern im Alter von 6 bis 7 Jahren, auch wenn sie im Laufe des Lebens Veränderungen in ihrer Funktionalität aufweisen (Decety und Michalska, 2010; Steinbeis et al., 2015; Tramacere und Ferrari, 2016). Subkortikale Areale (d. h. Mittelhirnareale) entwickeln sich in Verbindung mit diesen anderen Bereichen (Fan et al., 2011), was die Möglichkeit einer automatischen und unbewussten Funktionsweise unterstreicht (Giannopulu und Watanabe, 2015, 2018; Giannopulu et al., 2016, 2018; Giannopulu, 2018). Tatsächlich hat sich gezeigt, dass emotionale Empathie direkt mit einer durch die Herzfrequenz vermittelten autonomen Aktivität verbunden ist (Müller und Lindenberger, 2011). Physiologische Verfahren haben daher Hinweise auf eine Synchronisierung der Herzfrequenz zwischen erwachsenen Partnern (Levenson und Gottman, 1985) und Mutter-Kind-Dyaden (Feldman et al., 2011) erbracht. Personen mit einem hohen Maß an emotionaler Empathie zeigten hohe Herzfrequenzen (Stellar et al., 2015; Lischke et al., 2018) und berichteten, dass sie kaum Schwierigkeiten hatten, ihre eigenen emotionalen Gefühle zu erkennen und auszudrücken (Panayiotou und Constantinou, 2017).
Im Rahmen eines internationalen und interdisziplinären Projekts zur Mensch-Mensch- und Mensch-Roboter-Interaktion unter Verwendung einer verbalen und nonverbalen Kommunikation zwischen zwei Akteuren, einem Sprecher und einem Zuhörer, untersuchten wir emotionale Empathie bei zwei Gruppen von Kindern: Franzosen und Japaner. Der Sprecher war immer ein neurotypisches Kind, und der Zuhörer war ein Mensch oder ein Spielzeugroboter namens „Pekoppa“, der auf Sprachlaute mit Nicken reagierte (Watanabe, 2011; Giannopulu, 2016a,b; Giannopulu et al., 2016, 2018). Basierend auf einer mathematischen Konstruktion generierte der Spielzeugroboter automatisch eine Nickbewegung aus Spracheingaben, was die Synchronisation mit dem Sprecher förderte (Watanabe, 2011). Dieser Spielzeugroboter wurde speziell für die Mensch-Roboter-Kommunikation entwickelt und ist ein universeller Zuhörer. Der Mensch in der Studie war in Frankreich und in Japan derselbe und führte in beiden Ländern das gleiche Verfahren durch. Die bisher diskutierten Forschungsergebnisse lassen den Schluss zu, dass die Verwendung eines universellen Synchronisators wie des Spielzeugroboters „Pekoppa“ zu Ähnlichkeiten im kommunikativen Austausch zwischen französischen und japanischen Kindern führen würde. In jeder Gruppe würden die Kinder nämlich alle kommunikativen Zeichen im Hinblick auf ihr Verständnis des gegebenen empathischen Zustands hinter dem Verhalten der anderen – Menschen oder Roboter – erkennen. Dementsprechend haben wir die Hypothese aufgestellt, dass emotionale Empathie, die ein Mechanismus der Synchronisation ist, zu potenziellen Ähnlichkeiten zwischen Gefährten (Mensch-Mensch und Mensch-Roboter) sowohl in Frankreich als auch in Japan führen würde.
Materialien und Methoden
Teilnehmer
Zwei Gruppen von 6-jährigen Kindern nahmen an der Studie teil. Zwanzig Kinder (10 Jungen und 10 Mädchen) bildeten die „französische Gruppe“; zwanzig Kinder (10 Jungen und 10 Mädchen) bildeten die „japanische Gruppe“. Das Entwicklungsalter der ersten Gruppe reichte von 6 bis 7 Jahren (Mittelwert = 6,3 Jahre; s.d = 4 Monate). Das Entwicklungsalter der zweiten Gruppe reichte von 6 bis 7 Jahren (Mittelwert = 6,4 Jahre; s.d. = 2,4 Monate). Die Kinder kamen sowohl in Paris als auch in Gifu aus der gleichen Klasse. Wie ihre Eltern und sie selbst berichteten, hatte keines der Kinder zuvor Erfahrungen mit Robotern gemacht. Alle Kinder waren gesund. Nach Angaben ihrer Lehrer besuchten die Kinder reguläre Schulen und wiesen keine Lernstörungen, neurologischen Entwicklungsstörungen oder kardialen oder psychiatrischen Probleme auf. Ihre schulischen Leistungen entsprachen dem Standard in ihren Schulen. Die Studie wurde von den örtlichen Ethikkommissionen in Paris (Wissenschaftliches Komitee für den Schutz des Individuums), Frankreich, und Gifu (Medical Review Board der Gifu University Graduate School of Medicine), Japan, genehmigt und entsprach der Helsinki-Konvention 2.0. Die Anonymität war gewährleistet. In beiden Ländern gaben die Eltern sowohl mündlich als auch schriftlich ihr Einverständnis für die Teilnahme ihrer Kinder an der Studie sowie für die Auswertung der Daten; sie erlaubten den Autoren jedoch nicht, die Rohdaten zu versenden. Außerdem wurde in Paris und Gifu jedes Kind vor Beginn der Studie um seine mündliche Zustimmung gebeten.
Roboter
Als Zuhörer wurde ein InterActor-Spielzeugroboter namens „Pekoppa“ verwendet (Watanabe, 2011). Pekoppa ist die einfachste Form von Sakura, einem humanoiden Roboter, der auf Sprachlaute nur mit einem Nicken reagiert, so wie es auch Menschen tun. Pekoppa hat die Form einer zweischaligen Pflanze, deren Blätter und Stängel auf Spracheingaben mit einem Nicken reagieren und die gemeinsame Nutzung der gegenseitigen Verkörperung in der Kommunikation unterstützen (siehe Abbildung 1). Er verwendet ein Material namens BioMetal, das aus einer Formgedächtnislegierung besteht und als Antriebskraft dient.
Abbildung 1: InterActor Spielzeugroboter (Giannopulu et al., 2016).
Herzfrequenzmessgerät
Zur Aufzeichnung der Herzfrequenz wurde ein Mio-Alpha-Uhr-Herzfrequenzmessgerät verwendet. Sie wurde systematisch an der linken Hand jedes Teilnehmers in Paris und Gifu angebracht. Die Mio Alpha misst die Herzfrequenz online mit zwei grünen LEDs und einer fotoelektrischen Zelle. Die LEDs sind in die Rückwand der Uhr integriert. Sie projizieren Licht auf die Haut, was es der fotoelektrischen Zelle ermöglicht, das Volumen des Blutflusses zu erkennen. Der optische Sensor zeigt eine Genauigkeit von -01 ± 0,3 bpm an. Da das Gerät universell einsetzbar ist, kann es über die gesamte Lebensspanne hinweg verwendet werden. Die physiologischen Herzfrequenz-Grenzwerte unterscheiden sich jedoch je nach Alter der Personen. Im Alter von 6 bis 7 Jahren entspricht die Herzfrequenz 95 bpm (± 30).
Vorgehensweise
Für beide Gruppen fand die Studie in einem Raum statt, der den Kindern vertraut war. Der Raum befand sich sowohl in Paris als auch in Gifu in einem schulischen Umfeld. Wir legten drei Bedingungen fest: die erste wurde als „Ruhebedingung“ bezeichnet, die zweite als „mit Mensch“, d. h. Kind-Erwachsener, und die dritte als „mit Roboter“ (d. h. Kind-Roboter). Die zweite und dritte Bedingung waren für alle Kinder gleichwertig. Die Dauer der „Ruhebedingung“ betrug 1 Minute; die zweite und dritte Bedingung dauerten jeweils etwa 7 Minuten. Das Intervall zwischen den Bedingungen betrug etwa 30 s. Für jedes Kind dauerte die gesamte Versuchssitzung 15 min (siehe Abbildung 2).
Abbildung 2. Hörer-Sprecher-Szenario (Giannopulu et al., 2016).
Zu Beginn jeder Sitzung präsentierte der Experimentator dem Kind den Roboter und erklärte, dass der Roboter nickt, wenn das Kind spricht. Dann versteckte der Versuchsleiter den Roboter. Die Sitzung wurde wie folgt durchgeführt: Während der „Ruhebedingung“ wurde die Herzfrequenz jedes Kindes in Ruhe gemessen. Am Ende dieser Bedingung wurde das Kind außerdem gebeten, seine eigenen emotionalen Gefühle auf einer Skala von 1 (niedrigste Stufe) bis 5 (höchste Stufe) zu bewerten (Giannopulu und Sagot, 2010; Giannopulu, 2011, 2013; 2016a; 2016b; Giannopulu und Watanabe, 2014; Giannopulu et al., 2016, 2018). Jede Stufe entsprach einem bestimmten emotionalen Zustand, der durch das Gesicht eines Kindes wie folgt dargestellt wurde: 1. mittelmäßig, 2. mäßig gut, 3. gut, 4. sehr gut, 5. ausgezeichnet. In der Bedingung „mit Mensch“ wurde das Kind aufgefordert, mit dem Versuchsleiter zu sprechen. Zu diesem Zweck fragte der Versuchsleiter das Kind, „was du seit heute Morgen in der Schule gemacht hast“. Der Versuchsleiter leitete also die Diskussion ein und hörte dann zu, indem er dem Kind nur zu nickte. Währenddessen wurde die Herzfrequenz jedes Kindes gemessen. In der Bedingung „mit Roboter“ wurde der Roboter auf Nicken eingestellt; der Versuchsleiter gab dem Kind den Roboter und lud es ein, ihn zu benutzen. Wie zuvor bat der Versuchsleiter das Kind, dem Roboter zu erzählen, „was es seit heute Morgen in der Schule gemacht hat“. Der Roboter war der Zuhörer, das Kind war der Sprecher, und der Versuchsleiter blieb still und diskret. Die Herzfrequenz wurde zur gleichen Zeit erneut aufgezeichnet. Die Studie begann um 14.00 Uhr Pariser und Gifu-Zeit für alle Kinder. Am Ende der Sitzung wurde das Kind aufgefordert, seine eigenen Emotionen auf der oben erwähnten Skala einzuschätzen. Insbesondere wurde jedes Kind gebeten, sein eigenes emotionales Gefühl nach dem Kontakt mit dem Roboter zu berichten (Giannopulu und Watanabe, 2015; Giannopulu, 2016a,b, 2018; Giannopulu et al., 2016, 2018).
Analyse
Die Herzfrequenz diente als erste abhängige Variable in einer 3 („Ruhe“, „Mensch InterActor“ und „Roboter InterActor“) × 2 („Französisch“ vs. „Japanisch“) gemischten ANOVA. Das berichtete emotionale Gefühl diente als zweite abhängige Variable unter Verwendung des Wilcoxon matched-pairs signed-ranks test. Außerdem führten wir eine Vergleichsstatistik mit dem t-Test für Studenten durch, um Unterschiede in der Herzfrequenz zu untersuchen, und einen Chi-Quadrat-Test, um das berichtete emotionale Gefühl zu analysieren. Die erzielten Ergebnisse waren sehr ähnlich. Im Folgenden werden die Ergebnisse der ANOVA und des Wilcoxon Matched-Pairs Signed-Ranks-Tests dargestellt. Die Datenanalyse wurde mit SPSS Statistics 24 durchgeführt.
Ergebnisse
Zunächst stellen wir die Ergebnisse für die Herzfrequenz beider Gruppen unter drei Bedingungen vor: „Ruhe“, „mit Mensch“ und „mit Roboter“. We then examine the emotional feeling reported for each group.
FIGURE 3. Heart rate comparison between neurotypical Japanese and French children in ‚rest,‘ ‚with human,‘ and ‚with robot‘ condition (∗p < 0.05; ∗∗p < 0.01).
Figure 4 shows that the initial emotional state of French and Japanese children did not differ (Mann–Whitney U = 129.5, p = 0.0623). In the same vein, the final emotional state of both groups did not differ (Mann–Whitney U = 167.5, p = 0.3843). The interaction with the InterActor robot did not have any significant effect in the initial emotional state of French and Japanese children (Wilcoxon two-tailed test p > 0.05, T = 45, n = 20 and Wilcoxon two-tailed test p > 0.05, T = 9, n = 20 respectively).
FIGURE 4. Vergleich der emotionalen Empfindungen vor und nach der Interaktion mit dem Roboter bei neurotypischen japanischen und französischen Kindern.
Diskussion und Schlussfolgerung
Diese Studie befasste sich mit emotionaler Empathie als Mechanismus der Synchronisation unter Verwendung desselben Sprecher-Hörer-Paradigmas und desselben Menschen (d.h. Experimentator) bei zwei Gruppen von Kindern, einer französischen und einer japanischen. Es zeigte sich, dass trotz eines wichtigeren nonverbalen emotionalen empathischen Ausdrucks bei japanischen Kindern als bei französischen Kindern in der Ruhebedingung ein ähnlicher Mechanismus der Synchronisation den nonverbalen kommunikativen Austausch kennzeichnete, wenn beide Gruppen von Kindern mit einem Menschen oder einem Spielzeugroboter interagierten. Wenn die japanischen Kinder mit dem Roboter interagierten, war ihre Herzfrequenz höher als bei der Interaktion mit dem Menschen. Darüber hinaus unterschied sich der anfängliche emotionale Zustand bei den japanischen und französischen Kindern nicht. Die Interaktion mit dem Spielzeugroboter wirkte sich bei beiden Kindergruppen nicht auf den endgültigen emotionalen Zustand aus.
Unsere Ergebnisse stimmen mit neueren Erkenntnissen überein, die eine signifikante Interdependenz zwischen emotionaler Empathie und Synchronisation bei Erwachsenen (Levenson und Gottman, 1985; Stellar et al., 2015; Lischke et al., 2018) und bei Mutter-Kind-Dyaden (Feldman et al., 2011) belegen. Aber diese Ergebnisse stimmen auch mit unserer Hypothese überein, dass emotionale Empathie, die ein Mechanismus der Synchronisation ist, zu potenziellen Ähnlichkeiten zwischen zwei verschiedenen Gruppen von Kindern führt: Franzosen und Japaner. Dies scheint sich in der Anpassung eines bestimmten automatischen physiologischen Zustands widerzuspiegeln: der Herzfrequenz. Physiologisch gesehen wird die Herzfrequenz sowohl vom Sympathikus (SNS) als auch vom Parasympathikus (PNS) des autonomen Nervensystems (ANS) automatisch gesteuert und stellt ein Maß für die autonome (d. h. unbewusste) Funktion dar (Porges, 2007). Das PNS wird im Ruhezustand aktiviert, um die Homöostase aufrechtzuerhalten; das SNS wird in Zeiten wahrgenommener Veränderungen aktiviert, indem es die Herzfrequenz erhöht und die emotionale Funktion mobilisiert (Suurland et al., 2016). Beide physiologischen Systeme agieren auf komplementäre Weise, um auf interne und externe Veränderungen zu reagieren und sich anzupassen; beide Systeme beruhen auf Synchronisation. Man beachte, dass das SNS vom Rückenmark gesteuert wird, das PNS vom Rückenmark und dem Gehirn. Offensichtlich war die Herzfrequenz der japanischen Kinder in der Ruhephase höher als die der französischen Kinder. Diese automatische Aktivität würde das Engagement der Kinder unterstützen und einen bestimmten emotionalen Zustand anzeigen. Wenn die japanischen Kinder mit dem Menschen oder dem Spielzeugroboter in Kontakt waren, war ihre Herzfrequenz ähnlich hoch wie die der französischen Kinder.
Im Gegensatz zu Daten, die besagen, dass die autonomen Funktionen des Herz-Kreislauf-Systems weitgehend von genetischen Faktoren abhängen (Tanaka et al., 1994), zeigt die vorliegende Studie, dass diese Funktionen eher von der Interkommunikation abhängen, die in unserer Situation über einen Menschen oder einen Spielzeugroboter möglich ist. Im Wesentlichen wiesen beide Kindergruppen unter allen Bedingungen potenziell ähnliche Herzfrequenzprofile auf, mit der Ausnahme, dass die japanischen Kinder in der Interaktion mit dem Roboter eine höhere Herzfrequenz aufwiesen als in der Interaktion mit dem Menschen. Ein ähnliches Profil wurde bei den französischen Kindern beobachtet, auch wenn die Daten statistisch nicht signifikant sind. Es ist zu beachten, dass die Herzfrequenz der japanischen Kinder während der „Ruhe“ und der „menschlichen“ Bedingungen sehr ähnlich war, wobei der Mensch der wichtigste passive oder aktive „Akteur“ war. Beachten Sie auch, dass der Mensch und der Spielzeugroboter in Frankreich und in Japan gleich waren. In beiden Gruppen war die Herzfrequenz quasi identisch, wenn beide Gruppen von Kindern mit dem Roboter interagierten.
Das Teilen und Verändern der emotionalen Zustände der Kinder würde von ihrem Verständnis der emotionalen Erfahrung ausgehen, die den anderen kennzeichnet (Giannopulu et al., 2016, 2018; Giannopulu, 2018). Auf der Grundlage der interpersonellen Synchronisation ist dies die Essenz der Sprecher-Hörer-Bedingung (Tatsukawa et al., 2016). In diesem Kontext führen beide Gesprächspartner ein Kommunikationsszenario durch, in dem sie verschiedene verbale und nonverbale emotionale Reaktionen ausprobieren. Die verbale Reaktion erfordert die Ausarbeitung von kohärenten Sätzen; die nonverbale Reaktion erfolgt in Form von Kopfnicken und/oder verschiedenen Arten von Gesichtsausdrücken (Giannopulu, 2016a,b, 2018; Giannopulu et al., 2016, 2018; Giannopulu und Watanabe, 2018). Diese Reaktionen sind eng mit dem Zustand des Sprechers verbunden und bedeuten, dass alles (oder ein Teil) integriert wird (Clark, 1996; Bavelas et al., 2002). Erfolgreiche Kommunikation setzt voraus, dass sowohl der Sprecher als auch der Zuhörer die Bedeutung der emotionalen Äußerung des jeweils anderen (über verbale und nonverbale emotionale Prozesse) richtig interpretieren. Es scheint, dass die expressive nonverbale emotionale Natur einer menschlichen Handlung (d. h. die mit dem autonomen Nervensystem verbundene Herzfrequenz) zumindest einen Hinweis auf die emotionale Aussage des anderen darstellt. Dies könnte als ein emotionaler Resonanzprozess oder eine Art unbewusster Synchronisationsmechanismus betrachtet werden, der bei japanischen und französischen Kindern ähnlich zu sein scheint. Da der berichtete emotionale Zustand in beiden Populationen analog ist, scheint es, dass der verbale emotionale Ausdruck ebenfalls mit diesem Mechanismus verbunden ist. Das letztgenannte Ergebnis würde mit Theorien übereinstimmen, nach denen grundlegende emotionale Konzepte wie „wollen“, „fühlen“ oder „spüren“ in allen Bildungskontexten üblich sind (Wierzbicka, 1992).
Angesichts der aktuellen Ergebnisse scheint es, dass sowohl in der französischen als auch in der japanischen Bevölkerung emotionale Empathie die Einbeziehung einer automatischen unbewussten Identifikation ohne zwischengeschaltete kognitive Empathie erfordert (Gallese, 2003; Asada, 2014). Eine solche Identifikation ist sowohl bei Menschen als auch bei Spielzeugrobotern aktiv. Neuere Daten stimmen damit überein: emotional empathische Kinder zeigen unbewusste nonverbale Äußerungen (Giannopulu und Watanabe, 2018; Giannopulu et al., 2018). Neuroimaging-Beweise unterstützen einen solchen Prozess ebenfalls, indem sie nahelegen, dass das Spiegelneuronensystem nicht nur an der Intersubjektivität von Handlungen, sondern auch an der emotionalen Empathie beteiligt ist, die es einem ermöglicht, sich mit anderen verbunden zu fühlen (d. h. intersubjektive Synchronisation) (Carr et al., 2003). Ein solcher neuronaler Mechanismus ermöglicht es dem Menschen im Wesentlichen, die Gefühle anderer zu verstehen und seine eigenen Gefühle auszudrücken (Gallese, 2003). Diesem Prozess liegt eine gemeinsame Repräsentation des emotionalen Empathiezustands zugrunde. In diesem Sinne könnte man emotionale Empathie als eine weitreichende unbewusste Idiosynkrasie betrachten, die dem Verstand eine spezifische Form der Kommunikation bietet: eine Art der automatischen Simulation emotionaler Erfahrungen, die zwischen französischen und japanischen Kindern analog ist. Daher stimmen unsere Ergebnisse mit der Annahme überein, dass das Gehirn von Kindern die Gefühle anderer auf einer unbewussten Ebene simuliert. Dies könnte für beide Gruppen neurotypischer Kinder, die in unserer Studie untersucht wurden, von Bedeutung sein. Vor diesem Hintergrund könnte emotionale Empathie als ein Synchronisationsmechanismus betrachtet werden, der Mensch-Mensch- und Mensch-Roboter-Interaktionen unterstützt und künftige emotionale Verhaltensweisen vorhersagt.
Grenzwerte
Eine wesentliche Einschränkung unserer Studie ist die fehlende ökologische Validität. Auch wenn unser experimenteller Ansatz unverzichtbar ist, um wertvolle Beziehungen zwischen emotionaler Empathie, Synchronisation und Herzfrequenz herzustellen, würden wir vorschlagen, dass zukünftige Studien solche Beziehungen in natürlicheren Kontexten untersuchen sollten. Eine weitere Einschränkung der Studie besteht darin, dass die kortikale Aktivität und ihre Beziehung zur peripheren Aktivität während des Synchronisationsprozesses nicht erfasst wurden. Eine Möglichkeit für künftige Forschung könnte darin bestehen, zu untersuchen, ob die zentrale Aktivität des Gehirns mit der peripheren Aktivität zusammenhängt, wenn die Synchronisation in der Mensch-Mensch-Interaktion und in der Kind-Roboter-Interaktion abläuft. Schließlich würden wir zustimmen, dass wir in unserer Studie keine klinische Population einbezogen haben. Zukünftige Studien sollten zumindest eine klinische Gruppe (ASD oder Kopfverletzung) im Vergleich zu einer typischen Gruppe untersuchen.
Beiträge der Autoren
IG entwickelte die Methode, führte das Experiment durch, sammelte die Daten, analysierte und verfasste das Manuskript. TW ist der Schöpfer des Roboters. IG, KT und TW diskutierten die Arbeit.
Finanzierung
Die Studie gehört zu einem internationalen Projekt über Spielzeugroboter-Kind-Interaktionen, das von der französisch-japanischen Stiftung in Paris (FJF16P29) gefördert wird.
Erklärung zu Interessenkonflikten
Die Autoren erklären, dass die Forschung in Abwesenheit von kommerziellen oder finanziellen Beziehungen durchgeführt wurde, die als potenzieller Interessenkonflikt ausgelegt werden könnten.
Der Gutachter EF und der behandelnde Redakteur erklärten ihre gemeinsame Zugehörigkeit.
Danksagungen
Wir danken allen Teilnehmern und ihren Eltern, dem Pädagogischen Inspektor, dem Erziehungsberater, dem Direktor und dem Team der Hauptgrundschule des ersten Bezirks von Paris, Frankreich und Gifu, Japan.
Audrey, S. (2009). Eine kulturübergreifende Diskussion über Japan und Südkorea und wie sich die Unterschiede im ESL/EFL-Klassenzimmer manifestieren. Asian Soc. Sci. 5, 34-39.
Gallese, V. (2003). Die Wurzeln der Empathie: Die Shared-Manifold-Hypothese und die neuronale Basis der Intersubjektivität. Psychopathology 36, 171-180. doi: 10.1159/000072786
PubMed Abstract | CrossRef Full Text | Google Scholar
Giannopulu, I. (2016a). „Enrobotment: toy robots in the developing brain,“ in Handbook of Digital Games and Entertainment Technologies, eds R. Nakatsu, M. Rauterberg, and P. Ciancarini (Berlin: Springer Science),1-29.
Google Scholar
Giannopulu, I. (2016b). Beitrag zum Verstehen multimodaler Repräsentationen. Saarbrücken: European Editions.
Giannopulu, I., and Watanabe, T. (2015). „Conscious/unconscious emotional dialogues in typical children in the presence of an interactor robot,“ in Proceedings of the 24th IEEE International Symposium on Robot and Human Interactive Communication, Nanjing, 264-270.
Google Scholar
Giannopulu, I., and Watanabe, T. (2018). „Inter-individual differences in conscious and unconscious processes during robot-child interaction,“ in New Trends in Medical and Service Robots – Design, Analysis and Control, eds M. Husty and M. Hofbaur (Berlin: Springer), 147-158.
Google Scholar
Müller, V., and Lindenberger, U. (2011). Herz- und Atemmuster synchronisieren sich zwischen Personen während des Chorgesangs. PLoS One 6:e24893. doi: 10.1371/journal.pone.0024893
PubMed Abstract | CrossRef Full Text | Google Scholar
Panayiotou, G., and Constantinou, E. (2017). Emotionsdysregulation bei Alexithymie: Schreckreaktivität auf ängstliche affektive Bilder und ihre Beziehung zur Herzfrequenzvariabilität. Psychophysiology 54, 1323-1334. doi: 10.1111/psyp.12887
PubMed Abstract | CrossRef Full Text | Google Scholar
Porges, S. (2007). Eine phylogenetische Reise durch den vagen und zweideutigen X. Hirnnerv: ein Kommentar zur aktuellen Forschung über die Herzfrequenzvariabilität. Biol. Psychol. 74, 301-307. doi: 10.1016/j.biopsycho.2006.08.007
PubMed Abstract | CrossRef Full Text | Google Scholar
Steinbeis, N., Bernhardt, B. C., and Singer, T. (2015). Altersabhängige Unterschiede in Funktion und Struktur des rSMG und reduzierte funktionelle Konnektivität mit dem DLPFC erklären erhöhte emotionale Egozentrik in der Kindheit. Soc. Cogn. Affect. Neurosci. 10, 302-310. doi: 10.1093/scan/nsu057
PubMed Abstract | CrossRef Full Text | Google Scholar
Wierzbicka, A. (1992). Semantik, Kultur und Kognition: Universal Human Concepts in Culture-Specific Configurations. Oxford: Oxford Press.
Google Scholar
Winnicott, D. W. (1971). Playing and Reality. Taylor, MI: Tavistock Publications.
Google Scholar