Frontiers in Psychology

Introduction

Termin empatia wywodzi się od starożytnego greckiego słowa „εμπάθεια” („εν πάθoς”, tj. w pasji), które zostało wykorzystane do stworzenia niemieckiego słowa „Einfühlung” oznaczającego „wczuwanie się”. Empatia została zdefiniowana jako wielopłaszczyznowy proces obejmujący komponenty emocjonalne i poznawcze (Christov-Moore i in., 2014). W niniejszym opracowaniu skupiamy się głównie na empatii emocjonalnej. W interaktywnym procesie człowiek-człowiek, empatia emocjonalna prowadzi do rozeznania uczuć drugiej osoby i odzwierciedla dopasowanie pomiędzy uczuciami „ja” i „innego” (Kanske, 2018). Jako taka, empatia emocjonalna obejmuje podobne dzielenie pozytywnego lub negatywnego stanu emocjonalnego drugiej osoby, które może być generowane przez bezpośrednią komunikację interpersonalną (Lamm i in., 2017).

Emocjonalna empatia została wykazana jako przesłanka synchronizacji między dziećmi i ich matkami. W wieku 2-3 lat dzieci wydają się być zdolne do przewidywania stanów emocjonalnych innych osób (Tramacere i Ferrari, 2016). Odniesienia rozwojowe sugerują, że dzieci w wieku od 6 do 7 lat potrafią rozpoznać i empatycznie zareagować na pozytywne i negatywne emocje swoich ożywionych lub nieożywionych towarzyszy w złożonych sytuacjach (Winnicott, 1971). Ponieważ dzieci dorastają w różnych środowiskach, w których panują kontrastujące konwencje, w tym emocjonalne, może mieć sens to, że tworzą one różne wyobrażenia na temat znaczenia, które jest związane z tymi konwencjami. Wiele opcji zostało wykorzystanych do badania komunikacji interpersonalnej. Podczas gdy czynniki kontekstualne są uważane za kluczowe dla projektowania lepszych interakcji interpersonalnych, teorie głoszą, że dzieci rodzą się ze zintegrowanym odczuwaniem i wyrażaniem swoich emocjonalnych jaźni w relacjach z innymi (Frith i Frith, 2003). W interakcji człowiek-człowiek dostosowanie emocjonalne między towarzyszami opiera się na synchronizacji i relacji (Lischke i in., 2018). Dlatego wykazano, że gdy ludzie wchodzą w interakcje werbalne i niewerbalne twarzą w twarz, naturalnie synchronizują swoje reakcje (Llobera i in., 2016; Cornejo i in., 2017).

Poza badaniami interakcji interpersonalnych istnieją pewne badania międzyedukacyjne dotyczące tego, jak dzieci wchodzą w interakcje z robotami. Mimo to, badania te nie są przekonujące. Niektóre badania wykazały, że gdy roboty były używane jako towarzysze, kilka aspektów komunikacji człowiek-człowiek było bezpośrednio replikowanych w komunikacji człowiek-robot (Audrey, 2009). Inne wykazały, że sposób, w jaki ludzie komunikują się z robotami, jest zależny od wykształcenia (Castellano i in., 2010; Shahid i in., 2014). Opierając się na obserwacjach lub na kwestionariuszach self-report, większość z wyżej wymienionych badań była prowadzona częściej z udziałem dorosłych niż dzieci korzystających z robotów antropomorficznych lub zoomorficznych (Mitchell i Hamm, 1997). Jedynie marginalną uwagę poświęcono porównaniu interakcji człowiek-człowiek i człowiek-robot z wykorzystaniem robotów-zabawek (tj. robotów nieantropomorficznych lub niezoomorficznych). Co więcej, w wyżej wymienionych badaniach międzyedukacyjnych, kwestia mechanizmu synchronizacji pomiędzy towarzyszami (ludźmi i/lub robotami) nigdy nie była badana. Pytanie to jest jednak fundamentalne, gdy badamy interakcję człowiek-robot (Giannopulu, 2016a,b, 2018).

W podkreślaniu znaczenia synchronizacji nasz pogląd jest zbieżny ze stanowiskiem neurokonstruktywistycznym. Zgodnie z tym stanowiskiem rozwój emocjonalny, w tym empatia emocjonalna, wynika z dynamicznych kontekstualnych zmian w strukturach neuronalnych prowadzących do konstruowania reprezentacji w wielu regionach mózgu (Marschal i in., 2010). Jako takie, reprezentacje te zależą nie tylko od kontekstu neuronalnego, ale także od kontekstu fizycznego (Cacioppo i in., 2014). Analogia pomiędzy aktywnością neuronalną podczas doświadczeń dodatkowo zmotywowała do interpretacji empatii emocjonalnej jako procesu symulacji, związanego z solidnym biomarkerem: układem neuronów lustrzanych (Rizzolatti i Craighero, 2008). Dowody neuronaukowe wskazują na istnienie sugestywnych paraleli między emocjonalnym doświadczeniem „ja” i „innych” (Lamm i in., 2011). Rozwijające się obszary, takie jak migdałek, tylna insula i brzuszno-przyśrodkowa kora przedczołowa, wykazują wspólną empatię emocjonalną u dzieci w wieku od 6 do 7 lat, nawet jeśli wykazują zmiany w funkcjonalności w ciągu całego życia (Decety i Michalska, 2010; Steinbeis i in., 2015; Tramacere i Ferrari, 2016). Obszary podkorowe (tj. obszary śródmózgowia), rozwijają się w powiązaniu z tymi innymi obszarami (Fan i in., 2011) podkreślając możliwość automatycznego i nieświadomego funkcjonowania (Giannopulu i Watanabe, 2015, 2018; Giannopulu i in., 2016, 2018; Giannopulu, 2018). W rzeczywistości ujawniono, że empatia emocjonalna jest bezpośrednio związana z aktywnością autonomiczną, w której pośredniczy rytm serca (Müller i Lindenberger, 2011). Techniki fizjologiczne odnotowały zatem dowody na synchronizację rytmu serca między dorosłymi partnerami (Levenson i Gottman, 1985) oraz dyadami matka-dziecko (Feldman i in., 2011). Osoby o wysokim poziomie empatii emocjonalnej wykazywały wysokie tętno (Stellar i in., 2015; Lischke i in., 2018) i nie zgłaszały prawie żadnych trudności w rozpoznawaniu i wyrażaniu własnych uczuć emocjonalnych (Panayiotou i Constantinou, 2017).

W kontekście międzynarodowego i interdyscyplinarnego projektu dotyczącego interakcji człowiek-człowiek i człowiek-robot wykorzystującego werbalną i niewerbalną komunikację między dwoma aktorami, mówcą i słuchaczem, zbadaliśmy empatię emocjonalną w dwóch grupach dzieci: Francuzów i Japończyków. Mówcą było zawsze neurotypowe dziecko, a słuchaczem człowiek lub zabawkowy robot o imieniu „Pekoppa”, który reagował na dźwięki mowy kiwaniem głową (Watanabe, 2011; Giannopulu, 2016a,b; Giannopulu i in., 2016, 2018). Opierając się na konstrukcji matematycznej, zabawkowy robot automatycznie generował ruch kiwania głową na podstawie danych wejściowych mowy, co promowało synchronizację z mówcą (Watanabe, 2011). Specjalnie zaprojektowany do interkomunikacji człowiek-robot, ten zabawkowy robot jest uniwersalnym słuchaczem. Człowiek w badaniu był taki sam we Francji i w Japonii, i przeprowadził tę samą procedurę w obu krajach. Omówiony do tej pory zakres badań potwierdza implicite wniosek, że użycie uniwersalnego synchronizatora, jakim jest zabawkowy robot „Pekoppa”, doprowadziłoby do podobieństw w wymianach komunikacyjnych między dziećmi francuskimi i japońskimi. Mianowicie, w każdej z grup, dzieci rozróżniałyby wszystkie znaki komunikacyjne w kontekście ich rozumienia danego stanu empatycznego stojącego za zachowaniem innych: człowieka lub robota. W związku z tym postawiliśmy hipotezę, że empatia emocjonalna, która jest mechanizmem synchronizacji, doprowadzi do potencjalnych podobieństw między towarzyszami (człowiek-człowiek i człowiek-robot) zarówno we Francji, jak i w Japonii.

Materiały i metody

Uczestnicy

W badaniu wzięły udział dwie grupy 6-letnich dzieci. Dwadzieścioro dzieci (10 chłopców i 10 dziewczynek) tworzyło „grupę francuską”; dwadzieścioro dzieci (10 chłopców i 10 dziewczynek) tworzyło „grupę japońską”. Wiek rozwojowy pierwszej grupy wahał się od 6 do 7 lat (średnia = 6,3 lat; s.d. = 4 miesiące). Wiek rozwojowy drugiej grupy wahał się od 6 do 7 lat (średnia = 6,4 lat; s.d. = 2,4 miesiące). Dzieci te pochodziły z tej samej klasy zarówno w Paryżu, jak i w Gifu. Jak wynika z relacji ich rodziców i ich samych, żadne z nich nie miało wcześniejszych doświadczeń z robotami. Wszystkie dzieci były zdrowe. Zgodnie z relacją ich nauczycieli, dzieci uczęszczały do zwykłych szkół i nie miały zaburzeń w nauce, chorób neurorozwojowych ani problemów kardiologicznych czy psychiatrycznych. Ich osiągnięcia w nauce były standardowe w ich szkołach. Badanie zostało zatwierdzone przez lokalną komisję etyczną w Paryżu (Scientific Committee of Individual’s Protection) we Francji i w Gifu (Medical Review Board of Gifu University Graduate School of Medicine) w Japonii i było zgodne z Konwencją Helsińską 2.0. Zagwarantowano anonimowość. W obu krajach rodzice wyrazili świadomą zgodę, zarówno ustną, jak i pisemną, na udział ich dzieci w badaniu oraz na analizę danych; nie zezwolili jednak autorom na przesłanie surowych danych. Ponadto, w Paryżu i Gifu, każde dziecko zostało poproszone o wyrażenie ustnej zgody przed rozpoczęciem badania.

Robot

Zabawkowy robot InterActor, nazwany „Pekoppa”, został użyty jako słuchacz (Watanabe, 2011). Pekoppa jest najprostszą formą Sakury, która jest humanoidalnym robotem reagującym na dźwięki mowy poprzez kiwanie głową w taki sam sposób, jak robią to ludzie. Pekoppa ma kształt dwuklapowej rośliny, a jej liście i łodyga reagują kiwnięciem głowy na sygnał mowy i wspierają dzielenie się wzajemnym ucieleśnieniem w komunikacji (patrz rysunek 1). Wykorzystuje materiał o nazwie BioMetal wykonany ze stopu z pamięcią kształtu, który działa jako jego siła napędowa.

FIGURA 1

FIGURA 1. Robot zabawkowy InterActor (Giannopulu i in., 2016).

Urządzenie do pomiaru tętna

Do rejestracji tętna wykorzystano monitor tętna zegarka Mio Alpha. Był on systematycznie umieszczany na lewej ręce każdego uczestnika w Paryżu i Gifu. Mio Alpha mierzy tętno on-line za pomocą dwóch zielonych diod LED i ogniwa fotoelektrycznego. Diody LED są wbudowane w tylną płytę zegarka. Rzucają one światło na skórę, co pozwala komórce fotoelektrycznej wykryć objętość przepływu krwi. Czujnik optyczny wykazuje dokładność -01 ± 0,3 bpm. Uniwersalny charakter urządzenia sprawia, że może być ono stosowane przez całe życie. Jednakże, fizjologiczne limity tętna różnią się w zależności od wieku osób. W wieku 6 do 7 lat, tętno odpowiada 95 bpm (± 30).

Procedura

Dla obu grup, badanie odbywało się w pomieszczeniu, z którym dzieci były zaznajomione. Pokój ten znajdował się w kontekście szkolnym zarówno w Paryżu, jak i w Gifu. Zdefiniowaliśmy trzy warunki: pierwszy został nazwany „stanem spoczynku”, drugi „z człowiekiem”, tzn. dziecko-dorosły, a trzeci „z robotem” (tzn. dziecko-robot). Warunki drugi i trzeci były zrównoważone dla wszystkich dzieci. Czas trwania „warunku odpoczynku” wynosił 1 minutę; warunki drugi i trzeci trwały po około 7 minut każdy. Przerwa między warunkami wynosiła około 30 s. Dla każdego dziecka cała sesja eksperymentalna trwała 15 min (zob. rys. 2).

RYSUNEK 2

RYSUNEK 2. Scenariusz słuchacz – mówca (Giannopulu i in., 2016).

Na początku każdej sesji eksperymentator prezentował dziecku robota wyjaśniając, że robot kiwa głową zawsze, gdy dziecko mówi. Następnie eksperymentator chował robota. Sesja przebiegała w następujący sposób: podczas „warunku odpoczynku” mierzono w ciszy tętno każdego dziecka. Pod koniec tego warunku dziecko było również proszone o oszacowanie własnego odczucia emocjonalnego na skali od 1 (najniższy poziom) do 5 (najwyższy poziom) (Giannopulu i Sagot, 2010; Giannopulu, 2011, 2013; 2016a; 2016b; Giannopulu i Watanabe, 2014; Giannopulu et al., 2016, 2018). Każdy poziom odpowiadał określonemu stanowi emocjonalnemu zobrazowanemu przez twarz dziecka w następujący sposób: 1. sprawiedliwy, 2. umiarkowanie dobry, 3. dobry, 4. bardzo dobry, 5. doskonały. Podczas warunku „z człowiekiem” dziecko było zapraszane do rozmowy z eksperymentatorem. W tym celu eksperymentator pytał dziecko „co robiłeś w szkole od rana”. W związku z tym eksperymentator inicjował dyskusję, a następnie słuchał, jedynie kiwając głową do dziecka. W międzyczasie mierzono tętno każdego dziecka. W warunku „z robotem” robot był ustawiony na potakiwanie; eksperymentator dawał dziecku robota i zapraszał je do korzystania z niego. Tak jak poprzednio, eksperymentator prosił dziecko, aby opowiedziało robotowi „co robiło w szkole od rana”. Robot był słuchaczem, dziecko było mówcą, a eksperymentator zachowywał ciszę i dyskrecję. W tym samym czasie po raz kolejny rejestrowano tętno. Badanie rozpoczęło się około godziny 14.00 czasu paryskiego i czasu Gifu dla wszystkich dzieci. Pod koniec sesji dziecko było proszone o oszacowanie własnych emocji na tej samej, wyżej wymienionej skali. Bardziej szczegółowo, każde dziecko zostało poproszone o zgłoszenie własnego odczucia emocjonalnego po kontakcie z robotem (Giannopulu i Watanabe, 2015; Giannopulu, 2016a,b, 2018; Giannopulu i in., 2016, 2018).

Analiza

Pobór tętna posłużył jako pierwsza zmienna zależna w 3 („Odpoczynek”, „Human InterActor” i „Robot InterActor”) × 2 („francuski” vs „japoński”) mixed-model ANOVA. Zgłoszone uczucie emocjonalne było drugą zmienną zależną przy użyciu testu Wilcoxon matched-pairs signed-ranks. Przeprowadzono również statystykę porównawczą z wykorzystaniem testu t-Studenta do badania różnic w częstości akcji serca oraz testu chi kwadrat do analizy zgłaszanego uczucia emocjonalnego. Uzyskane wyniki były bardzo zbliżone. Poniżej przedstawiamy wyniki ANOVA oraz testu Wilcoxona matched-pairs signed-ranks. Analiza danych została przeprowadzona za pomocą programu SPSS Statistics 24.

Wyniki

Po pierwsze, przedstawiamy wyniki dla częstości akcji serca obu grup w trzech warunkach: „spoczynek”, „z człowiekiem” i „z robotem”. We then examine the emotional feeling reported for each group.

FIGURE 3

FIGURE 3. Heart rate comparison between neurotypical Japanese and French children in 'rest,’ 'with human,’ and 'with robot’ condition (∗p < 0.05; ∗∗p < 0.01).

Figure 4 shows that the initial emotional state of French and Japanese children did not differ (Mann–Whitney U = 129.5, p = 0.0623). In the same vein, the final emotional state of both groups did not differ (Mann–Whitney U = 167.5, p = 0.3843). The interaction with the InterActor robot did not have any significant effect in the initial emotional state of French and Japanese children (Wilcoxon two-tailed test p > 0.05, T = 45, n = 20 and Wilcoxon two-tailed test p > 0.05, T = 9, n = 20 respectively).

FIGURE 4

FIGURE 4. Porównanie uczuć emocjonalnych zgłaszanych „przed” i „po” interakcji z robotem u neurotypowych dzieci japońskich i francuskich.

Dyskusja i wnioski

Badanie to dotyczyło empatii emocjonalnej jako mechanizmu synchronizacji, z wykorzystaniem tego samego paradygmatu mówca-słuchacz i tego samego człowieka (tj. eksperymentatora) w dwóch grupach dzieci, jednej francuskiej i jednej japońskiej. Okazało się, że pomimo większego znaczenia niewerbalnej emocjonalnej ekspresji empatycznej u dzieci japońskich niż francuskich w warunkach spoczynku, podobny mechanizm synchronizacji charakteryzował niewerbalną wymianę komunikacyjną, gdy obie grupy dzieci wchodziły w interakcje z człowiekiem lub robotem-zabawką. Gdy dzieci japońskie wchodziły w interakcję z robotem, ich tętno było wyższe niż gdy wchodziły w interakcję z człowiekiem. Ponadto, początkowy zgłaszany stan emocjonalny nie różnił się u dzieci japońskich i francuskich. Interakcja z robotem-zabawką nie miała wpływu na końcowy stan emocjonalny dla żadnej z grup dzieci.

Nasze wyniki są spójne z ostatnimi ustaleniami, które zgłosiły znaczącą współzależność między empatią emocjonalną a synchronizacją u dorosłych (Levenson i Gottman, 1985; Stellar i in., 2015; Lischke i in., 2018) oraz w dyadach matka-dziecko (Feldman i in., 2011). Ale te odkrycia są również zbieżne z naszą hipotezą, że empatia emocjonalna, która jest mechanizmem synchronizacji, prowadzi do potencjalnych podobieństw między dwiema różnymi grupami dzieci: Francuzów i Japończyków. Wydaje się to być odzwierciedlone w regulacji danego automatycznego stanu fizjologicznego: rytmu serca. Fizjologicznie rzecz biorąc, rytm serca jest automatycznie kontrolowany zarówno przez współczulny (SNS), jak i przywspółczulny (PNS) układ autonomicznego układu nerwowego (ANS) i stanowi miarę funkcjonowania autonomicznego (tj. funkcjonowania nieświadomego) (Porges, 2007). PNS jest aktywowany podczas odpoczynku w celu utrzymania homeostazy; SNS jest aktywowany w okresach spostrzeganej zmiany poprzez zwiększenie, tętna i mobilizację funkcjonowania emocjonalnego (Suurland i in., 2016). Oba systemy fizjologiczne działają w komplementarny sposób, aby odpowiedzieć i dostosować się do zmian wewnętrznych i zewnętrznych; mianowicie, oba systemy opierają się na synchronizacji. Należy pamiętać, że SNS jest kontrolowany przez rdzeń kręgowy, PNS jest kontrolowany przez rdzeń kręgowy i mózg. Wydaje się, że w stanie spoczynku częstość akcji serca dzieci japońskich była wyższa niż dzieci francuskich. Ta automatyczna aktywność stanowiłaby wsparcie dla zaangażowania dzieci i wskazywałaby na dany stan emocjonalny. Gdy dzieci japońskie miały kontakt z człowiekiem lub robotem-zabawką, ich tętno było podobne do tętna dzieci francuskich.

W przeciwieństwie do danych twierdzących, że funkcje autonomiczne w układzie sercowo-naczyniowym w dużej mierze zależą od czynników genetycznych (Tanaka i in., 1994), niniejsze badanie wskazuje, że funkcje te wydają się bardziej polegać na komunikacji międzyludzkiej, która w naszej sytuacji jest możliwa za pośrednictwem człowieka lub robota-zabawki. Zasadniczo, obie grupy dzieci wyrażały potencjalnie podobne profile częstości akcji serca we wszystkich warunkach, z wyjątkiem wyższej częstości akcji serca w interakcji z robotem niż w interakcji z człowiekiem w przypadku dzieci japońskich. Podobny profil zaobserwowano u dzieci francuskich, nawet jeśli dane te nie są istotne statystycznie. Należy zauważyć, że częstość akcji serca dzieci japońskich była bardzo podobna w warunkach „spoczynku” i „ludzkich”, gdzie człowiek był głównym pasywnym lub aktywnym „aktorem”. Zauważmy również, że człowiek i zabawkowy robot były takie same we Francji i w Japonii. W obu grupach tętno było quasi-identyczne, gdy obie grupy dzieci wchodziły w interakcję z robotem.

Podzielanie i przekształcanie stanów emocjonalnych dzieci miałoby emanować z ich zrozumienia doświadczenia emocjonalnego, które typizuje drugiego (Giannopulu i in., 2016, 2018; Giannopulu, 2018). Opierając się na interpersonalnej synchronizacji, stanowi to istotę warunku mówca-słuchacz (Tatsukawa i in., 2016). W tym kontekście obaj rozmówcy realizują scenariusz komunikacji, próbując różnych werbalnych i niewerbalnych reakcji emocjonalnych. Reakcja werbalna wymaga wypracowania spójnych zdań; reakcja niewerbalna przybiera formę kiwania głową i/lub różnego rodzaju mimiki (Giannopulu, 2016a,b, 2018; Giannopulu i in., 2016, 2018; Giannopulu i Watanabe, 2018). Ściśle związane ze stanem mówcy, reakcje te oznaczają, że wszystko (lub część) jest zintegrowane (Clark, 1996; Bavelas et al., 2002). Skuteczna komunikacja wymaga, aby zarówno mówca, jak i słuchacz trafnie zinterpretowali (poprzez werbalne i niewerbalne procesy emocjonalne) znaczenie wypowiedzi emocjonalnej drugiej osoby. Wydaje się, że ekspresyjna niewerbalna emocjonalna natura ludzkiego działania (np. rytm serca związany z autonomicznym układem nerwowym) obrazuje co najmniej wskazówkę dotyczącą emocjonalnej wypowiedzi drugiej osoby. Można to uznać za proces rezonansu emocjonalnego lub rodzaj nieświadomego mechanizmu synchronizacji, który wydaje się być podobny między dziećmi japońskimi i francuskimi. Ponieważ zgłaszany stan emocjonalny jest analogiczny w obu populacjach, wydaje się, że werbalna ekspresja emocjonalna również byłaby związana z tym mechanizmem. Ten ostatni wynik byłby zgodny z teoriami, w których podstawowe pojęcia emocjonalne, takie jak „chcę”, „czuję” czy „odczuwam” są powszechne we wszystkich kontekstach edukacyjnych (Wierzbicka, 1992).

Zważywszy na obecne ustalenia, wydaje się, że zarówno w populacji francuskiej, jak i japońskiej empatia emocjonalna wymagałaby implikacji automatycznej nieświadomej identyfikacji bez pośredniej empatii poznawczej (Gallese, 2003; Asada, 2014). Taka identyfikacja jest aktywna zarówno z ludźmi, jak i z robotami-zabawkami. Ostatnie dane są zgodne: emocjonalnie empatyczne dzieci wykazują nieświadomą ekspresję niewerbalną (Giannopulu i Watanabe, 2018; Giannopulu et al., 2018). Dowody neuroobrazowania również wspierają taki proces, sugerując, że system neuronów lustrzanych jest zaangażowany nie tylko w intersubiektywność działań, ale także w empatię emocjonalną, która pozwala czuć się związanym z innymi (tj. synchronizację intersubiektywną) (Carr i in., 2003). Taki mechanizm neuronalny upoważnia człowieka, w istocie, do rozumienia uczuć innych, jak również do wyrażania własnych uczuć (Gallese, 2003). U podstaw tego procesu leży wspólna reprezentacja emocjonalnego stanu empatycznego. W tym sensie empatia emocjonalna mogłaby być uważana za szeroką nieświadomą idiosynkrazję oferującą umysłowi specyficzną formę komunikacji: sposób automatycznej symulacji doświadczeń emocjonalnych, który jest analogiczny między dziećmi francuskimi i japońskimi. Nasze wyniki są zatem zgodne z założeniem, że mózgi dzieci symulują uczucia innych na poziomie nieświadomym. Może to być cenne dla obu analizowanych w naszym badaniu grup dzieci neurotypowych. Biorąc pod uwagę powyższe, empatia emocjonalna może być uważana za mechanizm synchronizacji, który wspiera interakcje człowiek-człowiek i człowiek-robot i przewiduje przyszłe zachowania emocjonalne.

Ograniczenia

Jednym z głównych ograniczeń naszego badania jest brak trafności ekologicznej. Nawet jeśli nasze podejście eksperymentalne jest niezbędne do ustalenia wartościowych zależności pomiędzy emocjonalną empatią, synchronizacją i rytmem serca, sugerujemy, że przyszłe badania powinny badać takie zależności w bardziej naturalistycznych kontekstach. Innym ograniczeniem badania jest brak aktywności korowej i jej związku z aktywnością obwodową podczas procesu synchronizacji. Możliwością dla przyszłych badań mogłoby być zbadanie, czy centralna aktywność mózgu jest związana z aktywnością obwodową, gdy synchronizacja działa w interakcji człowiek-człowiek i dziecko-robot. Wreszcie, zgodzilibyśmy się, że w naszym badaniu nie uwzględniliśmy populacji klinicznej. Przyszłe badania powinny badać jedną grupę kliniczną (ASD lub uraz głowy) przynajmniej w porównaniu z grupą typową.

Wkład Autora

IG opracował metodę, przeprowadził eksperyment, zebrał dane, przeanalizował i przygotował manuskrypt. TW jest twórcą robota. IG, KT i TW dyskutowali nad artykułem.

Funding

Badanie należy do międzynarodowego projektu dotyczącego interakcji zabawkowych robotów z dziećmi, sponsorowanego przez Francusko-Japońską Fundację w Paryżu (FJF16P29).

Oświadczenie o konflikcie interesów

Autorzy deklarują, że badania zostały przeprowadzone przy braku jakichkolwiek komercyjnych lub finansowych powiązań, które mogłyby być interpretowane jako potencjalny konflikt interesów.

Recenzent EF i Redaktor prowadzący zadeklarowali wspólną przynależność.

Podziękowania

Jesteśmy wdzięczni wszystkim uczestnikom i ich rodzicom, Inspektorowi Pedagogicznemu, Doradcy Edukacyjnemu, Dyrektorowi i zespołowi dyrektorów szkół podstawowych pierwszej dzielnicy Paryża, Francja i Gifu, Japonia.

Audrey, S. (2009). A cross-cultural discussion of Japan and south Korea and how differences are manifested in the ESL/EFL classroom. Asian Soc. Sci. 5, 34-39.

Gallese, V. (2003). The roots of empathy: the shared manifold hypothesis and the neural basis of intersubjectivity. Psychopathology 36, 171-180. doi: 10.1159/000072786

PubMed Abstract | CrossRef Full Text | Google Scholar

Giannopulu, I. (2016a). „Enrobotment: toy robots in the developing brain,” in Handbook of Digital Games and Entertainment Technologies, eds R. Nakatsu, M. Rauterberg, and P. Ciancarini (Berlin: Springer Science),1-29.

Google Scholar

Giannopulu, I. (2016b). Contribution to the Comprehension of Multimodal Representations (Przyczynek do rozumienia reprezentacji multimodalnych). Saarbrücken: European Editions.

Giannopulu, I., and Watanabe, T. (2015). „Conscious/unconscious emotional dialogues in typical children in the presence of an interactor robot,” in Proceedings of the 24th IEEE International Symposium on Robot and Human Interactive Communication, Nanjing, 264-270.

Google Scholar

Giannopulu, I., and Watanabe, T. (2018). „Inter-indywidualne różnice w świadomych i nieświadomych procesach podczas interakcji robot-dziecko,” in New Trends in Medical and Service Robots – Design, Analysis and Control, eds M. Husty and M. Hofbaur (Berlin: Springer), 147-158.

Google Scholar

Müller, V., and Lindenberger, U. (2011). Wzorce sercowe i oddechowe synchronizują się między osobami podczas śpiewu chóralnego. PLoS One 6:e24893. doi: 10.1371/journal.pone.0024893

PubMed Abstract | CrossRef Full Text | Google Scholar

Panayiotou, G., and Constantinou, E. (2017). Emotion dysregulation in alexithymia: startle reactivity to fearful affective imagery and its relation to heart rate variability. Psychophysiology 54, 1323-1334. doi: 10.1111/psyp.12887

PubMed Abstract | CrossRef Full Text | Google Scholar

Porges, S. (2007). Filogenetyczna podróż przez niejasny i niejednoznaczny X nerw czaszkowy: komentarz do współczesnych badań nad zmiennością rytmu serca. Biol. Psychol. 74, 301-307. doi: 10.1016/j.biopsycho.2006.08.007

PubMed Abstract | CrossRef Full Text | Google Scholar

Steinbeis, N., Bernhardt, B. C., and Singer, T. (2015). Age-related differences in function and structure of rSMG and reduced functional connectivity with DLPFC explains heightened emotional egocentricity bias in childhood. Soc. Cogn. Affect. Neurosci. 10, 302-310. doi: 10.1093/scan/nsu057

PubMed Abstract | CrossRef Full Text | Google Scholar

Wierzbicka, A. (1992). Semantyka, kultura i poznanie: Universal Human Concepts in Culture-Specific Configurations. Oxford: Oxford Press.

Google Scholar

Winnicott, D. W. (1971). Zabawa i rzeczywistość. Taylor, MI: Tavistock Publications.

Google Scholar