Frontières en psychologie

Introduction

Le terme empathie dérive du mot grec ancien « εμπάθεια » (« εν πάθoς », c’est-à-dire dans la passion), qui a été utilisé pour créer le mot allemand « Einfühlung » qui signifie « se sentir dans ». L’empathie a été définie comme un processus à multiples facettes englobant des composantes émotionnelles et cognitives (Christov-Moore et al., 2014). Dans cette étude, nous nous concentrons principalement sur l’empathie émotionnelle. Dans un processus interactif humain-humain, l’empathie émotionnelle conduit à discerner les sentiments d’un autre et reflète la correspondance entre les sentiments de  » soi  » et ceux de  » l’autre  » (Kanske, 2018). En tant que telle, l’empathie émotionnelle englobe le partage similaire de l’état émotionnel positif ou négatif de l’autre personne qui peut être généré par une communication interpersonnelle directe (Lamm et al., 2017).

Il a été démontré que l’empathie émotionnelle est une prémisse de la synchronisation entre les enfants et leurs mères. A l’âge de 2 à 3 ans, les enfants semblent capables d’anticiper les états émotionnels des autres (Tramacere et Ferrari, 2016). Les références développementales suggèrent que les enfants âgés de 6 à 7 ans peuvent reconnaître et répondre avec empathie aux émotions positives et négatives de leurs compagnons animés ou inanimés dans des situations complexes (Winnicott, 1971). Comme les enfants grandissent dans des environnements différents avec des conventions contrastées, y compris en matière d’émotions, il pourrait être logique qu’ils construisent des idées différentes sur la signification associée à ces conventions. De nombreuses options ont été utilisées pour explorer la communication interpersonnelle. Alors que les facteurs contextuels sont considérés comme cruciaux pour concevoir une meilleure interaction interpersonnelle, les théories affirment que les enfants naissent avec un sentiment et une expression intégrés de leur moi émotionnel dans leur relation avec les autres (Frith et Frith, 2003). Dans l’interaction entre humains, l’ajustement émotionnel entre les compagnons est basé sur la synchronisation et la relation (Lischke et al., 2018). Par conséquent, il a été démontré que lorsque les personnes interagissent verbalement et non verbalement en face à face, elles synchronisent naturellement leurs réactions (Llobera et al., 2016 ; Cornejo et al., 2017).

Au delà des études sur l’interaction interpersonnelle, il existe quelques enquêtes transéducatives sur la façon dont les enfants interagissent avec les robots. Même ainsi, ces investigations ne sont pas convaincantes. Certaines études ont indiqué que lorsque les robots étaient utilisés comme compagnons, plusieurs aspects de la communication humain-humain étaient directement reproduits dans la communication humain-robot (Audrey, 2009). D’autres ont montré que la façon dont les humains communiquent avec les robots dépend de l’éducation (Castellano et al., 2010 ; Shahid et al., 2014). Basées sur des observations ou des questionnaires d’auto-évaluation, la plupart des études susmentionnées ont été menées plus fréquemment avec des adultes qu’avec des enfants utilisant des robots anthropomorphes ou zoomorphes (Mitchell et Hamm, 1997). Seule une attention marginale a été accordée à la comparaison entre l’interaction homme-homme et l’interaction homme-robot à l’aide de robots jouets (c’est-à-dire des robots non anthropomorphes ou non zoomorphes). En outre, dans les études transversales susmentionnées, la question d’un mécanisme de synchronisation entre les compagnons (humains et/ou robots) n’a jamais été étudiée. Pourtant, cette question est fondamentale lorsque nous explorons l’interaction homme-robot (Giannopulu, 2016a,b, 2018).

En soulignant l’importance de la synchronisation, notre point de vue est congruent avec la position neuroconstructiviste. Selon cette position, le développement émotionnel, y compris l’empathie émotionnelle, découle de changements contextuels dynamiques dans les structures neuronales conduisant à des représentations constructives dans plusieurs régions du cerveau (Marschal et al., 2010). En tant que telles, ces représentations dépendent non seulement du contexte neuronal mais aussi du contexte physique (Cacioppo et al., 2014). L’analogie entre l’activité neuronale au cours des expériences a encore motivé l’interprétation de l’empathie émotionnelle comme un processus de simulation, associé à un biomarqueur robuste : le système des neurones miroirs (Rizzolatti et Craighero, 2008). Les données neuroscientifiques indiquent qu’il existe des parallèles suggestifs entre l’expérience émotionnelle du « soi » et des « autres » (Lamm et al., 2011). Des zones en développement telles que l’amygdale, l’insula postérieure et le cortex préfrontal ventromédian partagent l’empathie émotionnelle chez les enfants âgés de 6 à 7 ans, même si elles présentent des changements de fonctionnalité au cours de la vie (Decety et Michalska, 2010 ; Steinbeis et al., 2015 ; Tramacere et Ferrari, 2016). Les aires sous-corticales (c’est-à-dire les aires du mésencéphale), se développent en association avec ces autres aires (Fan et al., 2011) soulignant la possibilité d’un fonctionnement automatique et inconscient (Giannopulu et Watanabe, 2015, 2018 ; Giannopulu et al., 2016, 2018 ; Giannopulu, 2018). En fait, il a été révélé que l’empathie émotionnelle est directement associée à une activité autonome médiée par la fréquence cardiaque (Müller et Lindenberger, 2011). Les techniques physiologiques ont donc rapporté des preuves de synchronisation de la fréquence cardiaque entre des partenaires adultes (Levenson et Gottman, 1985) et des dyades mère-enfant (Feldman et al., 2011). Les individus ayant un niveau élevé d’empathie émotionnelle ont montré des fréquences cardiaques élevées (Stellar et al., 2015 ; Lischke et al., 2018) et ont rapporté n’avoir pratiquement aucune difficulté à reconnaître et à exprimer leurs propres sentiments émotionnels (Panayiotou et Constantinou, 2017).

Dans le cadre d’un projet international et interdisciplinaire sur l’interaction homme-homme et homme-robot utilisant une communication verbale et non-verbale entre deux acteurs, un locuteur et un auditeur, nous avons étudié l’empathie émotionnelle chez deux groupes d’enfants : Français et Japonais. Le locuteur était toujours un enfant neurotypique, et l’auditeur était un humain ou un robot-jouet nommé « Pekoppa » qui réagissait aux sons de la parole en hochant la tête (Watanabe, 2011 ; Giannopulu, 2016a,b ; Giannopulu et al., 2016, 2018). Sur la base d’une construction mathématique, le robot-jouet génère automatiquement un mouvement de hochement de tête à partir de la parole, ce qui favorise la synchronisation avec l’orateur (Watanabe, 2011). Spécialement conçu pour l’intercommunication homme-robot, ce robot-jouet est un auditeur universel. L’humain de l’étude était le même en France et au Japon, et a effectué la même procédure dans les deux pays. L’ensemble des recherches discutées jusqu’à présent soutient implicitement l’inférence selon laquelle l’utilisation d’un synchroniseur universel tel que le robot-jouet « Pekoppa » entraînerait des similitudes dans les échanges communicatifs entre les enfants français et japonais. En effet, dans chaque groupe, les enfants discerneraient tous les signes communicatifs en fonction de leur compréhension de l’état empathique donné derrière le comportement d’autrui : humain ou robot. Par conséquent, nous avons émis l’hypothèse que l’empathie émotionnelle, qui est un mécanisme de synchronisation, conduirait à des similitudes potentielles entre les compagnons (humain-humain et humain-robot) tant en France qu’au Japon.

Matériels et Méthodes

Participants

Deux groupes d’enfants de 6 ans ont participé à l’étude. Vingt enfants (10 garçons et 10 filles) composaient le  » groupe français  » ; vingt enfants (10 garçons et 10 filles) composaient le  » groupe japonais.  » L’âge de développement du premier groupe variait de 6 à 7 ans (moyenne = 6,3 ans ; écart-type = 4 mois). L’âge de développement du second groupe était compris entre 6 et 7 ans (moyenne = 6,4 ans ; écart-type = 2,4 mois). Les enfants étaient issus de la même classe à Paris et à Gifu. D’après leurs parents et eux-mêmes, aucun d’entre eux n’avait d’expérience préalable avec les robots. Tous les enfants étaient en bonne santé. Comme l’ont indiqué leurs enseignants, les enfants fréquentaient des écoles ordinaires et ne présentaient pas de troubles de l’apprentissage, de maladies neurodéveloppementales ou de problèmes cardiaques ou psychiatriques. Leurs résultats scolaires étaient normaux dans leurs écoles. L’étude a été approuvée par le comité d’éthique local de Paris (Comité scientifique de protection des personnes), en France, et de Gifu (Medical Review Board of Gifu University Graduate School of Medicine), au Japon, et était conforme à la convention 2.0 d’Helsinki. L’anonymat a été garanti. Dans les deux pays, les parents ont donné leur consentement éclairé, à la fois verbalement et par écrit, pour la participation de leurs enfants à l’étude ainsi que pour l’analyse des données ; toutefois, ils n’ont pas autorisé les auteurs à envoyer les données brutes. En outre, à Paris et à Gifu, chaque enfant a été invité à donner son consentement verbal avant le début de l’étude.

Robot

Un robot-jouet InterActor, appelé  » Pekoppa « , a été utilisé en tant qu’auditeur (Watanabe, 2011). Pekoppa est l’expression la plus simple de Sakura qui est un robot humanoïde qui réagit aux sons de la parole en hochant seulement la tête de la même manière que les humains. Pekoppa a la forme d’une plante bilobée et ses feuilles et sa tige réagissent aux sons de la parole en hochant la tête, ce qui favorise le partage de l’expérience mutuelle dans la communication (voir figure 1). Il utilise un matériau appelé BioMetal composé d’un alliage à mémoire de forme qui agit comme sa force motrice.

FIGURE 1

FIGURE 1. Robot-jouet InterActor (Giannopulu et al, 2016).

Dispositif de fréquence cardiaque

Un cardiofréquencemètre de la montre Mio Alpha a été utilisé pour enregistrer la fréquence cardiaque. Elle était systématiquement placée sur la main gauche de chaque participant à Paris et à Gifu. Mio Alpha mesure la fréquence cardiaque en ligne en utilisant deux LED vertes et une cellule photo-électrique. Les LED sont intégrées dans la plaque arrière de la montre. Elles projettent de la lumière sur la peau, ce qui permet à la cellule photo-électrique de détecter le volume du flux sanguin. Le capteur optique affiche une précision de -01 ± 0,3 bpm. De nature universelle, le dispositif peut être utilisé tout au long de la vie. Cependant, les limites physiologiques de la fréquence cardiaque diffèrent selon l’âge des individus. A l’âge de 6 à 7 ans, la fréquence cardiaque correspond à 95 bpm (± 30).

Procédure

Pour les deux groupes, l’étude s’est déroulée dans une salle avec laquelle les enfants étaient familiers. La salle était située dans un contexte scolaire à la fois à Paris et à Gifu. Nous avons défini trois conditions : la première était appelée  » condition de repos « , la deuxième était appelée  » avec humain « , c’est-à-dire enfant-adulte, et la troisième était appelée  » avec robot  » (c’est-à-dire enfant-robot). Les deuxième et troisième conditions étaient contrebalancées entre les enfants. La durée de la « condition de repos » était de 1 minute ; les deuxième et troisième conditions duraient chacune environ 7 minutes. L’intervalle entre les conditions était d’environ 30 s. Pour chaque enfant, l’ensemble de la session expérimentale durait 15 min (voir figure 2).

FIGURE 2

FIGURE 2. Scénario écouteur-parleur (Giannopulu et al., 2016).

Au début de chaque session, l’expérimentateur a présenté le robot à l’enfant en expliquant que le robot hoche la tête chaque fois que l’enfant parle. Ensuite, l’expérimentateur a caché le robot. La session se déroulait comme suit : pendant la « condition de repos », le rythme cardiaque de chaque enfant était mesuré en silence. À la fin de cette condition, l’enfant devait également estimer son propre sentiment émotionnel sur une échelle allant de 1 (le niveau le plus bas) à 5 (le niveau le plus élevé) (Giannopulu et Sagot, 2010 ; Giannopulu, 2011, 2013 ; 2016a ; 2016b ; Giannopulu et Watanabe, 2014 ; Giannopulu et al., 2016, 2018). Chaque niveau correspondait à un état émotionnel spécifique représenté par le visage de l’enfant comme suit : 1er moyen, 2e moyennement bon, 3e bon, 4e très bon, 5e excellent. Pendant la condition « avec humain », l’enfant était invité à parler à l’expérimentateur. A cette fin, l’expérimentateur a demandé à l’enfant « ce que tu as fait à l’école depuis ce matin ». Ainsi, l’expérimentateur lançait la discussion et écoutait ensuite en se contentant de faire un signe de tête à l’enfant. Le rythme cardiaque de chaque enfant a été mesuré pendant ce temps. Dans la condition « avec robot », le robot était réglé pour hocher la tête ; l’expérimentateur a donné le robot à l’enfant et l’a invité à l’utiliser. Comme précédemment, l’expérimentateur a demandé à l’enfant de raconter au robot « ce qu’il ou elle a fait à l’école depuis ce matin ». Le robot était l’auditeur, l’enfant était le locuteur et l’expérimentateur restait silencieux et discret. Le rythme cardiaque a été enregistré au même moment, une fois de plus. L’étude a commencé vers 14h00, heure de Paris et de Gifu, pour tous les enfants. A la fin de la session, l’enfant était invité à estimer sa propre émotion sur la même échelle susmentionnée. Plus particulièrement, chaque enfant était invité à rapporter son propre sentiment émotionnel après le contact avec le robot (Giannopulu et Watanabe, 2015 ; Giannopulu, 2016a,b, 2018 ; Giannopulu et al., 2016, 2018).

Analyse

La fréquence cardiaque a servi de première variable dépendante dans une ANOVA à modèle mixte 3 ( » Repos « ,  » Interacteur humain  » et  » Interacteur robot « ) × 2 ( » Français  » vs  » Japonais « ). Le sentiment émotionnel rapporté a servi de deuxième variable dépendante en utilisant le test de Wilcoxon par paires signées. Nous avons également effectué une statistique des comparaisons en utilisant le test t de student pour examiner les différences de fréquence cardiaque et le test du chi-deux pour analyser le sentiment émotionnel rapporté. Les résultats obtenus ont été très similaires. Nous présentons ci-dessous les résultats de l’ANOVA et du test des paires signées de Wilcoxon. L’analyse des données a été réalisée avec SPSS Statistics 24.

Résultats

D’abord, nous présentons les résultats de la fréquence cardiaque des deux groupes dans trois conditions : « repos », « avec humain » et « avec robot ». We then examine the emotional feeling reported for each group.

FIGURE 3

FIGURE 3. Heart rate comparison between neurotypical Japanese and French children in ‘rest,’ ‘with human,’ and ‘with robot’ condition (∗p < 0.05; ∗∗p < 0.01).

Figure 4 shows that the initial emotional state of French and Japanese children did not differ (Mann–Whitney U = 129.5, p = 0.0623). In the same vein, the final emotional state of both groups did not differ (Mann–Whitney U = 167.5, p = 0.3843). The interaction with the InterActor robot did not have any significant effect in the initial emotional state of French and Japanese children (Wilcoxon two-tailed test p > 0.05, T = 45, n = 20 and Wilcoxon two-tailed test p > 0.05, T = 9, n = 20 respectively).

FIGURE 4

FIGURE 4. Comparaison du sentiment émotionnel rapporté  » avant  » et  » après  » l’interaction avec le robot chez des enfants japonais et français neurotypiques.

Discussion et conclusion

Cette étude a porté sur l’empathie émotionnelle comme mécanisme de synchronisation, en utilisant le même paradigme locuteur-auditeur et le même humain (c’est-à-dire l’expérimentateur) dans deux groupes d’enfants, un français et un japonais. Elle a révélé que, malgré une expression empathique émotionnelle non verbale plus importante chez les enfants japonais que chez les enfants français dans la condition de repos, un mécanisme de synchronisation similaire caractérisait l’échange communicatif non verbal lorsque les deux groupes d’enfants interagissaient avec un humain ou un robot jouet. Lorsque les enfants japonais interagissaient avec le robot, leur fréquence cardiaque était plus élevée que lorsqu’ils interagissaient avec l’humain. De plus, l’état émotionnel initial rapporté n’était pas différent chez les enfants japonais et français. L’interaction avec le robot jouet n’a pas affecté l’état émotionnel final pour les deux groupes d’enfants.

Nos résultats sont cohérents avec des résultats récents qui ont rapporté une interdépendance significative entre l’empathie émotionnelle et la synchronisation chez les adultes (Levenson et Gottman, 1985 ; Stellar et al., 2015 ; Lischke et al., 2018) et dans les dyades mère-enfant (Feldman et al., 2011). Mais ces résultats concordent également avec notre hypothèse selon laquelle l’empathie émotionnelle qui est un mécanisme de synchronisation, conduit à des similitudes potentielles entre deux groupes d’enfants différents : Français et Japonais. Cela semble se traduire par l’ajustement d’un état physiologique automatique donné : le rythme cardiaque. Physiologiquement parlant, la fréquence cardiaque est contrôlée automatiquement par le système nerveux sympathique (SNS) et le système nerveux parasympathique (PNS) du système nerveux autonome (ANS) et fournit une mesure du fonctionnement autonome (c’est-à-dire du fonctionnement inconscient) (Porges, 2007). Le SNP est activé pendant le repos afin de maintenir l’homéostasie ; le SNS est activé pendant les périodes de changement perçu en augmentant, la fréquence cardiaque et en mobilisant le fonctionnement émotionnel (Suurland et al., 2016). Les deux systèmes physiologiques agissent de manière complémentaire pour répondre et s’adapter aux changements internes et externes ; à savoir que les deux systèmes sont basés sur la synchronisation. Il convient de noter que le SNS est contrôlé par la moelle épinière, tandis que le PNS est contrôlé par la moelle épinière et le cerveau. Ostensiblement, dans la condition de repos, le rythme cardiaque des enfants japonais était plus élevé que celui des enfants français. Cette activité automatique fournirait un support à l’engagement des enfants et indiquerait un état émotionnel donné. Lorsque les enfants japonais étaient en contact avec l’humain ou le robot-jouet, leur fréquence cardiaque était similaire à celle des enfants français.

Contrairement aux données affirmant que les fonctions autonomes du système cardiovasculaire dépendent en grande partie de facteurs génétiques (Tanaka et al., 1994), la présente étude indique que ces fonctions semblent plus susceptibles de reposer sur l’inter communication possible via un humain ou un robot-jouet dans notre situation. Essentiellement, les deux groupes d’enfants ont exprimé des profils de fréquence cardiaque potentiellement similaires dans toutes les conditions, à l’exception d’une fréquence cardiaque plus élevée en interaction avec le robot qu’en interaction avec l’humain pour les enfants japonais. Un profil similaire a été observé pour les enfants français, même si les données ne sont pas statistiquement significatives. Notez que la fréquence cardiaque des enfants japonais était très similaire dans les conditions « repos » et « humain » où l’humain était le principal « acteur » passif ou actif. Notez également que l’humain, et le robot jouet, étaient les mêmes en France et au Japon. Dans les deux groupes, le rythme cardiaque était quasi-identique lorsque les deux groupes d’enfants interagissaient avec le robot.

Le partage et la transformation des états émotionnels des enfants émaneraient de leur compréhension de l’expérience émotionnelle qui caractérise l’autre (Giannopulu et al., 2016, 2018 ; Giannopulu, 2018). Basée sur la synchronisation interpersonnelle, c’est l’essence même de la condition de locuteur-auditeur (Tatsukawa et al., 2016). Dans ce contexte, les deux interlocuteurs réalisent un scénario de communication en essayant diverses réactions émotionnelles verbales et non verbales. La réaction verbale nécessite l’élaboration de phrases cohérentes ; la réaction non verbale prend la forme de hochements de tête et/ou de divers types d’expressions faciales (Giannopulu, 2016a,b, 2018 ; Giannopulu et al., 2016, 2018 ; Giannopulu et Watanabe, 2018). Intimement liées à l’état du locuteur, ces réponses signifient que tout (ou une partie) est en train d’être intégré (Clark, 1996 ; Bavelas et al., 2002). Une communication réussie exige que le locuteur et l’auditeur interprètent avec précision (via les processus émotionnels verbaux et non verbaux) le sens de l’énoncé émotionnel de l’autre. Il semble que la nature émotionnelle non verbale expressive d’une action humaine (c’est-à-dire le rythme cardiaque associé au système nerveux autonome) dépeint une indication de la déclaration émotionnelle de l’autre au moins. Cela pourrait être considéré comme un processus de résonance émotionnelle, ou une sorte de mécanisme de synchronisation inconscient qui semble être similaire entre les enfants japonais et français. Comme l’état émotionnel rapporté est analogue dans les deux populations, il semble que l’expression émotionnelle verbale serait également associée à ce mécanisme. Ce dernier résultat serait cohérent avec les théories selon lesquelles les concepts émotionnels de base tels que  » vouloir « ,  » ressentir  » ou  » sentir  » sont communs à tous les contextes éducatifs (Wierzbicka, 1992).

Au vu des résultats actuels, il semble que tant dans les populations françaises que japonaises l’empathie émotionnelle nécessiterait l’implication d’une identification automatique inconsciente sans empathie cognitive intermédiaire (Gallese, 2003 ; Asada, 2014). Une telle identification est active avec les humains et avec les robots jouets. Des données récentes sont en accord : les enfants émotionnellement empathiques présentent des expressions non verbales inconscientes (Giannopulu et Watanabe, 2018 ; Giannopulu et al., 2018). Des données de neuro-imagerie soutiennent également un tel processus, suggérant que le système des neurones miroirs est impliqué non seulement dans l’intersubjectivité des actions mais aussi dans l’empathie émotionnelle qui permet de se sentir en relation avec les autres (c’est-à-dire la synchronisation intersubjective) (Carr et al., 2003). Un tel mécanisme neuronal autorise, par essence, à comprendre les sentiments d’autrui ainsi qu’à exprimer ses propres sentiments (Gallese, 2003). Une représentation partagée de l’état empathique émotionnel sous-tend le processus. En ce sens, l’empathie émotionnelle serait considérée comme une large idiosyncrasie inconsciente offrant à l’esprit une forme spécifique de communication : un mode de simulation automatique des expériences émotionnelles qui est analogue entre les enfants français et japonais. Par conséquent, nos résultats sont conformes à l’hypothèse selon laquelle le cerveau des enfants simule les sentiments des autres à un niveau inconscient. Cela pourrait être utile pour les deux groupes d’enfants neurotypiques analysés dans notre étude. Compte tenu de ce qui précède, l’empathie émotionnelle pourrait être considérée comme un mécanisme de synchronisation qui soutient les interactions homme-homme et homme-robot et prédit les comportements émotionnels futurs.

Limitations

Une des principales limites de notre étude est l’absence de validité écologique. Même si notre approche expérimentale est indispensable pour établir des relations valables entre l’empathie émotionnelle, la synchronisation et la fréquence cardiaque, nous suggérons que les études futures explorent ces relations dans des contextes plus naturalistes. Une autre limite de l’étude est le manque d’activité corticale et sa relation avec l’activité périphérique pendant le processus de synchronisation. Une possibilité pour de futures recherches pourrait être d’étudier si l’activité centrale du cerveau est liée à l’activité périphérique lorsque la synchronisation opère dans l’interaction homme-homme et dans l’interaction enfant-robot. Enfin, nous convenons que notre étude n’a pas inclus une population clinique. Les études futures devraient examiner un groupe clinique (TSA ou traumatisme crânien) au moins en comparaison avec un groupe typique.

Contributions des auteurs

L’IG a développé la méthode, réalisé l’expérience, collecté les données, analysé et préparé le manuscrit. TW est le créateur du robot. IG, KT et TW ont discuté de l’article.

Financement

L’étude appartient à un projet international sur les interactions enfants-robots jouets sponsorisé par la Fondation franco-japonaise de Paris (FJF16P29).

Déclaration de conflit d’intérêts

Les auteurs déclarent que la recherche a été menée en l’absence de toute relation commerciale ou financière qui pourrait être interprétée comme un conflit d’intérêts potentiel.

Le réviseur EF et le manipulateur Editor ont déclaré leur affiliation commune.

Remerciements

Nous remercions tous les participants et leurs parents, l’inspecteur pédagogique, le conseiller pédagogique, le directeur et l’équipe de l’école primaire principale du premier arrondissement de Paris, France et Gifu, Japon.

Audrey, S. (2009). Une discussion interculturelle du Japon et de la Corée du Sud et comment les différences se manifestent dans la classe ESL/EFL. Asian Soc. Sci. 5, 34-39.

Gallese, V. (2003). Les racines de l’empathie : l’hypothèse du collecteur partagé et la base neurale de l’intersubjectivité. Psychopathologie 36, 171-180. doi : 10.1159/000072786

PubMed Abstract | CrossRef Full Text | Google Scholar

Giannopulu, I. (2016a). « Enrobotment : toy robots in the developing brain », in Handbook of Digital Games and Entertainment Technologies, eds R. Nakatsu, M. Rauterberg, and P. Ciancarini (Berlin : Springer Science),1-29.

Google Scholar

Giannopulu, I. (2016b). Contribution à la compréhension des représentations multimodales. Saarbrücken : Éditions européennes.

Giannopulu, I., et Watanabe, T. (2015). « Dialogues émotionnels conscients/inconscients chez des enfants typiques en présence d’un robot interacteur », dans les Actes du 24e Symposium international de l’IEEE sur la communication interactive entre robots et humains, Nanjing, 264-270.

Google Scholar

Giannopulu, I., et Watanabe, T. (2018). « Inter-individual differences in conscious and unconscious processes during robot-child interaction », dans New Trends in Medical and Service Robots – Design, Analysis and Control, eds M. Husty and M. Hofbaur (Berlin : Springer), 147-158.

Google Scholar

Müller, V., et Lindenberger, U. (2011). Les modèles cardiaques et respiratoires se synchronisent entre les personnes pendant le chant choral. PLoS One 6:e24893. doi : 10.1371/journal.pone.0024893

PubMed Abstract | CrossRef Full Text | Google Scholar

Panayiotou, G., et Constantinou, E. (2017). Dérèglement des émotions dans l’alexithymie : réactivité de sursaut à l’imagerie affective craintive et sa relation avec la variabilité de la fréquence cardiaque. Psychophysiologie 54, 1323-1334. doi : 10.1111/psyp.12887

PubMed Abstract | CrossRef Full Text | Google Scholar

Porges, S. (2007). Un voyage phylogénétique à travers le vague et ambigu Xe nerf crânien : un commentaire sur la recherche contemporaine sur la variabilité de la fréquence cardiaque. Biol. Psychol. 74, 301-307. doi : 10.1016/j.biopsycho.2006.08.007

PubMed Abstract | CrossRef Full Text | Google Scholar

Steinbeis, N., Bernhardt, B. C., et Singer, T. (2015). Des différences liées à l’âge dans la fonction et la structure du rSMG et une connectivité fonctionnelle réduite avec le DLPFC expliquent le biais d’égocentrisme émotionnel accru dans l’enfance. Soc. Cogn. Affect. Neurosci. 10, 302-310. doi : 10.1093/scan/nsu057

PubMed Abstract | CrossRef Full Text | Google Scholar

Wierzbicka, A. (1992). Sémantique, culture et cognition : Concepts humains universels dans des configurations spécifiques à la culture. Oxford : Oxford Press.

Google Scholar

Winnicott, D. W. (1971). Playing and Reality. Taylor, MI : Tavistock Publications.

Google Scholar

Les jeux et la réalité.