Ricerca

Con il miglioramento della tecnologia, migliora anche la nostra capacità di creare agenti artificiali simili alla vita, come robot e computer grafica – ma questa può essere un’arma a doppio taglio.

“Assomigliare alla forma o al comportamento umano può essere sia un vantaggio che uno svantaggio”, spiega il professor Astrid Rosenthal-von der Pütten, cattedra di Individualità e Tecnologia alla RWTH Aachen University. La simpatia di un agente artificiale aumenta più diventa simile all’uomo, ma solo fino a un certo punto: a volte la gente sembra non gradire quando il robot o la computer grafica diventano troppo simili all’uomo.”

Questo fenomeno è stato descritto per la prima volta nel 1978 dal professore di robotica Masahiro Mori, che ha coniato un’espressione in giapponese che è stata poi tradotta come “Uncanny Valley”.

Ora, in una serie di esperimenti riportati nel Journal of Neuroscience, neuroscienziati e psicologi nel Regno Unito e in Germania hanno identificato i meccanismi all’interno del cervello che dicono che aiutano a spiegare come si verifica questo fenomeno – e possono anche suggerire modi per aiutare gli sviluppatori a migliorare il modo in cui le persone rispondono.

“Per un neuroscienziato, la ‘Uncanny Valley’ è un fenomeno interessante”, spiega il dottor Fabian Grabenhorst, un Sir Henry Dale Fellow e docente presso il Dipartimento di Fisiologia, Sviluppo e Neuroscienze all’Università di Cambridge. “Implica un meccanismo neurale che prima giudica quanto vicino un dato input sensoriale, come l’immagine di un robot, si trova al confine di ciò che percepiamo come un agente umano o non umano. Questa informazione verrebbe poi utilizzata da un sistema di valutazione separato per determinare la simpatia dell’agente.”

Per studiare questi meccanismi, i ricercatori hanno studiato i modelli cerebrali in 21 individui sani durante due diversi test utilizzando la risonanza magnetica funzionale (fMRI), che misura i cambiamenti nel flusso di sangue all’interno del cervello come proxy di quanto siano attive diverse regioni.

Nel primo test, ai partecipanti è stata mostrata una serie di immagini che includevano umani, umani artificiali, robot androidi, robot umanoidi e robot meccanoidi, e gli è stato chiesto di valutarli in termini di simpatia e somiglianza umana.

Poi, in un secondo test, ai partecipanti è stato chiesto di decidere a quale di questi agenti si sarebbero affidati per scegliere un regalo personale per loro, un regalo che sarebbe piaciuto a un umano. In questo caso, i ricercatori hanno scoperto che i partecipanti preferivano generalmente i regali provenienti da esseri umani o da agenti artificiali più simili agli umani – tranne quelli che erano più vicini al confine umano/non umano, in linea con il fenomeno della Uncanny Valley.

Misurando l’attività cerebrale durante questi compiti, i ricercatori sono stati in grado di identificare quali regioni del cervello erano coinvolte nel creare il senso della Uncanny Valley. Alcune delle aree cerebrali vicine alla corteccia visiva, che decifra le immagini visive, tenevano traccia di quanto le immagini fossero simili a quelle umane, cambiando la loro attività quanto più un agente artificiale diventava simile all’uomo – in un certo senso, creando uno spettro di “somiglianza umana”.

Lungo la linea mediana del lobo frontale, dove gli emisferi cerebrali destro e sinistro si incontrano, c’è un muro di tessuto neurale noto come corteccia prefrontale mediale. In studi precedenti, i ricercatori hanno dimostrato che questa regione del cervello contiene un sistema di valutazione generico che giudica tutti i tipi di stimoli; per esempio, hanno mostrato in precedenza che questa zona del cervello segnala il valore di ricompensa di piacevoli frullati ad alto contenuto di grassi e anche di stimoli sociali come il tocco piacevole.

Nel presente studio, due parti distinte della corteccia prefrontale mediale erano importanti per la Uncanny Valley. Una parte ha convertito il segnale di somiglianza umana in un segnale di “rilevamento umano”, con un’attività in questa regione che enfatizzava eccessivamente il confine tra stimoli umani e non umani – reagendo più fortemente agli agenti umani e molto meno agli agenti artificiali.

La seconda parte, la corteccia prefrontale ventromediale (VMPFC), ha integrato questo segnale con una valutazione di simpatia per produrre un modello di attività distinto che corrispondeva strettamente alla risposta della Uncanny Valley.

“Siamo stati sorpresi di vedere che la corteccia prefrontale ventromediale ha risposto agli agenti artificiali esattamente nel modo previsto dall’ipotesi della Uncanny Valley, con risposte più forti agli agenti più simili agli umani, ma poi mostrando un calo di attività vicino al confine umano/non umano – la caratteristica ‘valle'”, dice il dottor Grabenhorst.

Le stesse aree cerebrali erano attive quando i partecipanti hanno preso decisioni se accettare un regalo da un robot, segnalando le valutazioni che hanno guidato le scelte dei partecipanti. Un’altra regione – l’amigdala, che è responsabile delle risposte emotive – era particolarmente attiva quando i partecipanti rifiutavano i regali dagli agenti artificiali simili agli umani, ma non umani. Il “segnale di rifiuto” dell’amigdala era più forte nei partecipanti che erano più propensi a rifiutare i regali da agenti artificiali.

I risultati potrebbero avere implicazioni per la progettazione di agenti artificiali più simpatici. Il dottor Grabenhorst spiega: “Sappiamo che i segnali di valutazione in queste regioni del cervello possono essere cambiati attraverso l’esperienza sociale. Quindi, se sperimentate che un agente artificiale fa le scelte giuste per voi – come scegliere il regalo migliore – allora la vostra corteccia prefrontale ventromediale potrebbe rispondere più favorevolmente a questo nuovo partner sociale.”

“Questo è il primo studio che mostra le differenze individuali nella forza dell’effetto Uncanny Valley, il che significa che alcuni individui reagiscono in modo eccessivo e altri meno sensibile agli agenti artificiali simili agli umani”, dice il professor Rosenthal-von der Pütten. “Questo significa che non c’è un unico design di robot che si adatta – o spaventa – tutti gli utenti. A mio parere, il comportamento intelligente dei robot è di grande importanza, perché gli utenti abbandoneranno i robot che non si dimostrano intelligenti e utili.”

La ricerca è stata finanziata da Wellcome e dalla German Academic Scholarship Foundation.