Il ruolo del contesto nell’interpretazione di espressioni ...

108
Universit` a degli Studi di Parma DIPARTIMENTO DI MEDICINA E CHIRURGIA Corso di Laurea Magistrale in Psicobiologia e Neuroscienze Cognitive Tesi di laurea magistrale Il ruolo del contesto nell’interpretazione di espressioni facciali: uno studio EEG sull’effetto Kuleshov Relatore: Vittorio Gallese Correlatore: Marta Calbi Laureando: Nunzio Langiulli Matricola 269914 Anno Accademico 2017–2018

Transcript of Il ruolo del contesto nell’interpretazione di espressioni ...

Page 1: Il ruolo del contesto nell’interpretazione di espressioni ...

Universita degli Studi di Parma

DIPARTIMENTO DI MEDICINA E CHIRURGIA

Corso di Laurea Magistrale in Psicobiologia e Neuroscienze Cognitive

Tesi di laurea magistrale

Il ruolo del contestonell’interpretazione di espressioni facciali:

uno studio EEG sull’effetto Kuleshov

Relatore:

Vittorio Gallese

Correlatore:

Marta Calbi

Laureando:

Nunzio LangiulliMatricola 269914

Anno Accademico 2017–2018

Page 2: Il ruolo del contesto nell’interpretazione di espressioni ...

2

Alla mia famiglia

Page 3: Il ruolo del contesto nell’interpretazione di espressioni ...

3

Indice

Capitolo 1: Introduzione

1.1 Emozioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

1.1.1 Approccio Categoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

1.1.2 Approccio Dimensionale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.1.3 Il Ruolo del Contesto nell'Analisi dei Volti . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

1.2 Correlati Elettrofisiologici della codifica dei Volti . . . . . . . . . . . . . . . . . .12

1.3 Cinema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .18

1.3.1 L' “Effetto Kuleshov” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

1.3.2 Repliche Precedenti. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

1.4 Obiettivi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .26

Capitolo 2: Materiali, Metodi e Risultati

2.1 Campione Sperimentale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

2.2 Stimoli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

2.3 Procedura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

2.3.1 Compito Sperimentale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

2.3.2 Compito di Categorizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

Page 4: Il ruolo del contesto nell’interpretazione di espressioni ...

4

2.4 Questionari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .37

2.4.1 Interpersonal Reactivity Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .38

2.4.2 Behavioral Activation / Inhibition System Scale . . . . . . . . . . . . . . . . . . . . . . .39

2.4.3 Toronto Alexithymia Scale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .39

2.4.4 State / Trait Anxiety Scale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

2.4.5 Giudizio di Familiarità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .40

2.5 Analisi Comportamentale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

2.5.2 Post Hoc. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

2.5.1 Categorizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .46

2.6 Analisi EEG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

2.6.1 Preprocessing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

2.6.2 Global ERP waveform analysis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .49

2.6.2.1 Condizione di Paura vs Condizione Neutra. . . . . . . . . . . . . . . . . . . . . . . . . . .50

2.6.2.2 Condizione di Felicità vs Condizione Neutra. . . . . . . . . . . . . . . . . . . . . . . . . .64

2.6.2.3 Condizione di Paura vs Condizione di Felicità. . . . . . . . . . . . . . . . . . . . . . . . .75

Capitolo 3: Discussione e Conclusioni

3.1 Discussione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .84

3.1.1 Comportamentale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84

3.1.2 EEG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .86

3.2 Conclusioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .89

Page 5: Il ruolo del contesto nell’interpretazione di espressioni ...

5

Page 6: Il ruolo del contesto nell’interpretazione di espressioni ...

6

Capitolo 1

Introduzione

1.1 Emozioni

Le emozioni sono stati mentali (Cabanac, 2002), legati ad un’attivazione fisiologica

(Schachter & Singer, 1962), di primaria importanza per i nostri processi cognitivi e

motivazionali (Izard, 1971).

Sebbene non vi sia consenso su una definizione generale del termine "emozione" (Kleinginna

& Kleinginna, 1981), molti esperti concordano sul fatto che le emozioni abbiano un insieme

limitato di componenti e caratteristiche (Izard, 2007). Dal punto di vista filogenetico si ritiene

che esistano sistemi neurali dedicati, almeno in parte, ai processi emotivi che svolgerebbero

un ruolo nel motivare il soggetto all'azione e alla valutazione cognitiva, reclutando sistemi di

risposta adattivi selezionati nel corso dell’evoluzione (Darwin, 1972). Le emozioni sono state

classificate, ad esempio, come emozioni di base universali, radicate e definite principalmente

negli schemi biologici e di evoluzione, o emozioni complesse che includono componenti

cognitive che differiscono tra individui e culture (Ekman, 1992; Izard, 2007; Panksepp, 2007).

Tra le manifestazioni del vissuto emotivo ci sono le espressioni facciali che rivestono una

primaria importanza nella nostra comprensione delle emozioni e, più in generale, degli stati

mentali altrui (Ekman, 1992, 1993, Izard, 1994, 2009; Russell, 1997; Tomkins, 1962).

1.1.1 Approccio Categoriale

La teoria ancora oggi dominante nell’ambito della ricerca neuroscientifica, sostiene che

l’uomo si sia evoluto con una dotazione di emozioni di base limitate ed universali (Darwin,

1972), selezionate per favorire l’adattamento dell’individuo all’ambiente (Ekman, 1992;

Panksepp, 1998; Tomkins, 1962). Osservando le espressioni facciali e le risposte fisiologiche

Page 7: Il ruolo del contesto nell’interpretazione di espressioni ...

7

periferiche a stimoli affettivi, diversi autori hanno assunto che ciascuna emozione sia

associata a specifici modelli di attivazione autonomica e a specifiche espressioni facciali

(Ekman, 1992; Ekman, Levenson, & Friesen, 1983).

Da queste osservazioni nasce l’approccio categoriale che sostiene una sostanziale

corrispondenza tra le varie espressioni facciali e le diverse emozioni che possono essere

racchiuse all’interno di differenti categorie (emozioni di base o primarie ed emozioni

complesse o secondarie) (Ekman, 1993; Ekman & Friesen, 1971). Le emozioni di base

manterrebbero le loro caratteristiche indipendentemente dalla cultura e, secondo Ekman,

comprenderebbero sei emozioni: rabbia, tristezza, felicità, paura, disgusto e sorpresa (Ekman

& Friesen, 1971). Studiando le espressioni facciali, Ekman e Friesen hanno notato che ogni

emozione attiva una configurazione di muscoli ben precisi che provoca una mimica facciale

costante. In seguito a questa osservazione, gli stessi autori hanno identificato circa 50 diverse

configurazioni di attivazioni di muscoli facciali a cui hanno dato il nome di “unità d’azione”

che, combinate tra loro, permettevano di codificare e riconoscere tutte le espressioni facciali

osservate, attraverso un sistema di codifica che hanno chiamato FACS (Facial Action Coding

System) (Ekman & Friesen, 1978).

Sebbene questo approccio sia ancora ampiamente adottato in ambito neuroscientifico, ha

ricevuto diverse critiche. Le misure fisiologiche a cui le emozioni di base sono associate

sembrano, infatti, differire in base al tipo di stimolo utilizzato (Hamm, Gerlach, Globisch, &

Vaitl, 1992). Inoltre, come nota lo stesso Ekman, non tutte le emozioni sembrano essere

associate ad una caratteristica espressione facciale (Ekman, 1993) e alcune espressioni

facciali sembrano essere associate a più di una emozione (Posner, Russell, & Peterson, 2005).

Date queste osservazioni, diversi altri autori hanno proposto un approccio meno rigido, che

tenga conto della notevole complessità dell’esperienza emotiva umana.

1.1.2 Approccio dimensionale

I modelli dimensionali considerano le esperienze affettive come un continuum di stati

altamente interconnessi e frequentemente ambigui che spesso vengono riportati come due

distinte dimensioni dell’esperienza emotiva. Ad oggi, queste due dimensioni sono state

concettualizzate in molti modi diversi da svariati autori. Tra gli autori più rappresentativi di

Page 8: Il ruolo del contesto nell’interpretazione di espressioni ...

8

questo approccio c’è Russell il quale identifica due dimensioni, quella della Valenza e quella

dell’Attivazione, che rimandano a due distinti sistemi neurofisiologici dai quali vengono

generati i diversi stati affettivi. Secondo Russell ogni esperienza affettiva è, infatti, la

conseguenza di una combinazione lineare tra questi due sistemi di attivazione (Aviezer et al.,

2008; Hajcak, Weinberg, MacNamara, & Foti, 2012; Posner et al., 2005) ed ha una intrinseca

natura relazionale. Le emozioni, infatti, non sono più viste come dei riflessi prodotti

dall'organismo, ma possono essere utilizzate dall’individuo come segnali di negoziazione

interpersonali all'interno di una transazione o relazione sociale.

Le due dimensioni, Valenza e Attivazione, che descrivono l’esperienza emotiva sono riportate

in Figura 1.1 e determinano una rappresentazione circolare dello spettro emotivo. Il modello

proposto da Russell prende, infatti, il nome di “Modello Circonflesso dell’Affetto”.

Figura 1.1

Fig. 1.1 L’asse orizzontale rappresenta la dimensione della Valenza che si riferisce al grado di piacevolezza o spiacevolezza di una

emozione, mentre l’asse verticale rappresenta la dimensione dell’Attivazione che può andare da un polo di attivazione (che indicheremo

con il termine “eccitato”) e un polo di de-attivazione (che indicheremo con il termine “calmo”) per descrivere l’emozione.

Nell’ottica di questo approccio dimensionale le espressioni facciali convogliano informazioni

relative sia alla Valenza che all’Attivazione relative all’emozione (Russell, 1980, 1997).

Page 9: Il ruolo del contesto nell’interpretazione di espressioni ...

9

Entrambi gli approcci, categoriale e dimensionale, analizzano l’espressione emotiva e la

relativa attivazione fisiologica in modo del tutto isolato dal contesto in cui si esperisce o

osserva l’emozione. Per motivi di semplificazione sperimentale, utilizzare le espressioni

facciali come stimoli semplici permette di isolare la variabile relativa ad una specifica

emozione o espressione, ma dal punto di vista ecologico questa stessa semplificazione

rappresenta un limite per la nostra comprensione del meccanismo con cui esperiamo ed

analizziamo le espressioni facciali altrui durante le quotidiane interazioni sociali. Interazioni

durante le quali il contesto (e.g., postura corporea, ambiente circostante, credenze e

aspettative) esercita verosimilmente un ruolo non indifferente (Righart & De Gelder, 2006).

1.1.3 Il ruolo del contesto nell’analisi dei volti

Diversi autori hanno focalizzato la loro attenzione sul ruolo che il contesto gioca nella

percezione e comprensione di espressioni facciali assumendo così un approccio più

ecologico. Come nota Aviezer, i volti sono raramente esperiti in isolamento percettivo, e il

contesto nel quale appaiono risulta spesso molto informativo (Aviezer et al., 2008).

Secondo Wieser e Brosch (2012) vi sarebbero quattro differenti elementi contestuali in grado

di influenzare la nostra percezione di un volto in un ambiente ecologico, qualitativamente

diverso e più ricco di stimoli rispetto a quello sperimentale (Wieser & Brosch, 2012).

Il primo elemento che influenza la nostra percezione di un volto è costituito dalle

caratteristiche del volto stesso come la mimica facciale e la direzione dello sguardo. Queste

ultime, secondo la teoria dell’Appraisal, sarebbero sempre integrate dall’osservatore nella

percezione dell’emozione durante la valutazione di uno stimolo rilevante (Graham & LaBar,

2012). Sembra che la direzione dello sguardo giochi un ruolo importante nella modulazione

dell'elaborazione delle espressioni facciali soprattutto quando l'emozione facciale è difficile

da discriminare (Graham & LaBar, 2012).

Il secondo elemento che influenza la nostra percezione riguarda le caratteristiche del

soggetto osservato, come ad esempio le posture corporee (Aviezer et al., 2008; Calbi, 2017;

Meeren, van Heijnsbergen, & de Gelder, 2005).

Page 10: Il ruolo del contesto nell’interpretazione di espressioni ...

10

Il terzo elemento che influenza la nostra percezione è relativo alle caratteristiche del

soggetto che sta percependo il volto, e comprende i processi di apprendimento affettivo e le

distorsioni implicite nell'elaborazione dovute, ad esempio, ai tratti di personalità (Calder,

Ewbank, & Passamonti, 2011).

Il quarto elemento in grado di influenzare la nostra percezione è relativo al contesto

nell’accezione più comune del termine, ovvero alle caratteristiche dell’ambiente in cui il volto

è esperito. Tra le caratteristiche esterne possiamo includere le stesse etichette emotive

verbali che si utilizzano per indicare le emozioni. Numerosi studi hanno, infatti, evidenziato

che il linguaggio può guidare e persino condizionare i partecipanti su come interpretare le

espressioni facciali. Halberstadt e Niedenthal nel 2001, ad esempio, hanno osservato che

quando associavano a volti ambigui ottenuti con una tecnica di morphing (per il 50%

arrabbiati e per il 50% felici) la parola “arrabbiato”, i partecipanti percepivano quel volto

come arrabbiato (Niedenthal, Brauer, Halberstadt, & Innes-Ker, 2001). Anche la descrizione

verbale che possiamo fare di una determinata scena rientra in questa categoria di elementi

che influenzano la nostra percezione di volti. Carrol e Russell, ad esempio, già in un

esperimento del 1996, avevano osservato che informazioni contestuali di questo tipo

possono assumere addirittura maggior importanza rispetto alle stesse espressioni facciali.

Questi autori hanno fatto leggere ai partecipanti sei brevi storie che descrivevano una

situazione, caratterizzata da una determinata valenza emotiva, che creava il contesto

all’interno del quale presentavano immagini di volti emotivi. Tali espressioni facciali venivano

poi interpretate dai partecipanti in maniera congruente alla situazione descritta nella storia

che avevano letto; ad esempio, se il partecipante leggeva una storia che descriveva una

situazione dolorosa e poi gli veniva mostrato un volto con un’espressione di paura il

partecipante attribuiva a quel volto un’espressione di dolore e non di paura (J. M. Carroll &

Russell, 1996a).

È interessante notare che il contesto gioca un ruolo particolarmente importante nella

percezione di volti ambigui (Kim et al., 2004) e volti neutri (Schwarz, Wieser, Gerdes,

Mühlberger, & Pauli, 2012), 2012]. Schwarz e colleghi precisano, infatti, che le informazioni

che traiamo dal contesto possono esercitare un’influenza ancora maggiore quando le

informazioni emotive espresse dal volto sono ambigue o del tutto assenti (volti neutri)

(Schwarz et al., 2012).

Page 11: Il ruolo del contesto nell’interpretazione di espressioni ...

11

Il contesto all’interno del quale percepiamo un volto può essere rappresentato anche da altre

espressioni facciali. In una situazione ecologica, infatti, raramente percepiamo un volto

isolato, ma più spesso ci capita di osservarlo in un contesto in cui ci sono altre persone,

ognuna delle quali ha una propria espressione facciale che può influenzare la nostra

percezione del volto osservato, soprattutto quando questo volto è neutro e le altre

espressioni hanno una valenza emotiva (Russell & Fehr, 1987).

È stato dimostrato, inoltre, che anche semplici oggetti inanimati, presenti nella scena visiva

circostante, sono importanti e vengono analizzati quando percepiamo un’espressione

facciale. Barrett e Kensinger nel 2010 hanno dimostrato che il contesto viene sempre

analizzato quando vengono osservate espressioni facciali di cui dobbiamo identificare

l’emozione. Questi autori, facevano vedere ai partecipanti delle espressioni facciali di

disgusto, di paura oppure neutre su uno sfondo, con valenza affettiva neutra, in cui potevano

essere presenti degli oggetti inanimati. Quando ai partecipanti veniva chiesto di eseguire un

compito di categorizzazione emotiva, questi ricordavano meglio il contesto in cui veniva

presentato il volto rispetto a quando ai partecipanti era chiesto di identificare il semplice

significato affettivo dell'espressione attraverso un compito in cui dovevano indicare se

avrebbero voluto approcciare o meno quella persona nella vita quotidiana. Secondo questi

autori questo risultato dimostrerebbe che, quando era richiesto di identificare un’emozione

sulla base dell’espressione presentata, i partecipanti analizzavano anche il contesto e gli

oggetti presenti nello sfondo (infatti li ricordavano meglio), pur non essendo questi utili poi

per identificare l’emozione del volto (Barrett & Kensinger, 2010).

Anche Righart e De Gelder in una serie di studi hanno indagato il ruolo di scene visive nel

riconoscimento delle espressioni facciali. Nel 2006 hanno condotto uno studio di

elettroencefalografia (EEG) durante il quale hanno associato a volti (che potevano avere

un’espressione neutra o un’espressione di paura) delle scene di contesto (che potevano

rimandare ad una situazione con valenza emotiva neutra o di paura). Poiché i volti potevano

essere presentati nel loro naturale orientamento oppure capovolti, ai partecipanti era

chiesto di eseguire un compito di categorizzazione dell’orientamento. I risultati hanno

mostrato un aumento significativo dell’ampiezza della componente N170 (si veda 1.2)

quando i volti neutri erano associati a contesti di paura, e questo effetto era maggiore

quando al contesto di paura era associato un volto con espressione emotiva congruente

Page 12: Il ruolo del contesto nell’interpretazione di espressioni ...

12

(Righart & De Gelder, 2006). Nel 2008 gli stessi autori hanno condotto uno studio

comportamentale durante il quale hanno chiesto ai partecipanti di categorizzare l’emozione

di volti, tratti dal Karolinska Directed Emotional Faces picture set (Lundqvist, Flykt, & Öhman,

1998), mostrati, come nello studio precedente, in presenza di scene visive il cui contenuto

emotivo poteva essere congruente o incongruente rispetto all’espressione del volto. I

risultati hanno mostrato un vantaggio nel compito di categorizzazione (i partecipanti erano

più veloci), quando l’espressione facciale e il contesto erano congruenti. Questi risultati

hanno mostrato, ancora una volta, il fatto che le informazioni che traiamo dal contesto

migliorano la nostra percezione dell’espressione emotiva (Righart & De Gelder, 2008). Le

informazioni che ricaviamo dal contesto vengono, quindi, associate a quelle che ricaviamo

dal volto e, quando congruenti, producono un effetto additivo, che si manifesta con una

maggiore velocita nel compito di categorizzazione delle emozioni dovuta al fatto che le

informazioni a disposizione conducono alla percezione della stessa emozione e non a due

emozioni diverse che competono tra di loro.

Globalmente, i risultati di questi studi indicano chiaramente che le informazioni fornite

dall'espressione facciale vengono automaticamente combinate con le informazioni

provenienti dal contesto in cui l’espressione stessa è calata. Più precisamente, sono stati

osservati sia effetti di congruenza, che sostengono l’ipotesi secondo la quale le informazioni

che traiamo dal contesto aiutano ad identificare l’emozione espressa dal volto, sia effetti di

specificazione o focalizzazione (J. M. Carroll & Russell, 1996a), per cui le informazioni

contestuali interverrebbero quando le informazioni relative all’espressione facciale sono

scarse o di più difficile comprensione (volti ambigui o volti neutri).

Come affermato da Wieser e Brosch (2012), quindi, possiamo concludere che l'impatto dei

segnali contestuali sul riconoscimento dell'espressione facciale è notevole e la ricerca

neuroscientifica dovrebbe soffermarsi sul ruolo che questi hanno, adottando un approccio

maggiormente ecologico nell’indagine di processi cognitivi complessi come quelli messi in

atto durante la percezione delle espressioni facciali e dei volti più in generale (Wieser &

Brosch, 2012).

1.2 Correlati Elettrofisiologici della codifica dei Volti

Page 13: Il ruolo del contesto nell’interpretazione di espressioni ...

13

I potenziali evento-correlati o potenziali evocati correlati ad eventi (Event-related potentials

- ERPs) forniscono una misurazione dell’attività elettrica cerebrale che può essere registrata

in modo non invasivo da più aree dello scalpo (Birbaumer, Elbert, Canavan, & Rockstroh,

1990). Più specificatamente, gli ERPs riflettono i potenziali postsinaptici sommati generati nel

processo di trasmissione neurale e passivamente condotti attraverso il cervello e il cranio alla

superficie dello scalpo dove sono rilevati attraverso l'elettroencefalogramma (EEG). Le

componenti ERP di ampiezza maggiore riflettono fonti di attivazione o de-attivazione

sincrone diffuse in regioni corticali specifiche (Lutzenberger, Elbert, & Rockstroh, 1987). Tale

attività cerebrale legata all'elaborazione di uno stimolo diventa evidente come deflessione

positiva o negativa nella forma d'onda ERP. L'ampiezza e la latenza di componenti ERP

specifiche forniscono informazioni sulla forza e sul decorso temporale dei processi neurali

sottostanti. Inoltre, dato un appropriato campionamento spaziale (Tucker, Liotti, Potts,

Russell, & Posner, 1994), la topografia delle componenti ERP può essere utilizzata per stimare

i siti da cui si generano i potenziali evocati.

In generale, gli ERPs possono fornire preziose informazioni sulla codifica delle emozioni a

livello cerebrale. La ricerca neuroscientifica si è focalizzata principalmente sull’individuazione

del decorso temporale relativo alla percezione dei volti, sfruttando l’elevata risoluzione

temporale messa a disposizione dall’EEG, e sull’individuazione delle componenti relative

all’analisi del volto associando la loro modulazione alle differenti espressioni emotive.

Diversi autori hanno notato che la rilevazione e l’elaborazione di eventi emotivamente

significativi può essere attivata rapidamente quando segnalata da espressioni facciali di

natura emotiva (Kawasaki et al., 2001; D. Pizzagalli, Regard, & Lehmann, 1999; Wataru Sato,

Kochiyama, Yoshikawa, & Matsumura, 2001), ribadendo l’importanza che questa tipologia di

stimoli assume nella nostra esperienza. LeDoux sosteneva infatti che, per avere valore di

sopravvivenza, il monitoraggio dei segnali potenzialmente salienti, e con valenza emotiva

(piacevole o sgradevole), dovrebbe essere rapido e il più accurato possibile (LeDoux, 1995).

I primi effetti dell’elaborazione di stimoli emotivi possono essere rilevati già 100 ms dopo

l'insorgenza degli stimoli stessi (Pourtois, De Gelder, Vroomen, Rossion, & Crommelinck,

2000). Diversi recenti studi che hanno misurato gli ERPs durante la visione di volti con

espressioni emotive hanno, infatti, riportato effetti emozionali che si verificano durante una

finestra temporale molto precoce, influenzando l'ampiezza della componente visiva P1

Page 14: Il ruolo del contesto nell’interpretazione di espressioni ...

14

rilevata sulla corteccia posteriore (Batty & Taylor, 2003; Eger, Jedynak, Iwaki, & Skrandies,

2003b; D. Pizzagalli et al., 1999; Pourtois, Dan, Grandjean, Sander, & Vuilleumier, 2005), così

come di alcune componenti fronto-centrali che si manifestano ad una latenza di circa 120 ms

dalla presentazione del volto (M. C. Eimer & Holmes, 2002; M. Eimer & Holmes, 2007a). Una

modulazione significativa di queste componenti sensoriali precoci è stata, in particolare,

rilevata in risposta a espressioni di paura (M. C. Eimer & Holmes, 2002; Holmes, Vuilleumier,

& Eimer, 2003; Pourtois et al., 2005).

La componente P1, che è massima nei siti di registrazione posteriori ed ha una latenza di

circa 100 ms, può essere elicitata, sia nei bambini che negli adulti, in risposta alla

presentazione di volti, e sembra essere sensibile all’informazione emotiva veicolata dai volti

stessi (Batty & Taylor, 2003; Eger et al., 2003b; M. Eimer & Holmes, 2007a; Pourtois,

Grandjean, Sander, & Vuilleumier, 2004). Alcuni autori hanno rilevato, inoltre, che la risposta

che emerge da questa componente può essere modulata dal tipo di compito richiesto ai

partecipanti (Batty & Taylor, 2003; M. Eimer & Holmes, 2007a; Itier & Taylor, 2004). Alcuni

autori hanno, ad esempio, riportato come le risposte visive relative alle espressioni facciali

negative (come paura o rabbia) fossero presenti anche quando il contenuto emotivo dei volti

non doveva essere giudicato esplicitamente dagli osservatori (Eger et al., 2003b; Harald T.

Schupp, Junghöfer, Weike, & Hamm, 2004) o quando i volti erano completamente irrilevanti

ai fini del compito (Pourtois et al., 2004). Alcuni studi hanno anche indagato la modulazione

di questa componente in una condizione di percezione ambigua, modificando artificialmente

i volti che i partecipanti vedevano durante l’esperimento. In uno studio che utilizzava "facce

ibride" con espressioni facciali diverse, Pourtois e colleghi, hanno, ad esempio, rilevato un

aumento della P1 (con una latenza di circa 130 ms) correlato alla visione di espressioni facciali

di paura rispetto ad espressioni neutre (Pourtois et al., 2005).

Successivamente alla componente P1, l’elaborazione visiva di uno stimolo elicita solitamente

un potenziale negativo (N1). Si ritiene che l’ampiezza ridotta di questa componente sia

strettamente correlata alla facilitazione del focus attentivo verso input attesi (Luck, 2006;

Mangun & Hillyard, 1995; Näätänen & Picton, 1987). Vi sono, però, alcune evidenze che

mostrano come la componente N1 possa essere sensibile alle caratteristiche dei volti (Bentin,

Allison, Puce, Perez, & McCarthy, 1996; Campanella, Quinet, Bruyer, Crommelinck, & Guerit,

2002; M. Eimer & Holmes, 2002). Ad esempio, Eimer e Holmes hanno rilevato che questa

Page 15: Il ruolo del contesto nell’interpretazione di espressioni ...

15

componente negativa, rilevata sugli elettrodi frontali con una latenza di circa 115 ms,

risultava ridotta quando i partecipanti osservavano volti con espressioni di paura rispetto a

quando osservavano facce neutre (M. Eimer & Holmes, 2002). In un altro studio, Pourtois e

colleghi hanno proposto dei contenuti audiovisivi in cui veniva manipolato il contenuto visivo

(volti) e sonoro (tre frasi pronunciate con un tono di voce arrabbiato da un attore) per creare

degli stimoli in cui la valenza emotiva di questi poteva essere coerente o incoerente. Gli

autori hanno osservato una diminuzione dell'ampiezza della N1 in risposta agli stimoli il cui

contenuto (visivo e sonoro) era incoerente (Pourtois et al., 2000), ipotizzando che il maggior

reclutamento di risorse neurali potesse riflettere la difficoltà di elaborazione di contenuti

emotivi incoerenti. Anche Jessen e Kotz hanno osservato una minore ampiezza della N1 per

stimoli emotivi rispetto a stimoli neutri (Jessen & Kotz, 2011). L’ampiezza minore della

componente N1 per stimoli emotivi rispetto a stimoli neutri riflette un maggiore

reclutamento di risorse neurali, come già visto per gli stimoli incoerenti (Paulmann & Pell,

2009). Questo effetto è ulteriormente rafforzato dalla riduzione della latenza del picco N1

per gli stimoli ad elevata salienza emotiva come i volti esprimenti rabbia.

I meccanismi precoci e relativamente automatici indicati dalle componenti P1 e N1 possono

non solo supportare l'elaborazione attenzionale di volti con espressioni emotive, ma possono

anche essere correlati alla capacità di modulare le reazioni a tali stimoli emotivi. I risultati

sopra descritti, infatti, confermano il ruolo importante assunto dalle fasi di elaborazione

precoce che possono successivamente guidare il riconoscimento visivo e, più in generale,

l’elaborazione di volti (Bar, 2003; Bullier, 2001).

Un’altra componente visiva che sembra essere selettiva per i volti è la N170: un potenziale

negativo posteriore che si manifesta a circa 170 ms dalla presentazione dello stimolo. È,

infatti, ormai riconosciuto come la N170 rifletta la codifica strutturale dei volti (Batty &

Taylor, 2003; Bentin et al., 1996; Eger et al., 2003b; D. Pizzagalli et al., 1999; Righart & De

Gelder, 2006).

Non è, tuttavia, chiaro se la N170 possa essere influenzata dal contenuto emotivo delle

espressioni del volto. I lavori presenti in letteratura mostrano, infatti, risultati contrastanti

(Ashley, Vuilleumier, & Swick, 2004; Batty & Taylor, 2003; Bobes, Martin, Olivares, & Valdes-

Sosa, 2000; Campanella et al., 2002; Eger et al., 2003b; M. Eimer & Holmes, 2002, 2007b;

Herrmann et al., 2002; Krolak-Salmon, Fischer, Vighetto, & Mauguiere, 2001; Miyoshi,

Page 16: Il ruolo del contesto nell’interpretazione di espressioni ...

16

Katayama, & Morotomi, 2004; Munte et al., 1998; D. A. Pizzagalli et al., 2002). In ogni caso,

le modulazioni esercitate dal contenuto emotivo dei volti non sono apparse selettive per

alcuna espressione specifica. Risultati significativi in questo senso sono stati riportati per

espressioni di paura (Campanella et al., 2002) così come per quelle di disgusto e felicità

(Ashley et al., 2004). Il dato interessante è che tali modulazioni possono variare anche in base

all’orientamento del volto (Ashley et al., 2004), suggerendo come questa componente

rifletta un’analisi percettiva che riguarda l’attenzione e la configurazione strutturale del

volto, piuttosto che un’analisi emotiva specifica (Ashley et al., 2004; Ioannides, Liu, Kwapien,

Drozdz, & Streit, 2000).

Ulteriori differenze nell’analisi dei volti possono essere rilevate in modo affidabile anche

dopo 200 ms dalla presentazione dello stimolo, in questo caso associate a fasi di elaborazioni

tardive (Paulmann & Pell, 2009). Ad esempio, una componente negativa posteriore (Early

Posterior Negativity - EPN) con una latenza compresa tra 240 e 280 ms dalla comparsa dello

stimolo (W Sato, Kochiyama, Yoshikawa, & Matsumura, 2001; Harald T. Schupp, Cuthbert, et

al., 2004), e con una topografia occipitale e temporale bilaterale, è risultata essere

selettivamente più ampia durante la visione passiva di volti con espressione di paura, rispetto

a volti felici o neutri. Con una latenza simile a quella della EPN si presenta anche un’altra

componente, questa volta positiva (P2) e con topografia fronto-centrale, che è stata messa

in relazione all’analisi emotiva dei volti da diversi autori: volti emotivi elicitano una P2 di

maggior ampiezza rispetto a quelli neutri (Paulmann & Pell, 2009; Sauter & Eimer, 2010).

In generale, è emerso che le modulazioni di componenti con una latenza a circa 250 ms dalla

presentazione di un volto possono riflettere una differenza tra espressioni emotive ed

espressioni neutre, mentre effetti selettivi per le espressioni di paura possono emergere

intorno a 550 ms (Krolak-Salmon et al., 2001; Sato et al., 2001). Questo tipo di discriminazioni

più selettive per una singola espressione facciale sono indicizzate da potenziali positivi tardivi

(Late Positive Potential - LPP) (Battaglia et al., 2007; Campanella et al., 2002; Carretie &

Iglesias, 1995; Krolak-Salmon et al., 2001; Marinkovic & Halgren, 1998; Harald T. Schupp,

Cuthbert, et al., 2004). Queste risposte tardive ai volti emotivi, inoltre, permangono spesso

per periodi di tempo prolungati dopo l'insorgenza dello stimolo (Ashley et al., 2004; Carretie

& Iglesias, 1995; Krolak-Salmon et al., 2001; Meinhardt & Pekrun, 2003) e a volte fino a 1

secondo o più (Krolak-Salmon et al., 2001).

Page 17: Il ruolo del contesto nell’interpretazione di espressioni ...

17

Spesso, questi potenziali prolungati sono anticipati dalla componente P3 che risulta

generalmente di ampiezza maggiore per stimoli emotivi. La componente P3, tuttavia, non

risulta specifica per l’elaborazione emotiva, in quanto diversi autori hanno rilevato

un’ampiezza maggiore anche quando lo stimolo era atteso (Johnson, 1993), poco frequente

o rilevante per il compito (Picton, 1992). Pertanto, diversi autori sostengono che la P3 sia una

componente ERP provocata da processi cognitivi di analisi dello stimolo causati da una

maggiore salienza dello stimolo stesso (Bashore & van der Molen, 1991).

Diversi autori ipotizzano, invece, che le risposte lente e prolungate nel tempo non

rifletterebbero un’analisi specifica e differenziale per l’espressione emotiva, ma complessi

processi cognitivi e/o di attivazione e attenzione, innescati dopo l'elaborazione percettiva e

sensoriale di base (Adolphs, Tranel, & Damasio, 2003; Dolan, 2002; Lang, Bradley, &

Cuthbert, 1998), in risposta a stimoli salienti (Foti, Olvet, Klein, & Hajcak, 2010; Kanske &

Kotz, 2007). Di conseguenza, le emozioni che generano maggiore attivazione fisiologica o

sono maggiormente salienti, come quelle di paura, generano potenziali positivi maggiori in

questa tardiva finestra temporale. Inoltre, in numerosi studi è emersa una maggiore

ampiezza di queste componenti in risposta a stimoli emotivi rispetto a stimoli neutri, sia

quando si utilizzavano immagini (Cuthbert, Schupp, Bradley, Birbaumer, & Lang, 2000; Hajcak

& Nieuwenhuis, 2006) sia quando si utilizzavano volti (Foti et al., 2010).

È emerso, inoltre, come alcune delle risposte tardive ai volti emotivi possano verificarsi solo

quando l'attenzione è diretta all'espressione del volto, ma non durante compiti che

richiedono giudizi solo sull'identità facciale o sul genere dei volti (Krolak-Salmon et al., 2001;

Munte et al., 1998; Streit et al., 1999). Effetti con una latenza successiva ai 400 ms possono

anche sorgere in risposta all'integrazione multisensoriale degli stimoli (che riguardano ad

esempio l’integrazione di stimoli vocali e visivi) (Puce, Epling, Thompson, & Carrick, 2007)

riflettendo, appunto, l’elaborazione più generale e di alto livello cui queste componenti

fanno riferimento.

In termini di elaborazione emotiva, gli effetti mostrati nella finestra temporale della LPP

possono, quindi, essere attribuiti all'aumentato valore motivazionale e di eccitazione assunto

dagli stimoli emotivi (Cuthbert et al., 2000; M. Eimer & Holmes, 2002). Possono, inoltre,

riflettere un’analisi percettiva e cognitiva legata all'elevata salienza intrinseca degli stimoli

emotivi (Kok, 2000).

Page 18: Il ruolo del contesto nell’interpretazione di espressioni ...

18

Come emerso dagli studi presentati, gli ERPs possono, quindi, rappresentare un adeguato

strumento per indagare il modo in cui analizziamo ed elaboriamo gli stimoli emotivi salienti.

1.3 Cinema

Il cinema ha rappresentato per tutto il corso del Novecento, e rappresenta tutt’ora, la più

straordinaria e realistica riproduzione della nostra vita (Gallese & Guerra, 2015).

Come le altre forme d’arte, esso rappresenta un caso di esperienza mediata in cui il film si

offre come elemento di mediazione tra il suo creatore e il suo spettatore (Gallese & Guerra,

2013). Secondo il regista Michael Haneke, infatti, il ruolo dello spettatore non può essere

solo ricettivo. Nel momento in cui siamo spettatori di un’opera cinematografica la esperiamo

esteticamente per mezzo di modalità peculiari che, attraverso le tecniche di brain imaging,

possiamo cominciare a studiare sperimentalmente.

L'interesse per l'uso di stimoli dinamici quali video o sequenze filmiche è presente in

numerosi studi e può essere un elemento di congiunzione o un primo passo nel percorso di

studio e approfondimento verso la comprensione dell'esperienza del cinema.

Molti esperimenti di EEG o di risonanza magnetica funzionale (functional magnetic resonance

imaging o fMRI) hanno nel tempo, infatti, utilizzato come stimoli brevi clip video che,

sebbene manchino della complessità di un’opera cinematografica integrale, rappresentano

degli strumenti che possono “catturare dinamicamente le esperienze dei partecipanti in

modo più naturalistico rispetto ai tipici stimoli utilizzati nella ricerca neuroscientifica (e.g.,

immagini statiche e parole)” (Shimamura, Marian, & Haskins, 2013).

In che modo mettiamo in campo l’esperienza estetica quando assistiamo ad una narrazione

per immagini in movimento come quella del film? Secondo Vittorio Gallese il potente effetto

di realtà e la dinamicità del film ci consentono di attuare una simulazione multimodale che

sfrutta tutte le potenzialità del sistema cervello-corpo (Gallese & Guerra, 2015), chiamata

“simulazione incarnata”. Questo meccanismo funzionale di base del nostro cervello ci

consente di riutilizzare parte delle risorse neurali che normalmente utilizziamo per interagire

con il mondo (modellando i rapporti e le relazioni che con esso stabiliamo) mettendole al

servizio della sua percezione e immaginazione in modo inconscio e preriflessivo, e può

Page 19: Il ruolo del contesto nell’interpretazione di espressioni ...

19

interessare azioni, emozioni e sensazioni altrui (Vittorio Gallese, 2006). La “simulazione

incarnata”, nella fruizione di un film, assume la forma di “simulazione liberata” in quanto

l’osservatore è libero da coinvolgimenti con la realtà esterna vera e propria ed è calato nella

finzione cinematografica (Gallese & Guerra, 2015).

Le neuroscienze hanno iniziato solo recentemente ad indagare i vari aspetti del linguaggio

cinematografico che rendono possibile questo tipo di esperienza estetica nello spettatore,

esplorandone i vari elementi sintattici (e.g., il montaggio, le tecniche di ripresa).

Heimann e colleghi nel 2014, ad esempio, hanno studiato il modo in cui i movimenti di

macchina influenzano la percezione degli spettatori, partendo dall’idea che il movimento

della macchina da presa (mdp) che riprende l’azione implichi e stimoli un determinato tipo

di relazione fisica e spaziale tra ciò che viene ripreso e l’osservatore. Secondo l’ipotesi degli

autori, questa relazione avrebbe una connotazione motoria e indurrebbe risposte diverse da

parte dei meccanismi di simulazione incarnata in base ai diversi movimenti di macchina

utilizzati. Per verificare questa ipotesi, gli autori hanno realizzato un esperimento in cui,

durante una registrazione di EEG, mostravano ai partecipanti la stessa scena (un attore

davanti ad un tavolo che afferrava un oggetto posto sullo stesso tavolo) ripresa in quattro

modi diversi: con mdp statica (controllo), con un effetto di zoom in avanti che stringeva sulla

scena, muovendo la mdp in avanti su una rotaia (carrellata in avanti), muovendo la mdp in

avanti utilizzando una steadicam (supporto meccanico a cui si aggancia la mdp che è ancorato

al corpo dell’operatore che si può muovere liberamente nella scena camminando). Dai

risultati di questo esperimento è emerso che i partecipanti ritenevano la tecnica di ripresa

che utilizzava la steadicam come quella che più era fedele alla reale esperienza di qualcuno

che si avvicina alla scena filmata camminando. È stato rilevato, inoltre, che la riduzione della

distanza tra lo spettatore e la scena filmata attraverso il movimento della mdp determinava

una maggiore attivazione del meccanismo di simulazione incarnata misurato attraverso la

desincronizzazione del ritmo mu (S Cochin, Barthelemy, Lejeune, Roux, & Martineau, 1998;

S Cochin, Barthelemy, Roux, & Martineau, 1999; Ramachandran, Altschuler, & Hillyer, 1997).

Questa desincronizzazione risultava essere più intensa durante l’osservazione dei movimenti

di macchina rispetto a quando la camera era statica e, tra i movimenti di macchina proposti,

quello che elicitava la risposta maggiore di desincronizzazione del ritmo mu dei soggetti era

quello della steadicam che, essendo ancorata al corpo dell’operatore, restituiva

Page 20: Il ruolo del contesto nell’interpretazione di espressioni ...

20

all’osservatore un dinamismo più vicino a quello esperito quotidianamente e, quindi,

risultava di più efficace richiamo per il meccanismo di simulazione incarnata (K. Heimann,

Umiltà, Guerra, & Gallese, 2014).

Questo stesso gruppo di ricerca ha indagato un secondo aspetto del linguaggio filmico

relativo questa volta al montaggio. I ricercatori hanno preso in considerazione il fenomeno

dello “scavallamento di campo” dovuto alla violazione della regola dei 180°. Secondo tale

regola, lo spazio in cui si svolge l’azione filmata va considerato come diviso da una linea

immaginaria, chiamata asse, che lo divide in due metà: in una di esse è collocata la mdp,

mentre l’altra costituisce il cosiddetto spazio “profilmico”, quello in cui si svolgerà l’azione

da riprendere. La mdp può muoversi da un’inquadratura all’altra, purché non oltrepassi

l’asse. Se la mdp oltrepassa l’asse, la regola viene violata, il montaggio risulta discontinuo

(Zacks, Speer, Swallow, & Maley, 2010), e avviene lo “scavallamento di campo” che,

generando una incongruenza sensori-motoria, può causare una temporanea sospensione

della simulazione incarnata mediante la quale ci immergiamo nella scena (Gallese & Guerra,

2015). Gli autori, che hanno mostrato ai partecipanti dei filmati in cui variava il tipo di

montaggio utilizzato, durante una registrazione EEG, hanno rilevato che, in linea generale, il

montaggio ingaggia una percezione visiva incarnata che utilizza le precedenti esperienze

sensori-motorie derivate dall’incontro con il mondo reale per mappare, revisionare e

riconoscere le discontinuità delle immagini in movimento del film. Hanno, inoltre, rilevato

che l’incongruenza percettiva derivante dall’osservare sequenze con lo “scavallamento di

campo” è legata alla rilevazione di una violazione della struttura delle azioni osservate;

infatti, in questa condizione, i processi che intervengono normalmente quando rileviamo una

discontinuità, che è insita nel montaggio stesso, vengono inibiti (ampiezza minore della

componente P4-6) mentre, nella condizione in cui il montaggio era continuo, l’attivazione del

meccanismo di simulazione (desincronizzazione del ritmo mu) era maggiore (K. S. Heimann

et al., 2017).

Come abbiamo visto, quindi, diversi studi hanno indagato con successo alcuni aspetti del

linguaggio cinematografico che rendono possibile la nostra esperienza estetica del film e che

innescano meccanismi di quella che abbiamo definito come “simulazione liberata”, ma

ancora molti aspetti rimangono ancora da indagare.

Page 21: Il ruolo del contesto nell’interpretazione di espressioni ...

21

1.3.1 L’Effetto Kuleshov

Come anticipato, per comprendere il linguaggio cinematografico bisogna codificarne la

sintassi anche attraverso la ricerca neuroscientifica. Uno degli aspetti "sintattici" più

importanti di questo linguaggio è sicuramente il montaggio video, come emerso anche da

precedenti studi (K. S. Heimann et al., 2017). Tra i diversi contributi teorici in questo ambito

dobbiamo ricordare quelli di Lev Kuleshov (1899 - 1970), cineasta russo che durante il primo

ventennio del '900 comprese la potenza, non solo narrativa, del montaggio. Lev Kuleshov

basò il suo lavoro sulle tecniche del regista americano David Griffith (1875 - 1948) che nel

1915, con il film “Nascita di una Nazione”, aveva codificato le regole del cinema narrativo

moderno, valide tutt'oggi. Il montaggio narrativo di Griffith prendeva vita attraverso l'unione

di inquadrature (che chiameremo shots) che formavano scene e sequenze filmiche le cui

caratteristiche di continuità davano vita alla narrazione cinematografica. Lev Kuleshov capì

che una stessa inquadratura accostata ad altre inquadrature di natura diversa cambiava la

percezione della scena nell'osservatore, così nel 1920 mise a punto un esperimento per

verificare questa sua intuizione. Le informazioni sul tipo di sequenze utilizzate da Kuleshov

non sono certe, ma diversi autori riportano che il regista creò tre diverse sequenze nelle quali

alla stessa inquadratura del primo piano del volto, con espressione neutra, dell'attore Ivan

Mozzhukhin accostò tre inquadrature che mostravano ciò che l’attore stava guardando: una

bambina che gioca con una palla, una donna morta in una bara, un piatto di zuppa. Gli

spettatori cui vennero mostrate queste sequenze riferirono che, in base al contesto, il volto

dell'attore appariva felice, triste o affamato (Kuleshov, 1974; Pudovkin, 1970). Il regista

osservò, quindi, che la percezione emotiva del volto neutro dell'attore cambiava in base al

contesto cui era associato attraverso il montaggio, pur rimanendo sempre lo stesso in tutte

le scene proposte. Questo effetto di montaggio divenne da allora noto come "Effetto

Kuleshov".

Le scene create da Kuleshov possono essere interpretate in due modi differenti. La prima

interpretazione spiega il legame tra le due inquadrature in senso cognitivo: si potrebbe

pensare, infatti, che attraverso il montaggio si evochi l'immagine di ciò a cui

l'attore/personaggio sta pensando in quel momento della scena. L'oggetto dell'inquadratura

non sarebbe, quindi, presente fisicamente, ma solo immaginato dall'attore.

Page 22: Il ruolo del contesto nell’interpretazione di espressioni ...

22

La seconda interpretazione si basa invece sull'idea che tra le due inquadrature ci sia un

legame spaziale: la scena ci mostrerebbe in questo caso ciò che l'attore sta effettivamente

guardando. L'oggetto dell'inquadratura in questo caso è presente ed è l'oggetto

dell'attenzione dell'attore. Questa seconda interpretazione della scena presuppone che

l'accostamento delle inquadrature sia coerente nel tempo e nello spazio con il punto di vista

dell'attore (“point of view” o POV). Le caratteristiche formali che inducono lo spettatore a

fare delle inferenze sul punto di vista dell'attore sono otto (Persson, 2003):

1) Lo sguardo non deve essere diretto verso la macchina da presa;

2) L'inquadratura dell'oggetto deve essere presentata nella prospettiva dello sguardo

dell'attore o di un osservatore esterno;

3) L'inquadratura del volto e quella dell'oggetto devono essere seguite da una terza

inquadratura del volto dell'attore;

4) Il contesto della prima inquadratura deve essere congruente a quello della seconda

inquadratura in modo da mantenere lo sfondo e l'illuminazione costanti;

5) L'attore deve cambiare comportamento subito prima del primo cambio di

inquadratura;

6) L'attore mostra qualche forma di reazione nella terza inquadratura;

7) La colonna sonora deve essere la stessa per tutta la scena;

8) La relazione spaziale tra l'osservatore e l'oggetto viene stabilita in precedenza.

Secondo alcuni teorici, l’effetto Kuleshov si instaura, quindi, nello spettatore quando la

sequenza filmica, composta dall’inquadratura del contesto (object shot) tra due inquadrature

del volto dell’attore (glance shot), è costruita rispettando le regole del POV. Nel tempo,

diversi autori hanno avanzato delle ipotesi per spiegare l’effetto rilevato da Kuleshov e per

capire in che modo venga assegnata dallo spettatore una emozione al volto dell’attore sulla

base del contesto.

Carroll afferma che quando guardiamo il volto di un attore questo riveste una grande

importanza nel determinare il modo in cui concepiamo il suo stato emotivo, ma ammette

che le informazioni che traiamo sono generali e che qualsiasi emozione è causata o è in

relazione con un oggetto (J. M. Carroll & Russell, 1996b). Già nel 1751, Charles LeBrun nel

suo libro “Conference sur l'Expression Generale et Particuliere des Passion” affermava che

l’osservatore può avere un’indicazione solo generale sul tipo di emozione ritratta e, come

Page 23: Il ruolo del contesto nell’interpretazione di espressioni ...

23

specifica Richard Wollheim, “nella mente dell’osservatore c’è incertezza, ambiguità e

vaghezza sul tipo di emozione attribuita al volto che si osserva” (LeBrun & Picart, 1713;

Richard, 1987). Secondo Carroll ciò che ci permette di porre fine a questa ambiguità è la

comprensione dell’oggetto con cui quell’emozione è correlata. Riportando questo

ragionamento alla struttura del POV, Carroll ipotizza che l’emozione del personaggio è

rappresentata, all’interno del montaggio che segue le caratteristiche del POV, attraverso la

relazione funzionale reciproca tra il glance shot e l’object shot. Nello specifico, il glance shot

imposta una certa gamma emotiva di rilievo che guida la percezione, poiché, come anticipato

parlando dell’approccio categoriale, siamo in grado di trarre informazioni emotive dai volti.

L’object shot, anche sulla base della gamma emotiva espressa dal glance shot, focalizza la

percezione iniziale su una particolare emozione grazie al fatto che fornisce un correlato

oggettuale e di contesto che ci permette di comprendere il vissuto emotivo del soggetto(l

Carroll, 1993).

Nelle sequenze utilizzate da Lev Kuleshov, tuttavia, le informazioni che gli osservatori

potevano trarre dal volto dell’attore non erano emotivamente rilevanti e quindi il giudizio

sulla natura emozionale del volto stesso proveniva esclusivamente dalle informazioni che si

potevano trarre dal contenuto espresso dall’object shot.

Barratt nel 2016 ha parlato di due differenti ipotesi interpretative circa l’“effetto Kuleshov”:

la prima, da lui definita come “weak version” coinciderebbe con la teoria proposta da Carroll,

mentre la seconda, definita come “strong version”, sosterrebbe che l’interpretazione dello

stato emozionale del soggetto delle riprese venga affidata dallo spettatore solo ed

esclusivamente alle informazioni emotive derivanti dal contesto (Barratt, 2015).

Secondo Barrett, invece, l’effetto Kuleshov potrebbe essere spiegato da un meccanismo in

cui intervengono elaborazioni cognitive che, una volta rilevate le sensazioni visive del

contesto emotivo, le interpretano mediante le corrispondenti rappresentazioni affettive

soggettive, generando una previsione che permette di percepire volti neutri come volti

emotivi (Barratt, 2015; Barrett & Bar, 2009).

Calbi e colleghi ritengono invece che il contesto inneschi l'eccitazione e la reazione emotiva

nell'osservatore che poi attribuisce un valore emotivo a una faccia neutra (Calbi et al., 2017)

attraverso una sorta di contagio emotivo tra stimoli.

Page 24: Il ruolo del contesto nell’interpretazione di espressioni ...

24

1.3.2 Repliche precedenti

Sebbene questo effetto del montaggio cinematografico sia stato utilizzato anche da registi di

fama mondiale come Alfred Hitchcock (ne è un esempio paradigmatico il suo celebre film "La

finestra sul cortile"), non sono stati molti gli studi scientifici che hanno cercato di riprodurre

l'effetto descritto negli anni ‘20 da Kuleshov e quelli che hanno provato a ricreare un

paradigma ispirato all’effetto Kuleshov lo hanno fatto ottenendo risultati contrastanti.

Il primo studio che ha cercato di replicare l'originale di Lev Kuleshov è stato quello di Prince

e colleghi del 1992. Questi autori hanno presentato a 137 studenti una sequenza della durata

totale di 21 secondi composta da 3 inquadrature: un primo piano di un attore con volto

neutro, una tra tre scene emotive (una bambina sorridente che gioca con un orso di peluche,

una donna stesa in una bara, una coppa di zuppa fumante su un tavolo) e la riproposizione

del volto neuro dell’attore presentato precedentemente. I partecipanti potevano scegliere

tra sette categorie emotive per indicare lo stato emotivo dell’attore presente nella scena, ma

i risultati hanno mostrato come essi scegliessero quasi sempre la categoria “nessuna

emozione”. Probabilmente i ricercatori non hanno trovato evidenze sulla presenza

dell’effetto Kuleshov anche a causa del disegno sperimentale adottato che prevedeva di

sottoporre ogni partecipante alla visione di una sola sequenza (single trial experiment)

(Prince & Hensley, 1992).

Un secondo studio che ha riproposto l’effetto Kuleshov è quello di Mobbs e colleghi del 2006.

I ricercatori hanno presentato a 14 partecipanti 24 sequenze filmiche di cui otto con contesto

neutro, otto con contesto positivo e 8 con contesto negativo. Al contesto era associato un

volto creato attraverso un software di morphing che poteva essere positivo (25% positivo e

75% neutro) o negativo (25% negativo e 75% neutro). In questo studio le sequenze erano

composte dalla scena con il contesto (4000 ms) seguita dal volto (750 ms) seguendo le regole

del “POV retrospettivo”. I partecipanti dovevano valutare le sequenze attraverso due scale,

una di Valenza ed una di Attivazione (si veda Approccio Dimensionale 1.1), durante una

registrazione fMRI. I ricercatori hanno evidenziato che le sequenze in cui erano presenti

scene emotive, non solo erano associate a risposte più alte nelle scale di Valenza e

Attivazione, ma comportavano un aumento del segnale BOLD (Blood oxygen level dipendent)

nella regione dell’amigdala. In questo studio, tuttavia, la sequenza delle scene non

corrispondeva a quella originaria dell’effetto Kuleshov e i tempi di presentazione utilizzati

Page 25: Il ruolo del contesto nell’interpretazione di espressioni ...

25

rispondevano alle esigenze della registrazione fMRI più che a regole di montaggio

cinematografico, quindi i risultati ottenuti in questo studio sono di difficile valutazione e

collocazione nell’ambito della ricerca sull’effetto cinematografico indagato (Mobbs et al.,

2006).

Più recentemente, nel 2016, Barratt e colleghi hanno proposto un disegno sperimentale per

indagare la presenza dell’effetto Kuleshov, prestando particolare attenzione alla costruzione

delle scene da mostrare ai partecipanti. Nel loro studio hanno mostrato a 36 partecipanti 144

scene costruite per replicare al meglio le scene presentate da Kuleshov negli anni ‘20. Questi

autori hanno utilizzato 12 volti di uomini e 12 volti di donne con espressione neutra, scelti

dal Karolinska Directed Emotional Faces picture set (Lundqvist et al., 1998), con

orientamento a tre quarti, per creare l'illusione che il soggetto stesse dirigendo lo sguardo

verso qualcosa, cui è stato applicato un effetto di “zoom in” in modo tale da rispettare le

regole del POV (si veda 1.3.1) e aumentare la possibilità che i partecipanti percepissero le

scene che componevano la sequenza come spazialmente correlate. La sequenza utilizzata

era composta dall’immagine del volto neutro appena descritta, una scena di contesto in un

set di sei diverse condizioni (felicità, tristezza, fame, paura, desiderio e una “condizione nulla”

che prevedeva la presentazione di un conto alla rovescia numerico in modo tale da

focalizzare l’attenzione del partecipante senza però presentare alcuna scena di contesto vera

e propria), ed ancora l’immagine del volto iniziale. Ogni scena durava 3 secondi e quindi ogni

sequenza aveva la durata totale di 9 secondi. Ai partecipanti veniva chiesto di valutare ogni

sequenza, e nello specifico l’emozione provata dalla persona presente nella sequenza, sia

seguendo un approccio dimensionale, attraverso una scala di Valenza ed una di Attivazione,

sia seguendo un approccio categoriale, attraverso un compito di categorizzazione emotiva,

mentre i ricercatori registravano i movimenti oculari dei partecipanti. I risultati di questo

studio hanno mostrato che i volti neutri associati a contesti tristi, ma non a contesti di paura,

venivano valutati dai partecipanti con valenza più negativa e attivazione più bassa, mentre

volti neutri associati a contesti di desiderio venivano valutati con valenza più positiva e

attivazione più alta, confermando così le osservazioni iniziali di Lev Kuleshov.

Seguendo un approccio ancora più ecologico, Calbi e colleghi nel 2017 hanno riproposto

questo stesso paradigma con qualche variazione. In questo studio venivano mostrate 18

sequenze filmiche a 28 partecipanti in cui le condizioni relative alle scene di contesto erano

solo tre (paura, felicità e un vero e proprio contesto neutro al posto della “condizione nulla”

Page 26: Il ruolo del contesto nell’interpretazione di espressioni ...

26

presente nello studio di Barratt e colleghi). Inoltre, le sequenze filmiche utilizzate, pur

essendo costruite nello stesso modo, avevano una durata totale di 6 secondi (i volti venivano

presentati per 1.5 secondi). Gli autori hanno chiesto ai partecipanti di valutare l’emozione

dell’attore in termini di Valenza e Attivazione, rifacendosi così all’approccio dimensionale, in

una sessione sperimentale separata rispetto alla domanda di categorizzazione in cui si

chiedeva al partecipante di associare l’emozione della persona presentata nella sequenza ad

una etichetta emotiva. I partecipanti, quindi, guardavano il set di 18 sequenze filmiche due

volte in tutto. I risultati di questo esperimento hanno mostrato una modulazione significativa

delle risposte dei partecipanti solo quando i volti neutri erano associati ad un contesto di

paura. Nello specifico, i partecipanti valutavano l’emozione della persona presentata nella

sequenza con valenza più negativa ed attivazione più alta rispetto a quando il volto era

associato ad un contesto neutro o ad un contesto di felicità. Dal punto di vista della

categorizzazione emotiva, invece, i partecipanti sembravano attribuire al volto un’emozione

congruente al contesto presentato nella sequenza sia quando questo era un contesto di

felicità sia quando era un contesto di paura.

1.4 Obiettivi

Il nostro studio si pone in diretta continuità con quello di Calbi e coll. (2017). Riproporremo

infatti un disegno sperimentale paragonabile utilizzando sequenze filmiche che hanno le

stesse caratteristiche di quelle utilizzate da questi autori (si veda 2.2). Alla componente

comportamentale dello studio aggiungeremo tuttavia una componente di analisi

elettrofisiologica con l’utilizzo dell’EEG, con l’obiettivo di indagare i correlati temporali

dell’effetto del contesto sull’analisi visiva dei volti e delle espressioni facciali, alla luce delle

potenzialità che l’effetto Kuleshov ci offre in ambito sperimentale. Ci aspettiamo di rilevare

differenze significative nella valutazione dei volti neutri associati a contesti con valenza

emotiva rispetto ai volti associati a contesto neutro. Nello specifico, ci aspettiamo che i volti

neutri associati ad un contesto di paura vengano valutati con una Valenza negativa e

un’Attivazione più alta e che i volti neutri associati a contesto di felicità vengano valutati con

Valenza positiva e un’Attivazione più alta rispetto ai volti neutri associati a contesti neutri.

Coerentemente con quanto trovato dal Calbi e colleghi, ci aspettiamo anche che i

Page 27: Il ruolo del contesto nell’interpretazione di espressioni ...

27

partecipanti categorizzino le emozioni espresse dai volti in modo coerente alla scena di

contesto presentata nella sequenza. Dal punto di vista elettrofisiologico ci aspettiamo,

inoltre, di rilevare modulazioni significative nell’attività elettrica cerebrale evocata dalla

visione dei volti in base al tipo di contesto presentato nella sequenza, in modo coerente con

quanto riportato in letteratura riguardo l’analisi di espressioni emotive. Nello specifico ci

aspettiamo di trovare una modulazione precoce nelle condizioni emotive già da circa 80 ms

dopo la presentazione dello stimolo come rilevato da altri autori (Eger, Jedynak, Iwaki, &

Skrandies, 2003a; Pourtois et al., 2005). Inoltre, ci aspettiamo di trovare una modulazione

tardiva positiva come un Late Positive Potential (LPP), associato anche in questo caso alle

condizioni emotive, che rifletta una modalità di elaborazione percettiva e cognitiva di ordine

superiore rispetto all’elaborazione precoce dello stimolo (Kok, 2000).

Page 28: Il ruolo del contesto nell’interpretazione di espressioni ...

28

Capitolo 2

Materiali, Metodi e Risultati

2.1 Campione Sperimentale

Il campione sperimentale era composto da 14 partecipanti (6 maschi e 8 femmine, con

età media - M di 25.5 e Deviazione Standard - DS di ± 1.98 anni, compresa in un range di 23-

30 anni). In base alla somministrazione della versione italiana dell'Edinburgh Handedness

Inventory (Oldfield, 1971) 13 partecipanti risultavano destrimani e solo uno ambidestro

(Tabella 2.1), inoltre tutti i partecipanti avevano un'acuità visiva nella norma o corretta alla

normalità. I partecipanti erano selezionati all'interno del bacino di utenza dell'Università

degli studi di Parma attraverso un annuncio pubblico e risultavano avere un elevato livello di

scolarizzazione (M di 15.2 anni e DS di 2 anni) Per gli scopi del nostro studio erano stati esclusi

i partecipanti che avevano subito traumi cerebrali, partecipanti francamente mancini e/o con

malattie neurologiche conclamate. Prima dell'inizio dello studio i partecipanti avevano letto

e firmato un consenso informato approvato dall’Institutional Review Board dell’Università di

Parma, e dopo l'esperimento erano ricompensati con una somma in denaro pari a 15 euro.

Tab 2.1 Valori relativi alla numerosità campionaria (N), al valore minimo (Min.) e massimo (Max.) rilevato e alla Media (Media),

Deviazione standard (Std. Dev.) e Varianza (Var.) relative a tre variabili descrittive del nostro campione (Manualità, Età e Scolarità

misurata in anni frequentati).

Per quanto riguarda le analisi delle risposte comportamentali dei partecipanti, verranno

presentati i risultati relativi ai dati del campione completo di 14 partecipanti. Poiché i dati

EEG di quattro partecipanti sono stati scartati a causa dell'eccessiva presenza di artefatti

dovuti principalmente a movimenti durante la registrazione (si veda 2.6.1), il campione

Tabella 2.1

Page 29: Il ruolo del contesto nell’interpretazione di espressioni ...

29

sperimentale finale per le analisi EEG è stato ridotto, invece, a 10 partecipanti (3 maschi e 7

femmine, con età media - M di 24.9 e Deviazione Standard - DS di ± 1.52 anni, compresa in

un range di 23-27 anni) (Tabella 2.2).

Tab 2.2 Valori relativi alla numerosità campionaria (N), al valore minimo (Min.) e massimo (Max.) rilevato e alla Media (Media),

Deviazione standard (Std. Dev.) e Varianza (Var.) relative a tre variabili descrittive del nostro campione (Manualità, Età e Scolarità

misurata in anni frequentati).

2.2 Stimoli

Gli stimoli somministrati ai partecipanti erano costituiti da sequenze filmiche ottenute

attraverso il montaggio di tre inquadrature (shots) che avevano le seguenti caratteristiche e

che rispettavano sempre il seguente ordine di presentazione:

1) Primo Glance Shot (Volto Neutro)

Le immagini dei volti sono state scelte dal database Karolinska Directed Emotional Faces

(Lundqvist et al., 1998). Il set di volti comprendeva 24 volti neutri (Figura 2.1), di cui 12 di

uomini e 12 di donne, presentati in una prospettiva ottica ambigua (a tre quarti) per creare

l'illusione che il soggetto stesse dirigendo lo sguardo verso qualcosa. Inoltre, per controllare

eventuali effetti legati alla direzione del volto, e quindi dello sguardo, ognuno dei 24 volti

scelti veniva presentato sia nella sua versione orientata verso destra, sia nella sua versione

orientata verso sinistra.

Tabella 2.2

Page 30: Il ruolo del contesto nell’interpretazione di espressioni ...

30

2) Object Shot (Contesto)

Le scene contestuali selezionate erano costituite da video (tratti da YouTube e Vimeo)

categorizzati in tre condizioni differenti: due emotivamente connotate e una neutra. A

differenza dello studio di Barratt e colleghi (Barratt, 2015), abbiamo ritenuto opportuno

ridurre a due il numero di condizioni emotive presentate, felicità e paura, e sostituire la

condizione nulla (schermo nero con presentazione di numeri) con una condizione neutra

caratterizzata dalla presenza di un contesto privo di valenza emotiva. Per la condizione di

felicità (valenza positiva) sono stati proposti per lo più video che riprendevano cuccioli o

bambini (Fig. 2.2a), per la condizione di paura (valenza negativa) sono state selezionate scene

che presentavano situazioni di pericolo, come scene di guerra, o scene che riprendevano

animali atavicamente ritenuti pericolosi come ragni o serpenti (Figura 2.2b). Infine, per la

condizione neutra (assenza di valenza emotiva) sono state utilizzate scene che riprendevano

traffico cittadino, campagne o scene carenti di stimoli salienti (Figura 2.2c).

Figura 2.1

Page 31: Il ruolo del contesto nell’interpretazione di espressioni ...

31

Tutti i video di contesto utilizzati sono stati selezionati grazie ad un esperimento di

validazione ad hoc in cui 22 partecipanti volontari (10 maschi e 12 femmine, con età media

di 30,4 ± 5,04 anni, compresa in un range di 22- 42 anni) valutavano 97 scene di contesto. Ai

partecipanti era chiesto di valutare ciascuna scena in termini di attivazione (arousal), valenza

emotiva e categorizzazione esplicita. Gli stimoli sperimentali sono stati poi selezionati sulla

base del rating di valenza, ottenendo così 48 video di scene di contesto (16 per ognuna delle

due condizioni emotive, felicità e paura, e 16 per la condizione neutra).

(c)

(a)

Figura 2.2

(b)

Page 32: Il ruolo del contesto nell’interpretazione di espressioni ...

32

3) Secondo Glance Shot (Volto Neutro)

Il secondo glance shot, che indicheremo d’ora in poi come Volto_2, era costituito dallo stesso

volto presentato nel primo glance shot, riproposto per la seconda volta con lo stesso

orientamento.

Alle immagini statiche dei volti è stato aggiunto un movimento di zoom digitale in avanti in

modo tale da simulare una situazione dinamica e, successivamente, tra le due inquadrature

dei volti (glance shots) sono state aggiunte le scene di contesto (object shot) in modo da

ottenere sequenze filmiche caratterizzate come descritto sopra. Inoltre, i colori dei video

sono stati ridotti ad una scala di grigi, attraverso la riduzione del livello di saturazione,

creando così una maggiore continuità cromatica all'interno delle sequenze. In tutte le

sequenze realizzate, ogni Glance Shot aveva la durata di 1500 ms, mentre l'Object Shot aveva

una durata di 3000 ms. La durata totale di ciascuna sequenza filmica era, quindi, di 6000 ms,

a differenza delle sequenze di durata di 9000 ms utilizzate da Barratt e colleghi (Barratt,

2015).

Dal montaggio di questi tre shots abbiamo ottenuto 288 sequenze filmiche caratterizzate dal

fatto di essere l'una diversa dall'altra per almeno una caratteristica specifica della sequenza

(volto, sesso del volto, orientamento del volto, contesto) al fine di non ottenere effetti

confondenti dovuti alla familiarità percettiva che si sarebbe creata alla ripetizione della

stessa sequenza durante l'esperimento.

Le sequenze sono state presentate in formato Audio Video Interleave (AVI) con risoluzione

640x480 pixel e con una frequenza media di 60 fotogrammi al secondo (fps). Ogni trial

sperimentale era costituito da una croce di fissazione nera su sfondo grigio posta al centro

dello schermo con una durata di 400 ms (al fine di focalizzare l'attenzione del partecipante)

seguita dalla sequenza filmica. La sequenza veniva presentata con un aspetto di forma di 4:3

con un background nero. Dopo ogni sequenza venivano presentate (in ordine casuale) le due

domande sperimentali che verranno descritte in seguito (si veda 2.3.1). Tra un trial e il

successivo veniva interposto un intertrial interval (ITI) di durata variabile (1000 o 1500 ms).

Page 33: Il ruolo del contesto nell’interpretazione di espressioni ...

33

2.3 Procedura

Dopo l'arrivo in laboratorio, ai partecipanti veniva chiesto di compilare alcuni

questionari (si veda 2.4) e di leggere e firmare il consenso informato per la partecipazione

all'esperimento. Successivamente, il partecipante era preparato all'acquisizione dei dati di

EEG. Era quindi prevista una fase di Training cui seguiva la fase sperimentale vera e propria

durante la quale venivano acquisiti i dati di EEG:

1) Training

In questa fase, il partecipante era istruito sul compito che avrebbe dovuto svolgere e

sulle tempistiche da rispettare per rispondere alle domande che gli sarebbero state

presentate (si veda 2.3.1). Per fare questo, dopo una breve spiegazione, al partecipante

venivano presentati otto stimoli sperimentali (che non avrebbe poi rivisto nella fase

sperimentale vera e propria) con le relative domande in modo da comprendere meglio il

compito stesso ed esercitarsi a rispondere nei tempi previsti. Se il partecipante lo richiedeva,

o se le sue risposte non rispettavano ancora le tempistiche richieste, si ripeteva la fase di

training. Durante questa fase il partecipante veniva anche istruito riguardo alcuni

comportamenti che avrebbe dovuto evitare di mettere in atto durante la registrazione EEG

e, soprattutto, durante la visione delle sequenze filmiche. Tra le raccomandazioni, si chiedeva

di prestare particolare attenzione al muoversi il meno possibile, a non sbattere gli occhi, a

non incrociare le gambe e a rimanere rilassato.

2) Fase Sperimentale

Dopo la fase di training iniziava una prima fase sperimentale durante la quale avveniva la

registrazione dei dati di EEG. Questa fase era divisa in sei blocchi, che si susseguivano in

ordine casuale, e durante ogni blocco al partecipante venivano presentati 48 trials

sperimentali il cui ordine di presentazione era anch'esso casuale. Ogni blocco conteneva 16

sequenze sperimentali (stimoli) per ognuna delle tre condizioni descritte precedentemente

(si veda 2.2). Il sesso (maschile e femminile) e la lateralizzazione (orientamento verso destra

e verso sinistra) dei volti presentati in ogni blocco erano bilanciati in modo tale da mantenere

costanti e controllate le variabili relative a queste caratteristiche. Tra un blocco e quello

successivo veniva fatta una pausa, di durata variabile, durante la quale venivano controllati i

Page 34: Il ruolo del contesto nell’interpretazione di espressioni ...

34

valori delle impedenze degli elettrodi e, laddove necessario, venivano riportate al di sotto del

valore soglia di 50 kΩ (si veda 2.6). Una volta completata questa fase, al partecipante veniva

tolta la cuffia per la registrazione EEG.

Dopo la registrazione EEG il partecipante doveva completare una seconda fase sperimentale

che prevedeva una nuova somministrazione di tutte le 288 sequenze filmiche. Al termine di

ogni sequenza era chiesto al partecipante di effettuare un compito di categorizzazione (si

veda 2.3.2).

Tutti i trials sperimentali (si veda 2.2) venivano presentati su un monitor attraverso il

Software E-Prime (Schneider, Eschman, & Zuccolotto, 2002) con il quale erano state

registrate anche le risposte dei partecipanti. La durata totale dell'esperimento era di circa

due ore (di cui circa un'ora per la Fase sperimentale che prevedeva l'acquisizione dei dati di

EEG).

2.3.1 Compito Sperimentale

Al partecipante veniva chiesto semplicemente di guardare le sequenze filmiche presentate,

descritte come delle semplici situazioni filmate in cui un uomo o una donna

guardavano una scena di contesto. Come anticipato, dopo la visione di ogni sequenza, ai

partecipanti venivano presentate (in ordine casuale) due domande alle quali dovevano

rispondere con l'utilizzo del mouse, su una Visual Analog Scale, attribuendo la loro

valutazione al secondo volto che compariva nella sequenza filmica (Volto_2). I partecipanti

avevano un tempo limitato per rispondere ad ogni domanda (di massimo 3000 ms). Le due

domande riguardavano:

1) Valenza

Al partecipante veniva richiesto di indicare la valenza dell'emozione della persona che

compariva dopo la scena (Volto_2). La scala era divisa visivamente in nove punti, che

indicavano diversi livelli di valenza emotiva, cui erano associati dei numeri. La scala, infatti,

andava da un valore di -4 (valenza negativa) ad un valore di +4 (valenza positiva) passando

per lo 0 (Figura 2.3a). Il puntatore era posizionato in corrispondenza dello 0 ogni volta che la

Page 35: Il ruolo del contesto nell’interpretazione di espressioni ...

35

domanda veniva presentata e il partecipante doveva muovere il mouse liberamente per

rispondere alla domanda secondo la sua valutazione.

2) Attivazione (Arousal)

Al partecipante veniva chiesto di indicare il livello di attivazione della persona che compariva

dopo la scena (Volto_2). Anche in questo caso la scala era divisa visivamente in nove punti

che indicavano diversi livelli di attivazione contraddistinti da numeri. La scala andava da un

valore di 1 (calmo) ad un valore di 9 (eccitato) (Figura 2.3b). Il puntatore, ad ogni

presentazione della domanda, era posizionato in corrispondenza del valore medio (5) e il

partecipante doveva muovere il mouse liberamente per rispondere alla domanda secondo la

sua valutazione.

2.3.2 Compito di Categorizzazione

Come anticipato, i partecipanti dovevano eseguire anche un compito di categorizzazione

(nella seconda fase sperimentale) nel quale erano invitati ad attribuire un'etichetta emotiva

all'emozione del Volto_2. Ai partecipanti venivano date le seguenti sei possibili etichette

emotive ,le sei emozioni di base individuate da Ekman (Ekman, 1993), associate a sei tasti di

una tastiera: Felicità, Tristezza, Paura, Rabbia, Disgusto, Sorpresa (Figura 2.4).

Inoltre, veniva data una settima opzione (identificata con la dicitura “Altro”) attraverso la

quale i partecipanti potevano esprimere un proprio giudizio sull'emozione provata dalla

Figura 2.3

Page 36: Il ruolo del contesto nell’interpretazione di espressioni ...

36

persona (scrivendolo loro stessi) qualora questo non fosse contemplato all'interno delle

possibili sei etichette emotive presentate.

In Figura 2.5 riassumiamo l’ordine di presentazione delle sequenze filmiche e delle domande

di valenza e attivazione (compito sperimentale) e di categorizzazione.

Figura 2.4

Page 37: Il ruolo del contesto nell’interpretazione di espressioni ...

37

Figura 2.5

2.4 Questionari

Ad ogni partecipante veniva somministrata una batteria di test. Il giorno prima della seduta

sperimentale il partecipante era invitato a compilare alcuni questionari inviati in forma

telematica tramite Moduli di Google (Google Inc.) che comprendevano:

1) Interpersonal Reactivity Index (IRI) (Davis, 1983)

Page 38: Il ruolo del contesto nell’interpretazione di espressioni ...

38

2) Behavioral Activation / Inhibition System Scale (BIS BAS) (Carver & White, 1994)

3) Toronto Alexithymia Scale (TAS 20) (Bagby, Parker, & Taylor, 1994)

4) Forma X2 dello State / Trait Anxiety Scale (STAI X2) (Spielberger, Gorsuch, & Lushene,

1968)

In laboratorio invece il partecipante era invitato a compilare, prima della registrazione EEG:

1) Edinburgh Handedness Inventory (Oldfield, 1971)

2) Forma X1 dello State / Trait Anxiety Scale (STAI X1) (Spielberger et al., 1968)

Dopo la sessione di EEG il partecipante doveva invece compilare:

1) Forma X3 dello State / Trait Anxiety Scale (STAI X) (Spielberger et al., 1968)

2) Giudizio di Familiarità

2.4.1 Interpersonal Reactivity Index

L'Interpersonal Reactivity Index (IRI) (Davis, 1983) indaga la responsività empatica attraverso

la misura integrata di componenti affettive e cognitive (Albiero, Ingoglia, & Lo Coco, 2006).

Si compone di quattro sottoscale:

1) IRI EC (Empathic Concern)

Misura la reazione emotiva del partecipante orientata verso la condivisione dell'esperienza

altrui.

2) IRI PD (Personal Distress)

Misura la reazione emotiva del partecipante orientata alla comprensione dei propri stati

d'ansia e preoccupazione in situazioni relazionali.

3) IRI PT (Perspective Taking)

Indaga l'abilità del partecipante di adottare il punto di vista altrui.

4) IRI FS (Fantasy Scale)

Page 39: Il ruolo del contesto nell’interpretazione di espressioni ...

39

Indaga la tendenza del partecipante ad immaginarsi in situazioni fittizie

2.4.2 Behavioral Activation / Inhibition System Scale

Il Behavioral Activation / Inhibition System Scale (BIS/BAS) (Carver & White, 1994) misura le

capacità generali del partecipante di autoregolarsi (Leone, Pierro, & Mannetti, 2002) e

prevede due sottoscale:

1) BAS (Behavioral Activation System)

Ci fornisce una misura dei sistemi di attivazione del partecipante attraverso tre sottoscale:

a) Drive

Indaga la tendenza del partecipante a perseguire con intensità mete di tipo affettivo.

b) Reward Responsiveness

Indaga la responsività e sensibilità del partecipante alle opportunità di ricompensa.

c) Fun Seeking

Indaga la spinta del partecipante a sperimentare situazioni nuove legate all'immediato

raggiungimento di un obiettivo premiante.

2) BIS (Behavioral Inibition System)

Ci fornisce una misura di inibizione comportamentale del partecipante.

2.4.3 Toronto Alexithymia Scale

Il Toronto Alexithymia Scale (TAS-20) (Bagby et al., 1994) misura il grado di consapevolezza

emotiva dei partecipanti per evidenziare se ci sono deficit problematici nel mentalizzare,

percepire, riconoscere e descrivere i propri o gli altrui stati emotivi, caratteristici dei soggetti

Alessitimici (La Ferlita, Bonadies, Solano, De Gennaro, & Gonini, 2007). Il test è composto da

tre sottoscale che misurano i tre fattori principali legati a questo deficit:

1) TAS DIF (Difficulty Identifying Feelings)

Page 40: Il ruolo del contesto nell’interpretazione di espressioni ...

40

Indaga le possibili difficoltà nell'identificare i sentimenti.

2) TAS DDF (Difficulty Describing Feelings)

Indaga le possibili difficoltà nel descrivere i sentimenti.

3) TAS EOT (Externally Oriented Thinking)

Misura l'orientamento del pensiero verso l'esterno.

2.4.4 State / Trait Anxiety Scale

Il State / Trait Anxiety Scale (STAI) (Spielberger et al., 1968) è diviso in due sottoscale (e tre

forme):

1) STAI X1 / X3

Nelle forme X1 e X3 il test valuta l'Ansia di Stato del partecipante prima e dopo l'esperimento

(PRE e POST) (Pedrabissi & Santinello, 1989). L'Ansia di Stato è concettualizzata come uno

stato transitorio emozionale caratterizzato da sentimenti soggettivi di tensione ed

apprensione percepiti a livello cosciente che possono variare e fluttuare nel tempo e nella

forma.

2) STAI X2

Nella forma X2 il test valuta l'Ansia di Tratto che si riferisce a differenze individuali

relativamente stabili nella disposizione e nella tendenza a rispondere con innalzamento

dell'intensità dell'Ansia in situazioni percepite come minacciose (Pedrabissi & Santinello,

1989).

2.4.5 Giudizio di Familiarità

Ad esperimento concluso (dopo aver effettuato il compito di categorizzazione) i partecipanti

dovevano rispondere a sei domande aperte che risultavano utili per verificare che i

partecipanti non avessero capito l'obiettivo sperimentale, che non fossero stati influenzati

Page 41: Il ruolo del contesto nell’interpretazione di espressioni ...

41

da conoscenze pregresse riguardo l'effetto studiato, e che non avessero familiarità con i

video presentati. Le domande proposte erano le seguenti:

1) Prima di oggi hai mai visto qualcuno di questi video?

2) Riguardo cosa pensi che sia l'esperimento?

3) C'era qualcosa di poco chiaro/confuso nell'esperimento?

4) Qual era la tua impressione dei diversi volti?

5) Hai altri commenti?

6) Hai mai sentito parlare dell’effetto Kuleshov?

2.5 Analisi Comportamentale

Per le analisi statistiche abbiamo utilizzato il Software R (Team, 2014). Nello specifico,

abbiamo utilizzato la funzione lme implementata nel pacchetto nlme (Pinheiro et al., 2017) per

la definizione del modello statistico e la funzione glht implementata nel pacchetto multcomp

(Hothorn, Bretz, Westfall, & Heiberger, 2008) per le analisi Post Hoc basate sul modello

ottenuto. Inoltre, per stimare i coefficienti di determinazione del nostro modello abbiamo

utilizzato la funzione r.squaredGLMM implementata nel pacchetto MuMIn (MuMIn, 2018).

Per tracciare i grafici abbiamo utilizzato la funzione ggplot implementata nel pacchetto

ggplot2 (Kahle & Wickham, 2013). Per il calcolo delle medie campionarie relative ai dati

riportati in Figura 2.6 abbiamo utilizzato la funzione lsmeans implementata nel pacchetto

lsmeans (Lenth, 2016).

Come proposto da Barratt e colleghi (Barratt, 2015), abbiamo riscalato i punteggi di risposta

dei partecipanti in modo tale da centrarli sulla media relativa alle risposte di tutto il campione

in relazione alla specifica domanda presa in considerazione (valenza e attivazione, si veda

2.4). Per fare questo abbiamo per prima cosa trasformato i punteggi iniziali relativi alla Visual

Analog Scale, che andavano da 1 a 100, nei punteggi relativi alla specifica scala a nove punti

riportata per ogni domanda (da −4 a +4 per la Valenza e da 1 a 9 per l'Attivazione). Dopo aver

fatto questo, ad ogni punteggio è stato sottratto il punteggio medio relativo alla specifica

Page 42: Il ruolo del contesto nell’interpretazione di espressioni ...

42

domanda (Tabella 2.3). In questo modo lo zero corrispondeva alla media delle risposte per

quella specifica domanda sperimentale. Questa procedura è stata eseguita per evidenziare

le risposte dei partecipanti superiori (punteggi positivi) o inferiori (punteggi negativi) rispetto

alla media, separatamente per Valenza e Attivazione.

Tab 2.3 Valori relativi alla media delle risposte date dai partecipanti e calcolate separatamente in base alla domanda sperimentale

considerata (Valenza e Attivazione).

Per indagare la modulazione delle risposte dei partecipanti alle domande sperimentali

abbiamo utilizzato un Modello Misto Lineare. Abbiamo infatti utilizzato il punteggio delle

risposte dei partecipanti come variabile dipendente. La Condizione di Contesto presente

nella sequenza (3 livelli: condizione di felicità, di paura e neutra), la Domanda Sperimentale

(2 livelli: Valenza e Attivazione) e il Sesso dei partecipanti (Maschi o Femmine) sono state

utilizzate come variabili indipendenti o predittori. Inoltre, queste tre variabili indipendenti

venivano messe in interazione all'interno del modello in modo tale da comprendere meglio

l'influenza di ognuna di queste sulle risposte dei partecipanti. Per controllare ed escludere

eventuali effetti dovuti al caso (e nello specifico alla variazione idiosincratica dovuta alle

differenze individuali tra i partecipanti che componevano il nostro campione sperimentale)

abbiamo definito il modello in modo tale che venisse assegnata un'intercetta diversa ad ogni

partecipante in relazione alle sue risposte. In questo modo abbiamo escluso possibili

influenze sulle risposte dipendenti dalla variabilità tra i partecipanti, focalizzandoci solo

sull'effetto delle variabili indipendenti. Per escludere possibili ed ulteriori fonti di variabilità

tra le risposte dei partecipanti abbiamo inoltre definito il modello in modo tale che la

pendenza della retta di regressione calcolata per ogni partecipante variasse in relazione

all'interazione tra la variabile relativa alla Condizione di Contesto e la variabile relativa alla

domanda sperimentale. In questo modo abbiamo escluso possibili influenze relative al fatto

Tabella 2.3

Page 43: Il ruolo del contesto nell’interpretazione di espressioni ...

43

che partecipanti diversi rispondano in maniera diversa nelle diverse condizioni sperimentali

considerate.

Il nostro modello, quindi, rappresentava una misura della relazione tra la variabile

dipendente e le variabili indipendenti al netto della variabilità dovuta al caso. Il modello è

stato calcolato sulla base del metodo della massima verosimiglianza e, confrontato con un

modello nullo tramite Likelihood Ratio Test, risultava adattarsi significativamente meglio al

fenomeno misurato (Likelihood Ratio = 3720.3; p < .000). La normalità e l’omoschedasticità

sono stati verificati tramite un'ispezione visiva dei grafici relativi alla distribuzione dei residui

del modello. Il modello ottenuto spiegava quasi il 14% della varianza dei punteggi misurati,

senza tenere conto della variabilità dovuta ad effetti casuali. Considerando anche l'influenza

degli effetti casuali inclusi nel modello statistico, la varianza nei dati spiegata cresceva fino a

raggiungere il 38 % (come esposto nella Tabella 2.4).

Tab 2.4 Valori relativi al Marginal R^2, relativo alla varianza dei punteggi misurati dal modello presentato senza tenere conto della

variabilità dovuta ad effetti casuali e al Conditional R^2, relativo alla varianza dei punteggi misurati dal modello presentato tenendo

conto della variabilità dovuta ad effetti casuali inclusi nel modello.

L’effetto delle varie variabili indipendenti inserite nel modello è stato verificato attraverso

un'analisi della varianza (ANOVA) sulla base del modello descritto. In questo modo abbiamo

evidenziato quali variabili e quali interazioni tra le variabili prese in esame risultavano

significative, senza evidenziare nello specifico le differenze tra i vari livelli delle variabili

indipendenti. L’effetto della variabile relativa alla Domanda Sperimentale risultava

significativa (F(1, 8040) =16.29; p <.000). Nello specifico, in base al nostro modello, le risposte

relative alla Valenza (M = 1.014; ES=0.354) risultavano in media superiori (β =1.01; SE =0.35;

t =2.84; p =.004) rispetto a quelle in Attivazione (M =-0.799; ES=0.365). Anche la variabile

relativa alla Condizione di Contesto risultava complessivamente significativa (F(2, 8040)

Tabella 2.4

Page 44: Il ruolo del contesto nell’interpretazione di espressioni ...

44

=29.14; p < .000) ma, in base ai risultati del modello, abbiamo notato che l'unica differenza

significativa era presente tra le risposte che i partecipanti attribuivano al volto (Volto_2) nella

condizione di paura (M =1.404; ES=0.276) e nella condizione neutra (M =-0.799; ES=0.365).

Nello specifico, le risposte dei partecipanti nella condizione di paura erano più alte rispetto

a quelle nella condizione neutra (β = 1.0; SE = 0.27; t = 5.08; p <.000). Le risposte dei maschi,

inoltre, non risultavano complessivamente differenti da quelle delle femmine. L'ANOVA ha,

inoltre, mostrato che anche tulle le interazioni a due vie (Condizione di Contesto ∗ Domanda

Sperimentale F(2, 8040) = 14.85; p <.000, Condizione di Contesto ∗ Sesso F(2, 8040) = 4.98;

p =.006, Domanda Sperimentale ∗ Sesso F(1, 8040) = 12.83; p <.000) e l'interazione a tre vie

(Condizione di Contesto ∗ Domanda Sperimentale ∗ Sesso F(2, 8040) = 4.41; p =.01) tra le

variabili sperimentali risultavano significative. Per mostrare tali interazioni, sottolineando le

differenze significative, abbiamo operato dei confronti Post Hoc.

2.5.1 Post Hoc

Abbiamo utilizzato il test di Tukey per confrontare le risposte dei partecipanti (Tabella 2.5).

Tab 2.5 Media: risposta media dei partecipanti; St. Error: errore standard della media; Lower CL: limite inferiore intervallo di confidenza

della media; Upper CL: limite superiore intervallo di confidenza della media

Tabella 2.5

Page 45: Il ruolo del contesto nell’interpretazione di espressioni ...

45

Figura 2.6

Fig 2.6 Risposte medie dei partecipanti con relativo errore standard rappresentato con le barre d’errore. Abbiamo evidenziato anche le

differenze significative rilevate nei confronti post hoc con il test di Tukey (*** p <.001; ** p <.001; * p <.01).

In particolare, abbiamo confrontato con il Test di Tukey tutti i livelli della Condizione di

Contesto con i livelli della variabile relativa al sesso dei partecipanti, separatamente per

Valenza ed Attivazione.

***

***

***

*** *

Page 46: Il ruolo del contesto nell’interpretazione di espressioni ...

46

Tab 2.6 Estimate: differenza stimata tra le risposte medie dei due livelli della variabile confrontata; St. Error: errore standard; z value:

valore del test di significatività espresso in punti z ; Pr(>|z|): significatività statistica

Tab 2.7 Estimate: differenza stimata tra le risposte medie dei due livelli della variabile confrontata; St. Error: errore standard; z value:

valore del test di significatività espresso in punti z ; Pr(>|z|): significatività statistica

2.5.2 Categorizzazione

Riguardo l'analisi delle risposte dei partecipanti al compito di categorizzazione emotiva degli

stimoli, abbiamo estratto le percentuali di risposta per ogni etichetta emotiva presentata (si

veda 2.3.2) in relazione al contesto emotivo (o neutro) presentato nella sequenza filmica.

Tabella 2.7

Tabella 2.6

Page 47: Il ruolo del contesto nell’interpretazione di espressioni ...

47

I risultati ci indicano che i partecipanti nella condizione di felicità rispondevano identificando

l’emozione nel 36% dei casi con l’opzione “Felicità”. Le risposte risultavano quindi coerenti

con il contesto presentato (object shot), anche se rileviamo che i partecipanti sceglievano

nell’11% dei casi anche le opzioni “Tristezza” e “Sorpresa”. Anche nella condizione di paura

le risposte erano coerenti con il contesto presentato (object shot). I partecipanti, infatti,

rispondevano, nella maggior parte dei casi, scegliendo emozioni negative come “Tristezza”,

“Paura”, “Rabbia” e “Disgusto”. Per quanto riguarda la condizione neutra, come ci

aspettavamo, i soggetti sceglievano in modo quasi indifferenziato etichette emotive positive,

come “Felicità” (18%), e negative, come “Tristezza” (16%), dimostrando che il contesto

neutro non influenzava, a differenza dei contesti emotivi, la percezione emotiva del Volto_2.

In quest’ultima condizione i partecipanti sceglievano spesso, nel 16% dei casi, anche

l’opzione “Altro” descrivendo l’emozione, la metà delle volte (122 risposte sulle totali 223

date per l’opzione “Altro”), come esplicitamente neutra.

Tab 2.8 Percentuali di scelta per ogni opzione di risposta disponibile nelle tre condizioni.

2.6 Analisi EEG

Per la registrazione EEG è stata utilizzata una cuffia con 128 canali (Hydrocel Geodesic Sensor

Net - GSN300) (Figura 2.7), mantenendo l'impedenza degli elettrodi al di sotto di 50 kΩ, e un

amplificatore (Net Amps), con una frequenza di campionamento di 500 Hz, prodotti dalla

Electrical Geodesics Inc. La cuffia è stata posizionata con l’elettrodo Cz (Reference) al centro

dello scalpo di ogni partecipante.

Tabella 2.8

Page 48: Il ruolo del contesto nell’interpretazione di espressioni ...

48

Figura 2.7

Fig 2.7 Visualizzazione dei 129 elettrodi della cuffia utilizzata divisi in aree topografiche dello scalpo. Le aree topografiche,

evidenziate con diversi colori, erano 9: AS (Anteriore sinistra), AC (Anteriore centrale), AD (Anteriore destra), CS (Centrale sinistra),

CC (Centrale), CD (Centrale destra), PS(Posteriore sinistra), PC (Posteriore centrale), PD (Posteriore destra).

L'acquisizione dei dati di EEG è avvenuta mediante il Software NetStation (Electrical

Geodesics, 2003), mentre per analisi successive (si veda 2.6.1) è stato sia utilizzato il toolbox

di Matlab EEGLAB (Delorme & Makeig, 2004) sia il software Cartool (Brunet, Murray, &

Michel, 2011).

Hydrocel Geodesic Sensor Net

Page 49: Il ruolo del contesto nell’interpretazione di espressioni ...

49

2.6.1 Preprocessing

La prima fase relativa alla pulizia dei dati EEG è stata effettuata tramite il Software NetStation

(Electrical Geodesics, 2003). Alla registrazione EEG continua di ogni partecipante è stato

applicato un filtro passa banda che escludeva le frequenze al di sotto di 1 Hz e al di sopra di

30 Hz e un filtro taglia banda (notch) a 50 Hz. Dopo questo passaggio i dati sono stati

segmentati in epoche da 6100 ms che comprendevano i sei secondi relativi alla visione della

sequenza filmica e 100 ms precedenti alla comparsa del primo volto della sequenza, utilizzati

in seguito come baseline. I dati sono stati sottoposti a una Independent Component Analysis

(ICA) (Delorme & Makeig, 2004) al fine di escludere componenti ricorrenti che risultavano

artefattuali, come il movimento degli occhi (saccadi), lo sbattere delle palpebre

(ammiccamenti), il battito cardiaco e le tensioni muscolari temporali o frontali. Prima di

effettuare l’ICA, sono stati eliminati eventuali canali o singole epoche che presentavano

anomalie nell’andamento del tracciato (drift e jump) o anomalie dell’acquisizione dovute

all’amplificatore.

Attraverso l’ICA abbiamo, in media, escluso 10 componenti per ogni partecipante. Dopo

questa prima fase di pulizia, ai dati è stato applicato un ulteriore filtro che escludeva tutte le

frequenze al di sotto di 0.3 Hz in modo da preservare l’ampiezza del segnale per le

componenti ERP più lente, come evidenziato in precedenti studi (Kappenman & Luck, 2010).

I tracciati sono stati poi ispezionati visivamente per escludere trials e canali che risultassero

caratterizzati ancora dalla presenza di artefatti. Tutti i canali esclusi sono poi stati interpolati

utilizzando il metodo sferico implementato in EEGLAB. Inoltre, il segnale relativo a tutti i

canali è stato ricalcolato sulla base della media totale (Average Re-referencing). I dati

processati come descritto sono stati in seguito importati e analizzati in Cartool (Brunet et al.,

2011). Ciascuna epoca di 6100 ms è stata ulteriormente segmentata in modo da ottenere

epoche sincronizzate con l’apparizione del Volto_2 (durata di 1500 ms).

2.6.2 Global ERP waveform analysis

Le epoche di 1500 ms, ottenute attraverso il preprocessing descritto sopra, sono state

sottoposte ad una Global ERP waveform analysis per determinare le modulazioni nel tempo

Page 50: Il ruolo del contesto nell’interpretazione di espressioni ...

50

della risposta elettrica evocata durante la visione del Volto_2. Questa analisi è stata condotta

confrontando, attraverso un t test, l’ampiezza d’onda media del segnale elettrico evocato

per ogni punto temporale dell’epoca registrata da ogni elettrodo in due condizioni

sperimentali per volta (confronti a coppie) e per ciascun partecipante:

1) Condizione di Paura vs Condizione Neutra

2) Condizione di Felicità vs Condizione Neutra

3) Condizione di Felicità vs Condizione di Paura

Abbiamo preso in considerazione le differenze nell’andamento del segnale tra due condizioni

quando rispettavano questi criteri: la differenza tra l’ampiezza media del segnale doveva

essere significativa (con un livello di significatività p <.05) per una finestra temporale minima

di 20 ms (Guthrie & Buchwald, 1991) che doveva interessare almeno cinque elettrodi contigui

compresi all’interno di almeno una delle nove aree topografiche già presentate nella Figura

2.7. Analizzeremo di seguito i risultati ottenuti nei tre confronti.

2.6.2.1 Condizione di Paura vs Condizione Neutra

Nella figura 2.8 abbiamo evidenziato le finestre temporali di durata superiore a 20 ms nelle

quali almeno cinque elettrodi contigui risultavano avere un segnale significativamente

diverso (p <.05) tra la condizione di paura e la condizione neutra.

Page 51: Il ruolo del contesto nell’interpretazione di espressioni ...

51

Figura 2.8

Page 52: Il ruolo del contesto nell’interpretazione di espressioni ...

52

Fig. 2.8. In alto: le linee orizzontali rappresentano i 129 elettrodi analizzati. Su ogni linea viene evidenziata, quando presente, con tratti di

spessore maggiore, una differenza significativa nelle due condizioni confrontate. La lunghezza dei tratti neri rispecchia la durata nel

tempo della finestra di significatività evidenziata in un determinato elettrodo. Vengono inoltre evidenziate le finestre temporali in cui si

rileva una differenza significativa tra le condizioni con colori diversi. In basso: visualizzazione dei 129 elettrodi divisi in aree topografiche

dello scalpo. Le aree topografiche erano 9: AS (Anteriore sinistra), AC (Anteriore centrale), AD (Anteriore destra), CS (Centrale sinistra), CC

(Centrale), CD (Centrale destra), PS (Posteriore sinistra), PC (Posteriore centrale), PD (Posteriore destra).

Abbiamo evidenziato la presenza di nove finestre di significatività che suddivideremo in base

al tempo di inizio e fine di ciascuna finestra rispetto all’onset del Volto_2.

T 1 - 42 ms

Riteniamo che le differenze rilevate durante questa finestra temporale così precoce possano

essere dovute al fatto che l’epoca che abbiamo utilizzato (quella del Volto_2) non è

preceduta da una fase di rest o da un interstimulus interval, ma è preceduta dalla visione

della scena di contesto (object shot). Il partecipante, quindi, è impegnato nell’attività di

visione della sequenza filmica (nella sua totalità) e le fluttuazioni che rileviamo così

precocemente non possono essere spiegate in base ad una reale attività cerebrale evocata

dalla presentazione del Volto_2, ma sono verosimilmente dovute a variazioni dell’attività

cerebrale in risposta allo stimolo precedente.

T 94 - 148 ms

In questa finestra temporale abbiamo rilevato la presenza di due modulazioni (una frontale

e una posteriore) compatibile con componenti precoci nell’analisi visiva dei volti (N1 e P1,

rispettivamente).

Nella Figura 2.9 vengono evidenziate queste due componenti topograficamente distinte.

Page 53: Il ruolo del contesto nell’interpretazione di espressioni ...

53

Figura 2.9

Fig. 2.9 A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate (in rosso) le aree statisticamente significative nella

finestra temporale che va da 94 a 148 ms. A destra: mappa dello scalpo in due dimensioni in cui viene evidenziata in rosso l’area nella

quale i potenziali evocati, per ogni elettrodo, nella condizione di paura erano superiori rispetto a quelli nella condizione neutra (t

positivo) e in blu l’area nella quale i potenziali evocati, per ogni elettrodo, nella condizione neutra erano superiori a quelli nella

condizione di paura (t negativo). Nella finestra temporale considerata, in media gli elettrodi con il punteggio al t Test più alti erano gli

elettrodi E112 (t= 3.87, p <.05) ed E71 (t= -3.42, p <.05).

Nella Figura 2.10 possiamo notare l’area della componente P1 posteriore positiva e l’area

della componente N1 anteriore negativa.

Figura 2.10

E58

E112

Page 54: Il ruolo del contesto nell’interpretazione di espressioni ...

54

Fig. 2.10 A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate in rosso le aree in cui il potenziale evocato è

complessivamente positivo e in blu dove il segnale è complessivamente negativo. A destra: ERPs riferiti ai due elettrodi (E58 in alto ed

E112 in basso) dove la differenza rilevata dal test era massima nella finestra temporale che va da 94 a 148 ms (evidenziata in azzurro). Nei

due plot degli ERPs presentati vediamo sovrapposti i due tracciati riferiti alle due condizioni confrontate (in rosso la condizione di paura e

in nero la condizione neutra).

La componente P1 ha una estensione topografica che comprende la regione centrale

posteriore centrale, posteriore destra e posteriore sinistra dello scalpo.

Ipotizziamo che la rilevazione della componente P1 sia dovuta a un’analisi visiva precoce del

volto. Riteniamo, tuttavia, che la differenza significativa in questa componente nelle due

condizioni, specificamente più ampia (più positiva) nella condizione neutra rispetto alla

condizione di paura (t =-5.18, p <.05), possa essere dovuta anche ad un effetto di latenza,

ovvero ad una differenza nella comparsa della componente stessa a livello temporale. Come

si può notare dall’ERP dell’elettrodo E58 (Figura 2.10), il picco positivo nella condizione

neutra, seppur molto più ampio, risulta temporalmente successivo (di circa 26 ms) rispetto

al picco positivo nella condizione di paura.

La componente N1 ha un’estensione topografica che comprende la regione centrale,

anteriore centrale, anteriore destra e anteriore sinistra dello scalpo. La significatività rilevata

in questa finestra temporale, nella parte anteriore dello scalpo, ci indica una modulazione

molto più ampia (più negativa) nella condizione neutra rispetto alla condizione di paura

(t=6.23, p <.05).

T 156 - 196 ms

Le differenze rilevate nelle due condizioni, in questa finestra temporale, potrebbero essere

dovute a oscillazioni casuali del segnale che potrebbero venir meno qualora si aumentasse il

campione sperimentale. Avanziamo questa ipotesi dati il ristretto numero di elettrodi in cui

la differenza rilevata risulta significativa e l’andamento confuso del segnale ERP visualizzato.

T 264 - 332 ms

Durante questa finestra temporale abbiamo rilevato una modulazione posteriore congruente

con una componente P3.

Page 55: Il ruolo del contesto nell’interpretazione di espressioni ...

55

La figura 2.11 evidenzia la presenza della componente posteriore in questione, mostrando,

inoltre, l’assenza di un bipolo di attivazione differenziale (Figura 2.11 Sinistra).

Figura 2.11

Fig. 2.11. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate (in rosso) le aree statisticamente significative nella

finestra temporale che va da 264 a 332 ms. A destra: mappa dello scalpo in due dimensioni in cui viene evidenziata in rosso l’area nella

quale i potenziali evocati, per ogni elettrodo, nella condizione di paura erano superiori a quelli nella condizione neutra (t positivo) e in blu

l’area nella quale i potenziali evocati, per ogni elettrodo, nella condizione neutra erano superiori a quelli nella condizione di paura (t

negativo). Nella finestra temporale considerata, in media l’elettrodo con il punteggio al tTest più alto era l’elettrodo E76 (t= -3.06, p <.05).

Nella Figura 2.12 notiamo chiaramente che la componente è positiva e, osservando l’ERP

dell’elettrodo dove questa differenza risulta maggiore (t =-3.93, p <.05), rileviamo un

secondo picco positivo compatibile con la componente P3.

Page 56: Il ruolo del contesto nell’interpretazione di espressioni ...

56

Figura 2.12

Fig. 2.12. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate in rosso le aree in cui il potenziale evocato è

positivo e in blu dove il segnale è negativo. A destra: ERP riferito all’elettrodo (E77) dove la differenza rilevata dal test era massima nella

finestra temporale che va da 264 a 332 ms (evidenziata in azzurro). Nel plot dell’ERP presentato vediamo sovrapposti i due tracciati

riferiti alle due condizioni confrontate (in rosso la condizione di paura e in nero la condizione neutra).

L’area di significatività del cluster in analisi comprende solo la regione posteriore centrale

dello scalpo.

T 432 - 712 ms

Nella lunga finestra temporale che va da 432 a 712 ms abbiamo evidenziato, nello specifico,

quattro periodi di tempo caratterizzati da un’attività cerebrale significativamente differente

tra le due condizioni. Le prime due finestre sono topograficamente e funzionalmente molto

simili ed hanno un’estensione temporale molto ampia.

Nella figura 2.13 viene evidenziata la prima ampia area, in cui la differenza tra le due

condizioni risulta significativa, che si estende nelle zone centrali di sinistra dello scalpo, nella

finestra di tempo che va da 432 a 590 ms. In questa finestra temporale non è presente un

vero e proprio dipolo in quanto sulle regioni posteriori è emersa una differenza significativa

tra le due condizioni solo tra 456 e 480 ms.

E77

Page 57: Il ruolo del contesto nell’interpretazione di espressioni ...

57

Figura 2.13

Fig. 2.13. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate (in rosso) le aree statisticamente significative nella

finestra temporale che va da 432 a 590 ms. A destra: mappa dello scalpo in due dimensioni in cui viene evidenziata in rosso l’area nella

quale i potenziali evocati, per ogni elettrodo, nella condizione di paura erano superiori a quelli nella condizione neutra (t positivo) e in blu

l’area nella quale i potenziali evocati, per ogni elettrodo, nella condizione neutra erano superiori a quelli nella condizione di paura (t

negativo). Nella finestra temporale considerata, in media l’elettrodo con il punteggio al t Test più alto era l’elettrodo E73 (t= -3.26, p

<.05).

Nella Figura 2.14, osservando l’ERP dell’elettrodo dove questa differenza risulta maggiore (t

=-4.84, p <.05), notiamo la differenza tra la modulazione nella condizione neutra e quella

nella condizione di paura.

Page 58: Il ruolo del contesto nell’interpretazione di espressioni ...

58

Figura 2.14

Fig. 2.14. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate in rosso le aree in cui il potenziale evocato è

positivo e in blu dove il segnale è negativo. A destra: ERP riferito all’elettrodo (E41) dove la differenza rilevata dal test era massima nella

finestra temporale che va da 432 a 590 ms (evidenziata in verde). Nel plot dell’ERP presentato vediamo sovrapposti i due tracciati riferiti

alle due condizioni confrontate (in rosso la condizione di paura e in nero la condizione neutra).

Nella figura 2.15 viene evidenziata la seconda ampia area, topograficamente simile a quella

appena descritta, in cui la differenza tra le due condizioni risulta significativa nella finestra di

tempo che va da 608 a 712 ms. Anche in questa finestra temporale non è presente un vero

e proprio dipolo che perdura nel tempo, ma si ripresenta una situazione analoga a quella

descritta precedentemente.

E41

Page 59: Il ruolo del contesto nell’interpretazione di espressioni ...

59

Figura 2.15

Fig. 2.15. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate (in rosso) le aree statisticamente significative nella

finestra temporale che va da 608 a 712 ms. A destra: mappa dello scalpo in due dimensioni in cui viene evidenziata in rosso l’area nella

quale i potenziali evocati, per ogni elettrodo, nella condizione di paura erano superiori a quelli nella condizione neutra (t positivo) e in blu

l’area nella quale i potenziali evocati, per ogni elettrodo, nella condizione neutra erano superiori a quelli nella condizione di paura (t

negativo). Nella finestra temporale considerata, in media l’elettrodo con il punteggio al t Test più alto era l’elettrodo E29 (t= -3.93, p

<.05).

Nella Figura 2.16 viene mostrato che anche la modulazione funzionale è analoga alla

precedente (t =-7.09, p <.05).

Figura 2.16

E42

Page 60: Il ruolo del contesto nell’interpretazione di espressioni ...

60

Fig. 2.16. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate in rosso le aree in cui il potenziale evocato è

positivo e in blu dove il segnale è negativo. A destra: ERP riferito all’elettrodo (E42) dove la differenza rilevata dal test era massima nella

finestra temporale che va da 608 a 712 ms (evidenziata in rosa). Nel plot dell’ERP presentato vediamo sovrapposti i due tracciati riferiti

alle due condizioni confrontate (in rosso la condizione di paura e in nero la condizione neutra).

Abbiamo, quindi, una componente che interessa la regione centrale e centrale sinistra dello

scalpo. Questa componente è caratterizzata da una modulazione più ampia per la condizione

di paura (che risulta negativa) rispetto alla condizione neutra (che risulta positiva). Possiamo

ipotizzare che questa componente, almeno nella prima finestra di significatività, possa essere

coerente con una N400.

Le altre due finestre significative, anch’esse topograficamente funzionalmente simili tra loro,

sono caratterizzate, invece, da una minor estensione temporale.

Nella Figura 2.17 possiamo notare l’area posteriore in cui la differenza tra le due condizioni

risulta significativa: nella finestra temporale da 456 a 480 ms e nella finestra temporale da

648 a 672 ms.

Page 61: Il ruolo del contesto nell’interpretazione di espressioni ...

61

Figura 2.17

Fig. 2.17. A sinistra: mappe dello scalpo in due dimensioni in cui vengono evidenziate (in rosso) le aree statisticamente significative nella

finestra temporale che va da 456 a 480 ms (in alto) e da 648 a 672 ms (in basso). A destra: mappe dello scalpo in due dimensioni in cui

viene evidenziata in rosso l’area nella quale i potenziali evocati, per ogni elettrodo, nella condizione di paura erano superiori a quelli nella

condizione neutra (t positivo) e in blu l’area nella quale i potenziali evocati, per ogni elettrodo, nella condizione neutra erano superiori a

quelli nella condizione di paura (t negativo). Nelle due finestre temporali considerate, in media gli elettrodi con il punteggio al t Test più

alti erano gli elettrodi E95 (t= -3.73, p <.05), nella prima finestra temporale, ed E95 (t= -3.42, p <.05) nella seconda finestra temporale.

Vista la connotazione topografica posteriore e il tempo in cui rileviamo questa componente

(superiore ai 300 ms) possiamo riconoscere un Late positive potential (LPP). Come vediamo

in Figura 2.18, infatti, abbiamo una modulazione maggiore (più negativa) per la condizione

Page 62: Il ruolo del contesto nell’interpretazione di espressioni ...

62

neutra rispetto alla condizione di paura (t =5.44, p <.05 nella prima finestra temporale e t =-

3.42, p <.05 nella seconda).

Figura 2.18

Fig. 2.18. In alto: mappa dello scalpo in due dimensioni in cui vengono evidenziate in rosso le aree in cui il potenziale evocato è positivo e

in blu dove il segnale è negativo in due finestre temporali da 456 a 480 ms (a sinistra) e da 648 a 672 ms (a destra). In basso: ERPs riferiti

all’elettrodo (E95) dove la differenza rilevata dal test era massima nella finestra temporale che va da 456 a 480 ms e da 648 a 672 ms

(evidenziata in giallo). Nel plot dell’ERP presentato vediamo sovrapposti i due tracciati riferiti alle due condizioni confrontate (in rosso la

condizione di paura e in nero la condizione neutra).

La componente rilevata è molto discontinua e interessa pochi elettrodi nelle regioni

posteriori dello scalpo.

E95

Page 63: Il ruolo del contesto nell’interpretazione di espressioni ...

63

Ipotizziamo che aumentando il campione si possa giungere a una maggiore definizione di

questi risultati. Quest’ultima componente, infatti, è spesso descritta come un insieme di

componenti più che come un’unica modulazione, e può perdurare anche pur tutta la durata

della presentazione dello stimolo. Con un maggior numero di osservazioni campionarie

aumenteremmo la potenza statistica del test e forniremmo interpretazioni più circostanziate

sulla base di risultati più solidi.

T 786 – 836 ms

In Figura 2.19 possiamo notare un’area centrale sinistra, nella quale la differenza tra le due

condizioni risulta significativa da 786 a 836 ms, non dissimile da quelle descritte nella finestra

temporale precedente.

Figura 2.19

Fig. 2.19. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate (in rosso) le aree statisticamente significative nella

finestra temporale che va da 786 a 836 ms. A destra: mappa dello scalpo in due dimensioni in cui viene evidenziata in rosso l’area nella

quale i potenziali evocati, per ogni elettrodo, nella condizione di paura erano superiori a quelli nella condizione neutra (t positivo) e in blu

l’area nella quale i potenziali evocati, per ogni elettrodo, nella condizione neutra erano superiori a quelli nella condizione di paura (t

negativo). Nella finestra temporale considerata, in media l’elettrodo con il punteggio al t Test più alto era l’elettrodo E46 (t= -4.04, p

<.05).

Come si evince dalla figura 2.20, rileviamo, infatti, una modulazione più ampia (più positiva)

per la condizione neutra rispetto alla condizione di paura (t =-8.33, p <.05).

Page 64: Il ruolo del contesto nell’interpretazione di espressioni ...

64

Figura 2.20

Fig. 2.20. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate in rosso le aree in cui il potenziale evocato è

positivo e in blu dove il segnale è negativo. A destra: ERP riferito all’elettrodo (E46) dove la differenza rilevata dal test era massima nella

finestra temporale che va da 786 a 836 ms (evidenziata in azzurro). Nel plot dell’ERP presentato vediamo sovrapposti i due tracciati

riferiti alle due condizioni confrontate (in rosso la condizione di paura e in nero la condizione neutra).

Anche in questo caso aumentando la numerosità campionaria sarà possibile interpretare con

maggiore chiarezza questi dati.

2.6.2.2 Condizione di Felicità vs Condizione Neutra

Nella figura 2.21 abbiamo evidenziato le finestre temporali di durata superiore a 20 ms nelle

quali almeno cinque elettrodi contigui risultavano avere un segnale significativamente

diverso (p <.05) tra la condizione di felicità e la condizione neutra

E46

Page 65: Il ruolo del contesto nell’interpretazione di espressioni ...

65

Figura 2.21

Page 66: Il ruolo del contesto nell’interpretazione di espressioni ...

66

Fig. 2.21. In alto: le linee orizzontali rappresentano i 129 elettrodi analizzati. Su ogni linea viene evidenziata, quando presente, con tratti

di spessore maggiore, una differenza significativa nelle due condizioni confrontate. La lunghezza dei tratti neri rispecchia la durata nel

tempo della finestra di significatività evidenziata in un determinato elettrodo. Vengono inoltre evidenziate le finestre temporali in cui si

rileva una differenza significativa tra le condizioni con colori diversi. In basso: visualizzazione dei 129 elettrodi divisi in aree topografiche

dello scalpo. Le aree topografiche erano 9: AS (Anteriore sinistra), AC (Anteriore centrale), AD (Anteriore destra), CS (Centrale sinistra), CC

(Centrale), CD (Centrale destra), PS (Posteriore sinistra), PC (Posteriore centrale), PD (Posteriore destra).

Abbiamo evidenziato la presenza di sei finestre di significatività che suddivideremo in base al

tempo di inizio e fine di ciascuna finestra rispetto all’onset del Volto_2.

T 1 - 44 ms

Come nel primo confronto che abbiamo discusso, le differenze emerse in questa finestra

temporale possono essere spiegate dal fatto che l’epoca che abbiamo utilizzato (Volto_2)

non è preceduta da un interstimulus interval, ma è preceduta dalla visione della scena

contestuale (object Shot), e le variazioni significative tra le due condizioni potrebbero essere

causate da variazioni dell’attività cerebrale in risposta a stimoli precedenti alla visione del

Volto_2, ovvero alla visione dell’object shot.

T 54 - 78 ms

In questa finestra temporale osserviamo la presenza di una differenza significativa tra le due

condizioni sperimentali localizzate su due aree, una anteriore centrale ed una posteriore

centrale.

Figura 2.22

Page 67: Il ruolo del contesto nell’interpretazione di espressioni ...

67

Fig. 2.22. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate (in rosso) le aree statisticamente significative nella

finestra temporale che va da 54 a 78 ms. A destra: mappa dello scalpo in due dimensioni in cui viene evidenziata in rosso l’area nella

quale i potenziali evocati, per ogni elettrodo, nella condizione di felicità erano superiori a quelli nella condizione neutra (t positivo) e in

blu l’area nella quale i potenziali evocati, per ogni elettrodo, nella condizione neutra erano superiori a quelli nella condizione di felicità (t

negativo). Nella finestra temporale considerata, in media gli elettrodi con il punteggio al t Test più alti erano gli elettrodi E65 (t= 3.36, p

<.05) ed E18 (t= -3.98, p <.05).

In Figura 2.23 notiamo che l’area posteriore è caratterizzata da una modulazione positiva e

l’area anteriore da una modulazione negativa che ci potrebbe portare a ipotizzare l’emergere

di una componente P1 (posteriore) e N1 (anteriore), tuttavia le coordinate temporali non

corrispondo a questo tipo di modulazione essendo la finestra temporale troppo precoce.

Figura 2.23

Fig. 2.23. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate in rosso le aree in cui il potenziale evocato è

positivo e in blu dove il segnale è negativo. A destra: ERPs riferiti ai due elettrodi (E18 in alto ed E65 in basso) dove la differenza rilevata

dal test era massima nella finestra temporale che va da 54 a 78 ms (evidenziata in rosa). Nei due plot degli ERPs presentati vediamo

sovrapposti i due tracciati riferiti alle due condizioni confrontate (in rosso la condizione di felicità e in nero la condizione neutra).

Possiamo spiegare quanto osservato guardando i tracciati ERPs presentati in Figura 2.23. La

differenza tra le condizioni è relativa, infatti, ai millisecondi precedenti ai picchi delle

componenti P1 e N1 (che verranno presentati infatti nella prossima finestra temporale).

Nell’elettrodo 65, in cui la differenza tra le condizioni è massima (t =3.57, p <.05) il potenziale

E18

E65

Page 68: Il ruolo del contesto nell’interpretazione di espressioni ...

68

evocato nella condizione di felicità è maggiore (più positivo) di quello nella condizione neutra

poiché precede temporalmente il picco P1 relativo alla condizione neutra. La stessa dinamica

relativa all’insorgenza del picco N1 la si può notare nell’elettrodo 18, in cui però il potenziale

evocato nella condizione di felicità è più negativo di quello nella condizione neutra (t =-4.66,

p <.05).

Questa modulazione è simile a quanto abbiamo già esposto nel confronto tra la condizione

di paura e quella neutra per le componenti P1 e N1, pur non avendo, in quel caso, rilevato

differenze significative nella finestra temporale precedente alle componenti stesse.

T 94 - 186 ms

In questa finestra temporale, rileviamo due modulazioni (una frontale destra e una

posteriore sinistra, come si evince in Figura 2.24) compatibili con componenti precoci

dell’analisi visiva dei volti (P1 e N1).

Figura 2.24

Fig. 2.24. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate (in rosso) le aree statisticamente significative nella

finestra temporale che va da 94 a 186 ms. A destra: mappa dello scalpo in due dimensioni in cui viene evidenziata in rosso l’area nella

quale i potenziali evocati, per ogni elettrodo, nella condizione di felicità erano superiori a quelli nella condizione neutra (t positivo) e in

blu l’area nella quale i potenziali evocati, per ogni elettrodo, nella condizione neutra erano superiori a quelli nella condizione di felicità (t

negativo). Nella finestra temporale considerata, in media gli elettrodi con il punteggio al t Test più alti erano gli elettrodi E116 (t= 3.9, p

<.05) ed E72 (t= -2.25, p <.05).

Page 69: Il ruolo del contesto nell’interpretazione di espressioni ...

69

In entrambe le componenti (Figura 2.25) riscontriamo che le differenze rilevate non sono

dovute ad una differenza sostranziale tra l’ampiezza nella condizione neutra rispetto alla

condizione di felicità, ma alla differenza, a livello temporale, della comparsa della

componente stessa, come già anticipato per quanto riguarda la finestra temporale

precedente.

Figura 2.25

Fig. 2.25. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate in rosso le aree in cui il potenziale evocato è

positivo e in blu dove il segnale è negativo. A destra: ERPs riferiti ai due elettrodi (E106 in alto ed E64 in basso) dove la differenza rilevata

dal test era massima nella finestra temporale che va da 94 a 186 ms (evidenziata in blu). Nei due plot degli ERPs presentati vediamo

sovrapposti i due tracciati riferiti alle due condizioni confrontate (in rosso la condizione di felicità e in nero la condizione neutra).

La componente P1 ha un’estensione topografica che comprende la parte posteriore centrale

e posteriore sinistra dello scalpo, mentre la componente N1 ha un’estensione topografica

che comprende la parte centrale, centrale destra e anteriore destra dello scalpo.

T 204 - 302 ms

Nella figura 2.26 vengono evidenziate due aree anteriori in cui rileviamo un’attivazione

differenziale significativa tra la condizione di felicità e la condizione neutra.

E106

E64

Page 70: Il ruolo del contesto nell’interpretazione di espressioni ...

70

Figura 2.26

Fig. 2.26. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate (in rosso) le aree statisticamente significative nella

finestra temporale che va da 204 a 302 ms. A destra: mappa dello scalpo in due dimensioni in cui viene evidenziata in rosso l’area nella

quale i potenziali evocati, per ogni elettrodo, nella condizione di felicità erano superiori a quelli nella condizione neutra (t positivo) e in

blu l’area nella quale i potenziali evocati, per ogni elettrodo, nella condizione neutra erano superiori a quelli nella condizione di felicità (t

negativo). Nella finestra temporale considerata, in media gli elettrodi con il punteggio al t Test più alti erano gli elettrodi E116 (t= 3.27, p

<.05) ed E11 (t= -3.32, p <.05).

L’area più centrale ha un’estensione topografica che comprende la parte centrale e anteriore

centrale dello scalpo, mentre l’area più lateralizzata ha un’estensione topografica che

comprende la parte centrale destra e anteriore destra dello scalpo.

Page 71: Il ruolo del contesto nell’interpretazione di espressioni ...

71

Figura 2.27

Fig. 2.27. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate in rosso le aree in cui il potenziale evocato è

positivo e in blu dove il segnale è negativo. A destra: ERPs riferiti ai due elettrodi (E11 in alto ed E116 in basso) dove la differenza rilevata

dal test era massima nella finestra temporale che va da 204 a 302 ms (evidenziata in verde). Nei due plot degli ERPs vediamo sovrapposti

i due tracciati riferiti alle due condizioni confrontate (in rosso la condizione di felicità e in nero la condizione neutra).

Come si evince in Figura 2.27 la modulazione in entrambe queste aree è negativa. Nello

specifico rileviamo che, nell’area centrale e per l’elettrodo 11 (in cui la differenza è più ampia)

la modulazione è più negativa per la condizione di felicità rispetto alla condizione neutra (t

=-4.6, p <.05), mentre nell’area centrale destra e per l’elettrodo 116 (in cui la differenza è più

ampia) la modulazione è più negativa per la condizione neutra rispetto alla condizione di

felicità (t =7.6, p <.05). Entrambe le componenti sono negative e temporalmente congruenti

con la componente N2.

T 358 - 622 ms

Nella figura 2.28 vengono evidenziate due aree, una posteriore ed una anteriore, in cui

rileviamo un’attivazione differenziale significativa tra la condizione di felicità e la condizione

neutra.

E11

E116

Page 72: Il ruolo del contesto nell’interpretazione di espressioni ...

72

Figura 2.28

Fig. 2.28. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate (in rosso) le aree statisticamente significative nella

finestra temporale che va da 358 a 622 ms. A destra: mappa dello scalpo in due dimensioni in cui viene evidenziata in rosso l’area nella

quale i potenziali evocati, per ogni elettrodo, nella condizione di felicità erano superiori a quelli nella condizione neutra (t positivo) e in

blu l’area nella quale i potenziali evocati, per ogni elettrodo, nella condizione neutra erano superiori a quelli nella condizione di felicità (t

negativo). Nella finestra temporale considerata, in media gli elettrodi con il punteggio al t Test più alti erano gli elettrodi E95 (t= 5.03, p

<.05) ed E12 (t= -4.89, p <.05).

L’area frontale ha un’estensione topografica che comprende la parte centrale, anteriore

centrale, centrale sinistra e anteriore sinistra dello scalpo, mentre l’area posteriore risulta

molto meno estesa e comprende la parte centrale destra, e posteriore destra dello scalpo.

Page 73: Il ruolo del contesto nell’interpretazione di espressioni ...

73

Figura 2.29

Fig. 2.29. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate in rosso le aree in cui il potenziale evocato è

positivo e in blu dove il segnale è negativo. A destra: ERPs riferiti ai due elettrodi (E31 in alto ed E95 in basso) dove la differenza rilevata

dal test era massima nella finestra temporale che va da 358 a 622 ms (evidenziata in azzurro). Nei due plot degli ERPs presentati vediamo

sovrapposti i due tracciati riferiti alle due condizioni confrontate (in rosso la condizione di felicità e in nero la condizione neutra).

Come evidenziato in Figura 2.29, nell’elettrodo centrale (E31) la modulazione risulta

maggiore (più positiva) nella condizione neutra rispetto a quella di felicità (t =-9.91, p <.05).

Analogamente a quanto esservato nel confronto tra la condizione neutra e quella di paura,

ipotizziamo che questa componente frontale possa corrispondere ad una N400.

Nell’elettrodo posteriore (E95) la modulazione risulta più negativa nella condizione neutra

rispetto a quella di felicità (t =8.83, p <.05). Rileviamo, quindi, una componente posteriore

che potrebbe rappresentare un Late Positive Potential (LPP), come già riscontrato nel

confronto tra condizione di paura e condizione neutra in una finestra temporale simile.

T 634 - 710 ms

Come nel confronto tra la condizione neutra e quella di paura, rileviamo che il bipolo appena

discusso si estende, in un secondo momento, fino a circa 710 ms, con finestre di significatività

di ampiezza diversa per quanto riguarda le aree frontali e quelle posteriori. Come si nota in

Figura 2.30 le aree in cui rileviamo una differenza significativa tra le due condizioni sono

paragonabili a quelle evidenziate in Figura 2.27.

E31

E95

Page 74: Il ruolo del contesto nell’interpretazione di espressioni ...

74

Figura 2.30

Fig. 2.30. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate (in rosso) le aree statisticamente significative nella

finestra temporale che va da 634 a 710 ms. A destra: mappa dello scalpo in due dimensioni in cui viene evidenziata in rosso l’area nella

quale i potenziali evocati, per ogni elettrodo, nella condizione di felicità erano superiori a quelli nella condizione neutra (t positivo) e in

blu l’area nella quale i potenziali evocati, per ogni elettrodo, nella condizione neutra erano superiori a quelli nella condizione di felicità (t

negativo). Nella finestra temporale considerata, in media gli elettrodi con il punteggio al t Test più alti erano gli elettrodi E95 (t= 3.61, p

<.05) ed E29 (t= -3.84, p <.05).

Le due finestre significative (la precedente e questa) si collocano a soli 12 ms di distanza,

quindi ipotizziamo che sia in atto la stessa modulazione.

Figura 2.31

E29

E95

Page 75: Il ruolo del contesto nell’interpretazione di espressioni ...

75

Fig. 2.31. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate in rosso le aree in cui il potenziale evocato è

positivo e in blu dove il segnale è negativo. A destra: ERPs riferiti ai due elettrodi (E29 in alto ed E95 in basso) dove la differenza rilevata

dal test era massima nella finestra temporale che va da 634 a 710 ms (evidenziata in giallo). Nei due plot degli ERPs presentati vediamo

sovrapposti i due tracciati riferiti alle due condizioni confrontate (in rosso la condizione di felicità e in nero la condizione neutra).

Come si evince in Figura 2.31, infatti, negli elettrodi in cui la differenza tra le condizioni è

maggiore, l’andamento è simile a quello già rilevato nella finestra precedente. Nell’elettrodo

E29 la modulazione risulta maggiore (più positiva) nella condizione neutra rispetto a quella

di felicità (t =-5.28, p <.05) e nell’elettrodo posteriore (E95), la modulazione risulta più

negativa nella condizione neutra rispetto a quella di felicità (t =4.58, p <.05).

Ipotizziamo che anche in questo caso ci sia un Late positive potential (LPP) che si esprime con

una maggiore positività negli elettrodi dell’area posteriore per la condizione emotiva rispetto

alla condizione neutra, come già riscontrato nel confronto tra condizione di paura e

condizione neutra in una finestra temporale simile.

2.6.2.3 Condizione di Paura vs Condizione di Felicità

Nella figura 2.32 abbiamo evidenziato le finestre temporali di durata superiore a 20 ms nelle

quali almeno cinque elettrodi contigui risultavano avere un segnale significativamente

diverso (p <.05) tra la condizione di paura e la condizione di felicità.

Page 76: Il ruolo del contesto nell’interpretazione di espressioni ...

76

Figura 2.32

Page 77: Il ruolo del contesto nell’interpretazione di espressioni ...

77

Fig. 2.32. In alto: le linee orizzontali rappresentano i 129 elettrodi analizzati. Su ogni linea viene evidenziata, quando presente, con tratti

di spessore maggiore, una differenza significativa nelle due condizioni confrontate. La lunghezza dei tratti neri rispecchia la durata nel

tempo della finestra di significatività evidenziata in un determinato elettrodo. Vengono inoltre evidenziate le finestre temporali in cui si

rileva una differenza significativa tra le condizioni con colori diversi. In basso: visualizzazione dei 129 elettrodi divisi in aree topografiche

dello scalpo. Le aree topografiche erano 9: AS (Anteriore sinistra), AC (Anteriore centrale), AD (Anteriore destra), CS (Centrale sinistra), CC

(Centrale), CD (Centrale destra), PS (Posteriore sinistra), PC (Posteriore centrale), PD (Posteriore destra).

Abbiamo evidenziato la presenza di sei finestre di significatività che suddivideremo in base al

tempo di inizio e fine di ciascuna finestra rispetto all’onset del Volto_2.

T 1 – 142 ms

In questa precoce finestra temporale rileviamo una differenza significativa tra le due

condizioni emotive che interessa le aree frontali e quelle posteriori, come si vede in Figura

2.33.

Figura 2.33

Fig. 2.33. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate (in rosso) le aree statisticamente significative nella

finestra temporale che va da 1 a 142 ms. A destra: mappa dello scalpo in due dimensioni in cui viene evidenziata in rosso l’area nella

quale i potenziali evocati, per ogni elettrodo, nella condizione di felicità erano superiori a quelli nella condizione di paura (t positivo) e in

blu l’area nella quale i potenziali evocati, per ogni elettrodo, nella condizione di paura erano superiori a quelli nella condizione di felicità

(t negativo). Nella finestra temporale considerata, in media gli elettrodi con il punteggio al t Test più alti erano gli elettrodi E102 (t= 3.05,

p <.05) ed E26 (t= -3.46, p <.05).

Page 78: Il ruolo del contesto nell’interpretazione di espressioni ...

78

Come già esposto per gli altri confronti, riteniamo che nei primi millisecondi di attivazione le

differenze rilevate non siano dovute ad una reale differenza tra le condizioni, ma all’influenza

della scena contestuale precedente al Volto_2. Questa finestra, tuttavia, si estende nel

tempo fino ad interessare porzioni temporali corrispondenti alle componenti P1 e N1. Come

si vede in Figura 2.34, gli ERPs degli elettrodi dove la differenza tra le condizioni era maggiore

comprendono le componenti P1 e N1.

Figura 2.34

Fig. 2.34. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate in rosso le aree in cui il potenziale evocato è

positivo e in blu dove il segnale è negativo. A destra: ERPs riferiti ai due elettrodi (E6 in alto ed E83 in basso) dove la differenza rilevata dal

test era massima nella finestra temporale che va da 1 a 142 ms (evidenziata in azzurro). Nei due plot degli ERPs presentati vediamo

sovrapposti i due tracciati riferiti alle due condizioni confrontate (in rosso la condizione di paura e in nero la condizione felicità).

Nell’elettrodo 83 vediamo che la componente P1 ha un’ampiezza maggiore (più positiva)

nella condizione di felicità rispetto alla condizione di paura (t =2.57, p <.05), mentre

nell’elettrodo 6 notiamo che la componente N1 ha un’ampiezza più negativa nella condizione

di felicità rispetto alla condizione di paura (t =-2.14, p <.05). Notiamo inoltre, che il picco P1

e il picco N1 sono sincroni nelle due condizioni emotive.

T 168 – 212 ms

E6

E83

Page 79: Il ruolo del contesto nell’interpretazione di espressioni ...

79

In questa finestra temporale abbiamo rilevato una differenza tra le condizioni che abbiamo

ricondotto a quella rilevata nel confronto Paura vs Neutro in una finestra simile (156 - 196

ms), e che non avevamo poi riscontrato nel confronto Felicità vs Neutro.

T 262 – 336 ms

In questa finestra temporale rileviamo due modulazioni (una frontale ed una posteriore)

come si evince in Figura 2.35.

Figura 2.35

Fig. 2.35. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate (in rosso) le aree statisticamente significative nella

finestra temporale che va da 262 a 336 ms. A destra: mappa dello scalpo in due dimensioni in cui viene evidenziata in rosso l’area nella

quale i potenziali evocati, per ogni elettrodo, nella condizione di felicità erano superiori a quelli nella condizione di paura (t positivo) e in

blu l’area nella quale i potenziali evocati, per ogni elettrodo, nella condizione di paura erano superiori a quelli nella condizione di felicità

(t negativo). Nella finestra temporale considerata, in media gli elettrodi con il punteggio al t Test più alti erano gli elettrodi E84 (t= 3.22, p

<.05) ed E118 (t= -3.88, p <.05).

Come notiamo in Figura 2.36, l’elettrodo 27 (regione frontale) presenta una modulazione

negativa maggiore (più negativa) nella condizione di felicità rispetto alla condizione di paura

(t =-6.18, p <.05), mentre nell’elettrodo 84, nell’area posteriore, notiamo una modulazione

positiva maggiore (più positiva) nella condizione di felicità rispetto alla condizione di paura (t

=5.69, p <.05).

Page 80: Il ruolo del contesto nell’interpretazione di espressioni ...

80

Figura 2.36

Fig. 2.36. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate in rosso le aree in cui il potenziale evocato è

positivo e in blu dove il segnale è negativo. A destra: ERPs riferiti ai due elettrodi (E27 in alto ed E84 in basso) dove la differenza rilevata

dal test era massima nella finestra temporale che va da 262 a 336 ms (evidenziata in blu). Nei due plot degli ERPs presentati vediamo

sovrapposti i due tracciati riferiti alle due condizioni confrontate (in rosso la condizione di paura e in nero la condizione felicità).

Queste modulazioni sono congruenti a quelle già osservate che riguardano la componente

P3 (posteriore) emersa nel confronto tra la condizione di paura e quella neutra e la

componente N2 (anteriore) emersa nel confronto tra la condizione di felicità e quella neutra.

T 368 – 498 ms

In questa finestra temporale rileviamo una differenza significativa tra le condizioni,

compatibile con una modulazione N400. Abbiamo un’unica area significativa anteriore

sinistra (Figura 2.37).

E27

E84

Page 81: Il ruolo del contesto nell’interpretazione di espressioni ...

81

Figura 2.37

Fig. 2.37. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate (in rosso) le aree statisticamente significative nella

finestra temporale che va da 368 a 498 ms. A destra: mappa dello scalpo in due dimensioni in cui viene evidenziata in rosso l’area nella

quale i potenziali evocati, per ogni elettrodo, nella condizione di felicità erano superiori a quelli nella condizione di paura (t positivo) e in

blu l’area nella quale i potenziali evocati, per ogni elettrodo, nella condizione di paura erano superiori a quelli nella condizione di felicità

(t negativo). Nella finestra temporale considerata, in media l’elettrodo con il punteggio al t Test più alto era l’elettrodo E26 (t= -3.42, p

<.05).

Come notiamo in figura 2.38 abbiamo una modulazione maggiore (più positiva) per la

condizione di paura rispetto alla condizione di felicità (t =-5.87, p <.05).

Figura 2.38

E26

Page 82: Il ruolo del contesto nell’interpretazione di espressioni ...

82

Fig. 2.38. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate in rosso le aree in cui il potenziale evocato è

positivo e in blu dove il segnale è negativo. A destra: ERP riferito all’elettrodo (E26) dove la differenza rilevata dal test era massima nella

finestra temporale che va da 368 a 498 ms (evidenziata in azzurro). Nel plot dell’ERP presentato vediamo sovrapposti i due tracciati

riferiti alle due condizioni confrontate (in rosso la condizione di paura e in nero la condizione felicità).

Quanto osservato potrebbe essere dovuto alle differenze già rilevate nei confronti

precedenti sulla temporizzazione della componente N400.

T 462 – 504 ms

In quest’ultima finestra temporale rileviamo una differenza significativa tra le condizioni

compatibile con un LPP. Abbiamo un’unica area significativa posteriore destra (Figura 2.39).

Figura 2.39

Fig. 2.39. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate (in rosso) le aree statisticamente significative nella

finestra temporale che va da 462 a 504 ms. A destra: mappa dello scalpo in due dimensioni in cui viene evidenziata in rosso l’area nella

quale i potenziali evocati, per ogni elettrodo, nella condizione di felicità erano superiori a quelli nella condizione di paura (t positivo) e in

blu l’area nella quale i potenziali evocati, per ogni elettrodo, nella condizione di paura erano superiori a quelli nella condizione di felicità

(t negativo). Nella finestra temporale considerata, in media l’elettrodo con il punteggio al t Test più alto era l’elettrodo E26 (t= -3.43, p

<.05).

La finestra temporale risulta essere molto breve (circa 40 ms). Nell’elettrodo 85 (Figura 2.40)

notiamo che la modulazione è maggiore (più positiva) nella condizione di felicità rispetto alla

condizione di paura (t =4.46, p <.05).

Page 83: Il ruolo del contesto nell’interpretazione di espressioni ...

83

Figura 2.40

Fig. 2.40. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate in rosso le aree in cui il potenziale evocato è

positivo e in blu dove il segnale è negativo. A destra: ERP riferito all’elettrodi (E85) dove la differenza rilevata dal test era massima nella

finestra temporale che va da 462 a 504 ms (evidenziata in giallo). Nel plot dell’ERP presentato vediamo sovrapposti i due tracciati riferiti

alle due condizioni confrontate (in rosso la condizione di paura e in nero la condizione felicità).

Dal momento che la finestra temporale significativa è molto breve, e che il LPP è un

potenziale che spesso ingloba più modulazioni e che ha solitamente una durata temporale

ben maggiore, ipotizziamo che la modulazione osservata possa essere dovuta a fluttuazioni

casuali.

E85

Page 84: Il ruolo del contesto nell’interpretazione di espressioni ...

84

Capitolo 3

Discussione e Conclusioni

3.1 Discussione

L’obiettivo dello studio che abbiamo presentato era quello di indagare l’influenza del

contesto sulla percezione di volti neutri utilizzando stimoli video che rispettassero la stuttura

dell’“effetto Kuleshov” (volto – contesto - volto). Per fare questo abbiamo riproposto il

disegno sperimentale utilizzato da Barratt e colleghi e perfezionato da Calbi e colleghi

(Barratt et al., 2016; Calbi et al., 2017), aggiungendo all’analisi delle risposte esplicite dei

partecipanti l’analisi delle risposte elettrofisiologiche implicite dovute all’osservazione delle

sequernze proposte. Discuteremo, quindi, in primis i risultati comportamentali, in modo tale

da comprendere la percezione esplicita dei partecipanti e il loro giudizio, espresso sia dal

punto di vista dimensionale, attraverso le scale di Valenza e Attivazione, sia dal punto di vista

della categorizzazione emotiva, in particolare sull’emozione espressa dal Volto_2 preceduto

da diversi tipi di contesto. In secundis discuteremo i risultati elettrofisiologici in modo tale da

rilevare le modulazioni significative che intervengono durante la percezione del Volto_2.

3.1.1 Studio Comportamentale

Per quanto riguarda i risultati comportamentali, da un punto di vista categoriale (si veda

1.1.2) abbiamo rilevato che nella maggior parte dei casi i partecipanti rispondevano in

maniera congruente al contesto emotivo associato al volto neutro, e in modo analogo a

quanto riportato da Calbi e colleghi nel 2017. Quando il volto neutro era preceduto da un

contesto di Felicità, i partecipanti categorizzavano il volto neutro scegliendo in maniera

preponderante l’etichetta corrispondente (“felicità”). Quando, invece, il volto era

precededuto da un contesto di Paura, allora le risposte erano distribuite tra le diverse

etichette a connotazione negativa (“Tristezza”, “Paura”, “Disgusto”, “Rabbia”). Nella

Page 85: Il ruolo del contesto nell’interpretazione di espressioni ...

85

Condizione Neutra, invece, i soggetti rispondevano indiscriminatamente associando

l’emozione espressa dal volto sia ad emozioni positive (“Felicità”), sia ad emozioni negative

(“Tristezza”). Bisogna, inoltre, sottolineare come, solo nella Condizione Neutra, i partecipanti

categorizzassero il volto neutro scegliendo anche l’etichetta “Altro” (e.g., “neutro”,

“indifferente”).

Da un punto di vista dimensionale (si veda 1.1.3), invece, abbiamo rilevato che partecipanti

di genere femminile rispondevano sempre in maniera coerente alle nostre aspettative. Le

donne valutavano i volti neutri preceduti da un contesto di Paura con una Valenza negativa

e un grado di Attivazione maggiore rispetto ai volti neutri preceduti da contesti neutri. I volti

neutri preceduti da un contesto di Felicità, invece, erano valutati con una Valenza più positiva

rispetto ai volti neutri preceduti da contesti neutri, ma non emergeva una differenza in

Attivazione. Confrontando le due Condizioni emotive abbiamo inoltre rilevato, sempre nelle

donne, una prevedibile differenza sia per quanto riguarda la Valenza (maggiore nella

Condizione di Felicità), sia nell’Attivazione (maggiore nella Condizione di Paura). È

interessante notare che l’unica differenza tra le risposte di uomini e donne sia emersa solo

per quanto riguarda la Valenza attribuita ai volti neutri preceduti da un contesto di felicità.

In generale, quanto emerso potrebbe essere spiegato da una differenza nell’elaborazione

emotiva dei volti tra uomini e donne.

Molti studi hanno, infatti, rilevato che le donne hanno prestazioni migliori nell'identificare le

emozioni facciali (Campbell et al., 2002; Hampson, Anders, Human, & 2006, n.d.; Thayer &

Johnsen, 2000) ed è interessante notare anche che le donne valutano i volti con punteggi in

media più alti (Valenza e Attivazione) rispetto agli uomini (Alice Mado Proverbio, 2017).

Diversi autori, inoltre, ipotizzano che le donne riconoscano le emozioni facciali meglio degli

uomini in condizioni in cui le informazioni rilevate dallo stimolo sono minime (Hall, Emotion,

& 2004). Inoltre, in linea con i nostri risultati, Montagne e colleghi hanno mostrato l'effetto

che l'intensità dell'espressione ha sui processi di codifica dei volti negli uomini e nelle donne,

e hanno rilevato che le donne avevano prestazioni migliori nel riconoscimento

dell’espressione facciale, specialmente quando venivano fornite solo informazioni emotive

ambigue (Montagne et al., 2007). Questi risultati potrebbero riflettere una maggiore

attenzione per le informazioni sociali (Alice M Proverbio, Zani, & Adorni, 2008) e per i volti

(Pavlova, Scheffler, & Sokolov, 2015) e, in generale, potrebbero essere interpretati in termini

Page 86: Il ruolo del contesto nell’interpretazione di espressioni ...

86

di una maggiore risposta empatica nelle donne rispetto agli uomini (Baron-Cohen,

Wheelwright, Hill, Raste, & Plumb, 2001).

Infine, è interessante evidenziare come nel nostro studio le differenze di genere non siano

emerse nel compito di categorizzazione ma solo quando ai partecipanti era richiesto di

fornire un giudizio di Valenza ed Arousal. Tale dato potrebbe essere spiegato dal fatto che

l’approccio dimensionale sarebbe più sensibile nel rilevare eventuali differenze di genere.

3.1.2 Studio EEG

Per quanto riguarda i risultati dei dati elettrofisiologici, abbiamo rilevato una modulazione

sia di componenti ERP precoci (P1, N1), sia di componenti più tardive (N400, LPP) in entrambe

le condizioni emotive di Paura e di Felità. Abbiamo rievato, inoltre, due componenti presenti

in una sola delle due Condizioni emotive, una nella Condizione di Paura (P3) e l’altra nella

condizione di Felicità (N2).

Le componenti precoci risultavano avere una latenza minore nelle Condizioni emotive

rispetto alla Condizione Neutra. Probabilmente, tale differenza di latenza emersa sia per la

componente posteriore positiva (P1) sia per la componente anteriore negativa (N1), è dovuta

alla maggiore salienza assunta da stimoli emotivi, i quali verrebbero processati in maniera

anticipata, come evidenziato da precedenti studi (Mühlberger et al., 2009; Olofsson & Polich,

2007). Nel nostro studio, infatti, la salienza emotiva dei contesti di Paura e Felicità, attivava

probabilmente un maggiore investimento in processi attenzionali (Eger et al., 2003a;

Pinheiro et al., 2017; Pourtois et al., 2005) che si traducevano in una minore latenza delle

componenti ERP precoci.

Per quanto riguarda l’ampiezza delle componenti ERP precoci sopra citate, i risultati non

hanno mostrato una differenza significativa tra le Condizioni sperimentali. A nostro avviso

questo potrebbe essere spiegato dal fatto che tali componenti sono sensibili alle variazioni

delle caratteristiche percettive proprie delle espressioni facciali emotive. Poiché nel nostro

studio i volti erano tutti neutri, questo ci porta a ipotizzare che l’effetto del contesto emotivo

non sia tale da influenzare l’elaborazione dei volti già a livello percettivo, ma sia, invece,

Page 87: Il ruolo del contesto nell’interpretazione di espressioni ...

87

legato a processi di elaborazione più tardivi relativi all’attribuzione di un connotato emotivo

al volto neutro.

Per quanto riguarda la modulazione della componente P3 posteriore, più ampia per la

Condizione Neutra rispetto alla Condizione di Paura, precedenti studi in letteratura,

coerentemente a quanto da noi osservato, hanno associato una maggiore ampiezza di questa

componente all’elaborazione di stimoli neutri (Cuthbert et al., 2000; Harald T. Schupp,

Junghöfer, et al., 2004; Vanderploeg, Brown, & Marsh, 1987).

La componente N2, invece, è stata rilevata sulla porzione anteriore dello scalpo e la sua

modulazione, più negativa per stimoli emotivi rispetto a stimoli non emotivi, risulta coerente

con quanto riportato in letteratura (Junghöfer, Bradley, Elbert, & Lang, 2001; H T Schupp,

Junghofer, Weike, & Hamm, 2003; Harald T. Schupp, Flaisch, Stockburger, & Junghöfer,

2006).

Le ultime due componenti descritte, tuttavia, risultano essere di difficile interpretazione

considerando che in letteratura sono presenti risultati contrastanti per quanto riguarda la

loro modulazione (Balconi & Pozzoli, 2008; Kayser, 1997; Keil et al., 2002).

Successivamente, abbiamo rilevato una componente tardiva (N400) la cui modulazione

risultava più ampia nelle Condizioni emotive rispetto alla Condizione neutra. Questa

modulazione potrebbe essere spiagata in base alla discordanza percepita dai partecipanti tra

l’osservazione del volto neutro e il contesto emotivo che lo ha preceduto (Taake, Jaspers-

Fayer, Psychology, & 2009). Dato che la discordanza tra questi due elementi risulta maggiore

rispetto a quella tra il volto neutro (Volto_2) e il contesto neutro che lo ha preceduto, il

potenziale evocato risultava essere di maggiore ampiezza. In un recente esperimento di

Kanske e colleghi è stato osservato un effetto simile. Quando uno stimolo emotivo era

preceduto da una parola neutra o emotivamente differente (incongruenza), la N400 aveva

una modulazione maggiore rispetto a quando le due componenti dello stimolo erano

coerenti (Kanske, Plitschka, & Kotz, 2011).

Possiamo dire, quindi, che durante le fasi di elaborazione precoce dello stimolo (Volto_2)

l’effetto del contesto abbia influenzato e catturato maggiormentente l’attenzione dei

partecipanti grazie alla salienza intrinseca nello stimolo emotivo stesso (P1, N1). Fasi

successive di elaborazione (N400) suggerirebbero, invece, come il volto neutro venga

Page 88: Il ruolo del contesto nell’interpretazione di espressioni ...

88

interpretato alla luce delle aspettative create dal contesto: in presenza di contesti emotivi vi

sarebbe una violazione dell’aspettativa in quanto il volto neutro non risulterebbe congruente

con l’informazione emotiva veicolata dal contesto..

Il LPP che abbiamo rilevato nel confronto tra le Condizini emotive e la Condizione Neutra

potrebbe riflettere i processi cognitivi, post percettivi, attraverso i quali attribuiamo al volto

una valenza emotiva (Foti et al., 2010; Kanske & Kotz, 2007). La rilevata modulazione positiva

posteriore del LPP, era sempre maggiore nelle Condizioni emotive rispetto alla Condizione

neutra, come mostrato anche in letteratura (Foti et al., 2010; Keil et al., 2002; Harald T.

Schupp, Schmälzle, Flaisch, Weike, & Hamm, 2013; Sun, Ren, & He, 2017) e sembra essere

legata all’attivazione emotiva dovuta al maggior coinvolgimento attenzionale suscitato da

stimoli emotivi (Cuthbert et al., 2000; Harald T. Schupp, Cuthbert, et al., 2004). Cuthberg e

colleghi notano, inoltre, che quando la presentazione dello stimolo è prolungata (circa 6

secondi come nel caso delle nostre sequenze filmiche), il LPP è seguito da una positività

prolungata e ritardata nel tempo associata al processamento emotivo (Cuthbert et al., 2000),

presente anche nella modulazione da noi osservata.

I processi cognitivi riflessi dal LPP, secondo altri autori potrebbero anche essere legati alla

valutazione di incongruenze tra due stimoli, studiata attraverso la tecnica del “Sequential

priming” in cui uno stimolo bersaglio detto “target” viene preceduto da uno stimolo

principale detto “prime”. Werheid e colleghi, ad esempio, hanno presentato ai partecipanti

stimoli facciali emotivi (con espressioni di felicità e rabbia) e hanno osservato un'ampiezza

maggiore del LPP per stimoli affettivamente incongruenti (volto felice seguito da volto

arrabbiato e viceversa) rispetto a stimoli affettivamente congruenti (volto felice seguito da

volto felice e volto arrabbiato seguito da volto arrabbiato, Werheid, Alpay, Jentzsch, &

Sommer, 2005). In seguito, anche Herring e colleghi hanno osservato un amento del LPP

quando, ad esempio, un'immagine piacevole era preceduta da un'immagine spiacevole

(Herring, Taylor, White, & Crites, 2011). È interessante notare come questo effetto permanga

anche nel caso in cui si prenda in considerazione solo il livello di attivazione degli stimoli.

Hinojosa e colleghi, infatti, hanno osservato una aumento del LPP anche quando si associava

uno stimolo “prime” con alta attivazione ad uno stimolo “target” con bassa attivazione e

viceversa, rispetto a quando lo stimolo prime e lo stimolo target avevano lo stesso livello di

attivazione (Hinojosa, Carretié, Méndez-Bértolo, Míguez, & Pozo, 2009).

Page 89: Il ruolo del contesto nell’interpretazione di espressioni ...

89

Riconducendo quanto riportato in letteratura ai nostri risultati, ipotizziamo che la

componente LPP possa essere condizionata sia dalla valenza relativa al contesto presentato

prima del volto neutro (risposte maggiori sono state osservate in seguito alla presentazione

di stimoli emotivi), sia dal fatto che il contesto può essere considerato come uno stimolo

“prime” e il volto neutro come uno stimolo “target”. Tra i due stimoli verrebbe, quindi,

rilevata un’incongruenza proprio nelle condizioni il volto neutro è preceduto da un contesto

emotivo. Tale interpretazione sarebbe sostenuta anche dai risultati emersi nella finestra

temporale corrispondente alla N400.

3.2 Conclusioni

Attraverso il nostro studio abbiamo riproposto e verificato la validità dell’“effetto Kuleshov”

come strumento per evidenziare il ruolo del contesto sulla percezione di volti, proponendo

un’interessante ipotesi sulle modalità attraverso le quali questo effetto funziona. Tale

paradigma consente, infatti, di adottare un approccio più ecologico che tiene conto delle

modalità con cui quotidianamente esperiamo questa tipologia di stimoli. Secondo quanto

emerso dai risultati appena discussi, l’“effetto Kuleshov” sembrerebbe essere spiegato da un

processo cognitivo che, partendo dalle informazioni contestuali, genera delle aspettative

sull’espressione del volto associato a quel determinato contesto. Quando questo contesto

risulta essere connotato da valenza emotiva, le aspettative rispetto alla reazione emotiva che

ci si aspetta di rilevare nel volto, che nelle nostre sequenze era sempre neutro, vengono

violate, generando un processo di attribuzione di significato indipendente dall’analisi

percettiva del volto stesso. Questo processo di attribuzione agisce su due livelli: a livello

esplicito, comportamentale, i partecipanti valutavano il volto neutro in maniera coerente alle

aspettative che si erano creati sulla base del contesto; a livello implicito, i risultati

elettrofisiologici dimostrano come l’elaborazione del volto neutro dipendesse dalla

congruenza/incongruenza tra quest’ultimo e le aspettative create dal contesto che lo

precedeva (congruenza: contesto neutro, volto neutro; incongruenza: contesto emotivo,

volto neutro).

Concludendo e ritornando alle ipotesi fino ad ora proposte per interpretare l’”effetto

Kuleshov” (Barratt, 2015; Calbi et al., 2017; Noël Carroll & Carroll, 1993), i nostri risultati

Page 90: Il ruolo del contesto nell’interpretazione di espressioni ...

90

sembrano suggerire un’ulteriore interpretazione possibile, secondo la quale l’effetto sarebbe

spiegato da un processo cognitivo di attribuzione di aspettative create dal contesto stesso e

non da una reale esperienza percettiva ed emotiva.

Limiti e future indagini

Un limite del presente studio è legato all’esiguo numero di partecipanti. Infatti, aumentando

il nostro campione potremmo migliorare la potenza statistica del test e di conseguenza avere

dei risultati più chiari sia dal punto di vista del numero di componenti ERP evidenziate, sia

dal punto di vista dell’estensione temporale delle componenti stesse. Inoltre, sarebbe anche

interessante valutare l’attivazione elettrofisiologica dei partecipanti, separando il campione

tra maschi e femmine in modo da dare conto anche delle differenze di genere che

intervengono nell’analisi implicita dei volti in una situazione come quella dell’“effetto

Kuleshov”.

Page 91: Il ruolo del contesto nell’interpretazione di espressioni ...

91

Page 92: Il ruolo del contesto nell’interpretazione di espressioni ...

92

Bibliografia

Adolphs, R., Tranel, D., & Damasio, A. R. (2003). Dissociable neural systems for recognizing

emotions. Brain and Cognition, 52(1), 61–69.

Albiero, P., Ingoglia, S., & Lo Coco, A. (2006). Contributo all’adattamento italiano

dell’Interpersonal Reactivity Index. Testing-Psicometria-Metodologia, 13(2).

Ashley, V., Vuilleumier, P., & Swick, D. (2004). Time course and specificity of event-related

potentials to emotional expressions. Neuroreport, 15(1), 211–6.

https://doi.org/10.1097/01.wnr.0000091411.19795.f5

Aviezer, H., Hassin, R. R., Ryan, J., Grady, C., Susskind, J., Anderson, A., … Bentin, S. (2008).

Angry, disgust, or afraid? Studies on the malleability of emotion perception.

Psychological Science, 19(7), 724–732. https://doi.org/10.1111/j.1467-

9280.2008.02148.x

Bagby, R. M., Parker, J. D. A., & Taylor, G. J. (1994). The twenty-item Toronto Alexithymia

Scale—I. Item selection and cross-validation of the factor structure. Journal of

Psychosomatic Research, 38(1), 23–32.

Balconi, M., & Pozzoli, U. (2008). Event-related oscillations (ERO) and event-related

potentials (ERP) in emotional face recognition. International Journal of Neuroscience,

118(10), 1412–1424. https://doi.org/10.1080/00207450601047119

Bar, M. (2003). A cortical mechanism for triggering top-down facilitation in visual object

recognition. Journal of Cognitive Neuroscience, 15(4), 600–609.

https://doi.org/10.1162/089892903321662976

Baron-Cohen, S., Wheelwright, S., Hill, J., Raste, Y., & Plumb, I. (2001). The “Reading the

Mind in the Eyes” Test Revised Version: A Study with Normal Adults, and Adults with

Asperger Syndrome or High-functioning Autism. Journal of Child Psychology and

Psychiatry, 42(2), S0021963001006643. https://doi.org/10.1017/S0021963001006643

Barratt, D. (2015). Does the Kuleshov effect really exist ?, (March), 1–55.

Barrett, L. F., & Bar, M. (2009). See it with feeling: affective predictions during object

Page 93: Il ruolo del contesto nell’interpretazione di espressioni ...

93

perception. Philosophical Transactions of the Royal Society B: Biological Sciences,

364(1521), 1325–1334.

Barrett, L. F., & Kensinger, E. A. (2010). Context is routinely encoded during emotion

perception. Psychological Science, 21(4), 595–599.

Bashore, T. R., & van der Molen, M. W. (1991). Discovery of the P300: a tribute. Biological

Psychology, 32(2–3), 155–171.

Battaglia, M., Zanoni, A., Giorda, R., Pozzoli, U., Citterio, A., Beri, S., … Molteni, M. (2007).

Effect of the catechol-O-methyltransferase val(158)met genotype on children’s early

phases of facial stimuli processing. Genes, Brain, and Behavior, 6(4), 364–374.

https://doi.org/10.1111/j.1601-183X.2006.00265.x

Batty, M., & Taylor, M. J. (2003). Early processing of the six basic facial emotional

expressions. Cognitive Brain Research, 17(3), 613–620. https://doi.org/10.1016/S0926-

6410(03)00174-5

Bentin, S., Allison, T., Puce, A., Perez, E., & McCarthy, G. (1996). Electrophysiological Studies

of Face Perception in Humans. Journal of Cognitive Neuroscience, 8(6), 551–565.

https://doi.org/10.1162/jocn.1996.8.6.551

Birbaumer, N., Elbert, T., Canavan, A. G., & Rockstroh, B. (1990). Slow potentials of the

cerebral cortex and behavior. Physiological Reviews, 70(1), 1–41.

Bobes, M. A., Martin, M., Olivares, E., & Valdes-Sosa, M. (2000). Different scalp topography

of brain potentials related to expression and identity matching of faces. Brain

Research. Cognitive Brain Research, 9(3), 249–260.

Brunet, D., Murray, M. M., & Michel, C. M. (2011). Spatiotemporal analysis of multichannel

EEG: CARTOOL. Computational Intelligence and Neuroscience, 2011.

https://doi.org/10.1155/2011/813870

Bullier, J. (2001). Integrated model of visual processing. Brain Research. Brain Research

Reviews, 36(2–3), 96–107.

Cabanac, M. (2002). What is emotion? Behavioural Processes, 60(2), 69–83.

https://doi.org/10.1016/S0376-6357(02)00078-5

Page 94: Il ruolo del contesto nell’interpretazione di espressioni ...

94

Calbi, M. (2017). Neural mechanisms underpinning Emotional Body Language

comprehension: eye tracking and EEG studies. Università di Parma. Dipartimento di

Neuroscienze.

Calbi, M., Heimann, K., Barratt, D., Siri, F., Umiltà, M. A., & Gallese, V. (2017). How context

influences our perception of emotional faces: A behavioral study on the Kuleshov

effect. Frontiers in Psychology, 8(OCT), 1684.

https://doi.org/10.3389/fpsyg.2017.01684

Calder, A. J., Ewbank, M., & Passamonti, L. (2011). Personality influences the neural

responses to viewing facial expressions of emotion. Philosophical Transactions of the

Royal Society B: Biological Sciences, 366(1571), 1684–1701.

Campanella, S., Quinet, P., Bruyer, R., Crommelinck, M., & Guerit, J.-M. (2002). Categorical

perception of happiness and fear facial expressions: an ERP study. Journal of Cognitive

Neuroscience, 14(2), 210–227. https://doi.org/10.1162/089892902317236858

Campbell, R., Elgar, K., Kuntsi, J., Akers, R., Terstegge, J., Coleman, M., & Skuse, D. (2002).

The classification of ‘fear’ from faces is associated with face recognition skill in

women. Neuropsychologia, 40(6), 575–584. https://doi.org/10.1016/S0028-

3932(01)00164-6

Carretie, L., & Iglesias, J. (1995). An ERP study on the specificity of facial expression

processing. International Journal of Psychophysiology : Official Journal of the

International Organization of Psychophysiology, 19(3), 183–192.

Carroll, J. M., & Russell, J. A. (1996a). Do facial expressions signal specific emotions? Judging

emotion from the face in context. Journal of Personality and Social Psychology, 70(2),

205–218. https://doi.org/10.1037/0022-3514.70.2.205

Carroll, J. M., & Russell, J. A. (1996b). Do facial expressions signal specific emotions?

Judging emotion from the face in context. Journal of Personality and Social Psychology,

70(2), 205.

Carroll, N. (1993). Toward a Theory of Point-of-View Editing: Communication, Emotion, and

the Movies. Poetics Today, 14(1), 123–141. https://doi.org/10.2307/1773144

Page 95: Il ruolo del contesto nell’interpretazione di espressioni ...

95

Carroll, N., & Carroll, N. (1993). Toward a Theory of Point-of-View Editing: Communication,

Emotion, and the Movies. Poetics Today, 14(1), 123. https://doi.org/10.2307/1773144

Carver, C. S., & White, T. L. (1994). Behavioral inhibition, behavioral activation, and

affective responses to impending reward and punishment: the BIS/BAS scales. Journal

of Personality and Social Psychology, 67(2), 319.

Cochin, S., Barthelemy, C., Lejeune, B., Roux, S., & Martineau, J. (1998). Perception of

motion and qEEG activity in human adults. Electroencephalography and Clinical

Neurophysiology, 107(4), 287–295. https://doi.org/10.1016/S0013-4694(98)00071-6

Cochin, S., Barthelemy, C., Roux, S., & Martineau, J. (1999). Observation and execution of

movement: similarities demonstrated by quantified electroencephalography.

European Journal of Neuroscience, 11(5), 1839–1842. https://doi.org/10.1046/j.1460-

9568.1999.00598.x

Cuthbert, B. N., Schupp, H. T., Bradley, M. M., Birbaumer, N., & Lang, P. J. (2000). Brain

potentials in affective picture processing: covariation with autonomic arousal and

affective report. Biological Psychology, 52(2), 95–111.

Darwin, C. (n.d.). The expression of the emotions in man and animals.

Davis, M. H. (1983). Measuring individual differences in empathy: Evidence for a

multidimensional approach. Journal of Personality and Social Psychology, 44(1), 113.

Delorme, A., & Makeig, S. (2004). EEGLAB: An open source toolbox for analysis of single-

trial EEG dynamics including independent component analysis. Journal of Neuroscience

Methods. https://doi.org/10.1016/j.jneumeth.2003.10.009

Dolan, R. J. (2002). Emotion, cognition, and behavior. Science (New York, N.Y.), 298(5596),

1191–1194. https://doi.org/10.1126/science.1076358

Eger, E., Jedynak, A., Iwaki, T., & Skrandies, W. (2003a). Rapid extraction of emotional

expression: evidence from evoked potential fields during brief presentation of face

stimuli. Neuropsychologia, 41(7), 808–817.

Eger, E., Jedynak, A., Iwaki, T., & Skrandies, W. (2003b). Rapid extraction of emotional

expression: Evidence from evoked potential fields during brief presentation of face

Page 96: Il ruolo del contesto nell’interpretazione di espressioni ...

96

stimuli. Neuropsychologia, 41(7), 808–817. https://doi.org/10.1016/S0028-

3932(02)00287-7

Eimer, M. C., & Holmes, A. (2002). An ERP study on the time course of emotional face

processing. Neuroreport, 13(4), 427–431. https://doi.org/10.1097/00001756-

200203250-00013

Eimer, M., & Holmes, A. (2002). An ERP study on the time course of emotional face

processing. Neuroreport, 13(4), 427–431.

Eimer, M., & Holmes, A. (2007a). Event-related brain potential correlates of emotional face

processing. Neuropsychologia, 45(1), 15–31.

https://doi.org/10.1016/j.neuropsychologia.2006.04.022

Eimer, M., & Holmes, A. (2007b). Event-related brain potential correlates of emotional face

processing. Neuropsychologia, 45(1), 15–31.

https://doi.org/10.1016/j.neuropsychologia.2006.04.022

Ekman, P. (1992). Are there basic emotions? Psychological Review. US: American

Psychological Association. https://doi.org/10.1037/0033-295X.99.3.550

Ekman, P. (1993). Facial expression and emotion. American Psychologist, 48(4), 384.

Ekman, P., & Friesen, W. V. (1971). Constants across cultures in the face and emotion.

Journal of Personality and Social Psychology, 17(2), 124.

Ekman, P., & Friesen, W. V. (1978). Facial Action Coding System: Investigatoris Guide.

Consulting Psychologists Press.

Ekman, P., Levenson, R. W., & Friesen, W. V. (1983). Autonomic nervous system activity

distinguishes among emotions. Science, 221(4616), 1208–1210.

Electrical Geodesics, I. (2003). Net station waveform tools technical manual. s-man-200-

wtfr-001 (Tech. Rep.). EGI.

Foti, D., Olvet, D. M., Klein, D. N., & Hajcak, G. (2010). Reduced electrocortical response to

threatening faces in major depressive disorder. Depression and Anxiety, 27(9), 813–

820. https://doi.org/10.1002/da.20712

Page 97: Il ruolo del contesto nell’interpretazione di espressioni ...

97

Gallese, V. (2006). Corpo vivo, simulazione incarnata e intersoggettività. Una prospettiva

neuro-fenomenologica. Neurofenomenologia. Le Scienze Della Mente e La Sfida

Dell’esperienza Cosciente, 293–326.

Gallese, V., & Guerra, M. (2013). Film, corpo, cervello: prospettive naturalistiche per la

teoria del film. Fata Morgana. Retrieved from

https://pdfs.semanticscholar.org/cf39/104ca41898fa623bcdc34861bb175bcf27bf.pdf

Gallese, V., & Guerra, M. (2015). Lo schermo empatico: cinema e neuroscienze. Retrieved

from http://pdfitalia.link/arte-cinema-e-fotografia/lo-schermo-empatico-cinema-e-

neuroscienze.pdf

Graham, R., & LaBar, K. S. (2012). Neurocognitive mechanisms of gaze-expression

interactions in face processing and social attention. Neuropsychologia, 50(5), 553–566.

Guthrie, D., & Buchwald, J. S. (1991). Significance Testing of Difference Potentials.

Psychophysiology, 28(2), 240–244. https://doi.org/10.1111/j.1469-

8986.1991.tb00417.x

Hajcak, G., & Nieuwenhuis, S. (2006). Reappraisal modulates the electrocortical response to

unpleasant pictures. Cognitive, Affective & Behavioral Neuroscience, 6(4), 291–297.

Hajcak, G., Weinberg, A., MacNamara, A., & Foti, D. (2012). ERPs and the Study of Emotion.

In The Oxford Handbook of Event-Related Potential Components.

https://doi.org/10.1093/oxfordhb/9780195374148.013.0222

Hall, J., Emotion, D. M.-, & 2004, undefined. (n.d.). Gender differences in judgments of

multiple emotions from facial expressions. Psycnet.Apa.Org. Retrieved from

http://psycnet.apa.org/journals/emo/4/2/201/

Hamm, A. O., Gerlach, M., Globisch, J., & Vaitl, D. (1992). Phobia specific startle reflex

modulation during affective imagery and slide viewing. Psychophysiology, 29, S36.

Hampson, E., Anders, S. van, Human, L. M.-E. and, & 2006, undefined. (n.d.). A female

advantage in the recognition of emotional facial expressions: Test of an evolutionary

hypothesis. Ehbonline.Org. Retrieved from https://www.ehbonline.org/article/S1090-

5138(06)00033-X/fulltext

Page 98: Il ruolo del contesto nell’interpretazione di espressioni ...

98

Heimann, K. S., Uithol, S., Calbi, M., Umiltà, M. A., Guerra, M., & Gallese, V. (2017). “Cuts in

Action”: A High-Density EEG Study Investigating the Neural Correlates of Different

Editing Techniques in Film. Cognitive Science, 41(6), 1555–1588.

https://doi.org/10.1111/cogs.12439

Heimann, K., Umiltà, M. A., Guerra, M., & Gallese, V. (2014). Moving Mirrors: A High-

density EEG Study Investigating the Effect of Camera Movements on Motor Cortex

Activation during Action Observation. Journal of Cognitive Neuroscience, 26(9), 2087–

2101. https://doi.org/10.1162/jocn_a_00602

Herring, D. R., Taylor, J. H., White, K. R., & Crites, S. L. (2011). Electrophysiological

Responses to Evaluative Priming: The LPP Is Sensitive to Incongruity. Emotion, 11(4),

794–806. https://doi.org/10.1037/a0022804

Herrmann, M. J., Aranda, D., Ellgring, H., Mueller, T. J., Strik, W. K., Heidrich, A., &

Fallgatter, A. J. (2002). Face-specific event-related potential in humans is independent

from facial expression. International Journal of Psychophysiology : Official Journal of

the International Organization of Psychophysiology, 45(3), 241–244.

Hinojosa, J. A., Carretié, L., Méndez-Bértolo, C., Míguez, A., & Pozo, M. A. (2009). Arousal

contributions to affective priming: Electrophysiological correlates. Emotion, 9(2), 164–

171. https://doi.org/10.1037/a0014680

Holmes, A., Vuilleumier, P., & Eimer, M. (2003). The processing of emotional facial

expression is gated by spatial attention: evidence from event-related brain potentials.

Cognitive Brain Research, 16(2), 174–184.

Hothorn, T., Bretz, F., Westfall, P., & Heiberger, R. (2008). Multcomp: simultaneous

inference for general linear hypotheses. R Package Version 1.0-3.

Ioannides, A. A., Liu, L. C., Kwapien, J., Drozdz, S., & Streit, M. (2000). Coupling of regional

activations in a human brain during an object and face affect recognition task. Human

Brain Mapping, 11(2), 77–92.

Itier, R. J., & Taylor, M. J. (2004). Face recognition memory and configural processing: a

developmental ERP study using upright, inverted, and contrast-reversed faces. Journal

of Cognitive Neuroscience, 16(3), 487–502.

Page 99: Il ruolo del contesto nell’interpretazione di espressioni ...

99

Izard, C. E. (1971). The face of emotion. The face of emotion. East Norwalk, CT, US:

Appleton-Century-Crofts.

Izard, C. E. (1994). Innate and universal facial expressions: Evidence from developmental

and cross-cultural research. Psychological Bulletin. US: American Psychological

Association. https://doi.org/10.1037/0033-2909.115.2.288

Izard, C. E. (2007). Basic Emotions, Natural Ki Emotion Schemas, and a New Paradigm.

Perspectives on Psychological Science, 2(3), 260–280. Retrieved from

http://www.jstor.org/stable/40212206%5Cnhttp://www.jstor.org/stable/40212206?s

eq=1&cid=pdf-reference#references_tab_contents%5Cnhttp://about.jstor.org/terms

Izard, C. E. (2009). Emotion Theory and Research: Highlights, Unanswered Questions, and

Emerging Issues. Annual Review of Psychology, 60(1), 1–25.

https://doi.org/10.1146/annurev.psych.60.110707.163539

Jessen, S., & Kotz, S. A. (2011). The temporal dynamics of processing emotions from vocal,

facial, and bodily expressions. NeuroImage, 58(2), 665–674.

https://doi.org/10.1016/j.neuroimage.2011.06.035

Johnson, R. J. (1993). On the neural generators of the P300 component of the event-related

potential. Psychophysiology, 30(1), 90–97.

Junghöfer, M., Bradley, M. M., Elbert, T. R., & Lang, P. J. (2001). Fleeting images: A new look

at early emotion discrimination. Psychophysiology, 38(2), 175–178.

https://doi.org/10.1017/S0048577201000762

Kahle, D., & Wickham, H. (2013). ggmap: Spatial Visualization with ggplot2. R Journal, 5(1).

Kanske, P., & Kotz, S. A. (2007). Concreteness in emotional words: ERP evidence from a

hemifield study. Brain Research, 1148, 138–148.

https://doi.org/10.1016/j.brainres.2007.02.044

Kanske, P., Plitschka, J., & Kotz, S. A. (2011). Attentional orienting towards emotion: P2 and

N400 ERP effects. Neuropsychologia, 49(11), 3121–3129.

https://doi.org/10.1016/j.neuropsychologia.2011.07.022

Kappenman, E. S., & Luck, S. J. (2010). The effects of electrode impedance on data quality

Page 100: Il ruolo del contesto nell’interpretazione di espressioni ...

100

and statistical significance in ERP recordings. Psychophysiology.

https://doi.org/10.1111/j.1469-8986.2010.01009.x

Kawasaki, H., Adolphs, R., Kaufman, O., Damasio, H., Damasio, A. R., Granner, M., …

Howard III, M. A. (2001). Single-neuron responses to emotional visual stimuli recorded

in human ventral prefrontal cortex. Nature Neuroscience, 4(1), 15.

Kayser, 1997. (n.d.).

Kayser, J. T. C. E. N. H. H. D. H. K. an. E. G. (1997). Event related potential (ERP) asymmetries

to emotional stimuli in a half-field paradigm. Psychophysiology, 34, 414–426.

Keil, A., Bradley, M. M., Hauk, O., Rockstroh, B., Elbert, T., & Lang, P. J. (2002). Large-scale

neural correlates of affective picture processing. Psychophysiology, 39(5), 641–649.

https://doi.org/10.1017.S0048577202394162, S0048577202394162 [pii]

Kim, H., Somerville, L. H., Johnstone, T., Polis, S., Alexander, A. L., Shin, L. M., & Whalen, P.

J. (2004). Contextual modulation of amygdala responsivity to surprised faces. Journal

of Cognitive Neuroscience, 16(10), 1730–1745.

Kleinginna, P. R., & Kleinginna, A. M. (1981). A categorized list of motivation definitions,

with a suggestion for a consensual definition. Motivation and Emotion, 5(3), 263–291.

https://doi.org/10.1007/BF00993889

Kok, A. (2000). Age-related changes in involuntary and voluntary attention as reflected in

components of the event-related potential (ERP). Biological Psychology, 54(1–3), 107–

143.

Krolak-Salmon, P., Fischer, C., Vighetto, A., & Mauguiere, F. (2001). Processing of facial

emotion expression: Spatio-temporal data as assessed by scalp event-related

potentials. European Journal of Neuroscience, 13, 987–994.

https://doi.org/10.1046/j.0953-816X.2001.01454.x

Kuleshov, L. (1974). Art of the Cinema. Retrieved from

https://scholar.google.it/scholar?hl=it&as_sdt=0%2C5&q=Kuleshov%2C+1974+Art+of+

the+Cinema&btnG=

La Ferlita, V., Bonadies, M., Solano, L., De Gennaro, L., & Gonini, P. (2007). Alessitimia e

Page 101: Il ruolo del contesto nell’interpretazione di espressioni ...

101

adolescenza: studio preliminare di validazione della TAS-20 su un campione di 360

adolescenti italiani. Infanzia e Adolescenza, 6(3), 131–144.

Lang, P. J., Bradley, M. M., & Cuthbert, B. N. (1998). Emotion, motivation, and anxiety: brain

mechanisms and psychophysiology. Biological Psychiatry, 44(12), 1248–1263.

LeBrun, C., & Picart, B. (n.d.). Conférence... sur l’expression générale et particulière, enrichie

de figures gravées par B. Picart.

LeDoux, J. E. (1995). In search of an emotional system in the brain: leaping from fear to

emotion and consciousness.

Lenth, R. V. (2016). Least-squares means: the R package lsmeans. Journal of Statistical

Software, 69(1), 1–33.

Leone, L., Pierro, A., & Mannetti, L. (2002). Validità della versione italiana delle scale

BIS/BAS di Carver e White (1994): generalizzabilità della struttura e relazioni con

costrutti affini. Giornale Italiano Di Psicologia, 29(2), 413–436.

Luck, S. J. (2006). The Operation of Attention--Millisecond by Millisecond--Over the First

Half Second.

Lundqvist, D., Flykt, A., & Öhman, A. (1998). The Karolinska directed emotional faces

(KDEF). CD ROM from Department of Clinical Neuroscience, Psychology Section,

Karolinska Institutet, (1998).

Lutzenberger, W., Elbert, T. H., & Rockstroh, B. (1987). A brief tutorial on the implications of

volume conduction for the interpretation of the EEG. Journal of Psychophysiology, 1,

81–89.

Mangun, G. R., & Hillyard, S. A. (1995). Mechanisms and models of selective attention.

Marinkovic, K., & Halgren, E. (1998). Human brain potentials related to the emotional

expression , repetition , and gender of faces. Psychobiology, 26(4), 348–356.

https://doi.org/10.3758/bf03330621

Meeren, H. K. M., van Heijnsbergen, C. C. R. J., & de Gelder, B. (2005). Rapid perceptual

integration of facial expression and emotional body language. Proceedings of the

National Academy of Sciences of the United States of America, 102(45), 16518–16523.

Page 102: Il ruolo del contesto nell’interpretazione di espressioni ...

102

Meinhardt, J., & Pekrun, R. (2003). Attentional resource allocation to emotional events: An

ERP study. Cognition & Emotion, 17(3), 477–500.

https://doi.org/10.1080/02699930244000039

Miyoshi, M., Katayama, J., & Morotomi, T. (2004). Face-specific N170 component is

modulated by facial expressional change. Neuroreport, 15(5), 911–914.

Mobbs, D., Weiskopf, N., Lau, H. C., Featherstone, E., Dolan, R. J., & Frith, C. D. (2006). The

Kuleshov Effect: the influence of contextual framing on emotional attributions. Social

Cognitive and Affective Neuroscience, 1(2), 95–106.

https://doi.org/10.1093/scan/nsl014

Montagne, B., Sierra, M., Medford, N., Hunter, E., Baker, D., Kessels, R. P. C., … David, A. S.

(2007). Emotional memory and perception of emotional faces in patients suffering

from depersonalization disorder. British Journal of Psychology, 98(3), 517–527.

https://doi.org/10.1348/000712606X160669

Mühlberger, A., Wieser, M. J., Herrmann, M. J., Weyers, P., Tröger, C., & Pauli, P. (2009).

Early cortical processing of natural and artificial emotional faces differs between lower

and higher socially anxious persons. Journal of Neural Transmission, 116(6), 735–746.

https://doi.org/10.1007/s00702-008-0108-6

MuMIn, B. K. (2018). multi-model inference. R package version 1.40. 0. 2017.

Munte, T. F., Brack, M., Grootheer, O., Wieringa, B. M., Matzke, M., & Johannes, S. (1998).

Brain potentials reveal the timing of face identity and expression judgments.

Neuroscience Research, 30(1), 25–34.

Näätänen, R., & Picton, T. (1987). The N1 wave of the human electric and magnetic

response to sound: a review and an analysis of the component structure.

Psychophysiology, 24(4), 375–425.

Niedenthal, P. M., Brauer, M., Halberstadt, J. B., & Innes-Ker, Å. H. (2001). When did her

smile drop? Facial mimicry and the influences of emotional state on the detection of

change in emotional expression. Cognition & Emotion, 15(6), 853–864.

Oldfield, R. C. (1971). The assessment and analysis of handedness: the Edinburgh inventory.

Page 103: Il ruolo del contesto nell’interpretazione di espressioni ...

103

Neuropsychologia, 9(1), 97–113.

Olofsson, J. K., & Polich, J. (2007). Affective visual event-related potentials: Arousal,

repetition, and time-on-task. Biological Psychology, 75(1), 101–108.

https://doi.org/10.1016/J.BIOPSYCHO.2006.12.006

Panksepp, J. (1998). The periconscious substrates of consciousness: Affective states and the

evolutionary origins of the SELF. Journal of Consciousness Studies, 5(5–6), 566–582.

Panksepp, J. (2007). Neurologizing the Psychology of Affects: How Appraisal-Based

Constructivism and Basic Emotion Theory Can Coexist. Perspectives on Psychological

Science, 2(3), 281–296. https://doi.org/10.1111/j.1745-6916.2007.00045.x

Paulmann, S., & Pell, M. D. (2009). Facial expression decoding as a function of emotional

meaning status: ERP evidence. Neuroreport, 20(18), 1603–1608.

https://doi.org/10.1097/WNR.0b013e3283320e3f

Pavlova, M. A., Scheffler, K., & Sokolov, A. N. (2015). Face-n-Food: Gender Differences in

Tuning to Faces. PLOS ONE, 10(7), e0130363.

https://doi.org/10.1371/journal.pone.0130363

Pedrabissi, L., & Santinello, M. (1989). Inventario per l’ansia di «Stato» e di «Tratto»: nuova

versione italiana dello STAI Forma Y: Manuale. Organizzazioni Speciali, Firenze, 44.

Persson, P. (2003). Understanding Cinema: Understanding and dispositions; 2.

Understanding POV editing; 3. Variable framing and personal space; 4. Character.

Retrieved from

https://scholar.google.it/scholar?hl=it&as_sdt=0%2C5&q=Persson%2C+2003+pov&btn

G=

Picton, T. W. (1992). The P300 wave of the human event-related potential. Journal of

Clinical Neurophysiology : Official Publication of the American Electroencephalographic

Society, 9(4), 456–479.

Pinheiro, J., Bates, D., DebRoy, S., Sarkar, D., Heisterkamp, S., Van Willigen, B., &

Maintainer, R. (2017). Package ‘nlme.’ Linear and Nonlinear Mixed Effects Models, 1–3.

Pizzagalli, D. A., Lehmann, D., Hendrick, A. M., Regard, M., Pascual-Marqui, R. D., &

Page 104: Il ruolo del contesto nell’interpretazione di espressioni ...

104

Davidson, R. J. (2002). Affective Judgments of Faces Modulate Early Activity (∼160 ms)

within the Fusiform Gyri. NeuroImage, 16(3), 663–677.

https://doi.org/10.1006/nimg.2002.1126

Pizzagalli, D., Regard, M., & Lehmann, D. (1999). Rapid emotional face processing in the

human right and left brain hemispheres: An ERP study. NeuroReport, 10(13), 2691–

2698. https://doi.org/10.1097/00001756-199909090-00001

Posner, J., Russell, J. A., & Peterson, B. S. (2005). The circumplex model of affect: An

integrative approach to affective neuroscience, cognitive development, and

psychopathology. Development and Psychopathology, 17(3), 715–734.

Pourtois, G., Dan, E. S., Grandjean, D., Sander, D., & Vuilleumier, P. (2005). Enhanced

extrastriate visual response to bandpass spatial frequency filtered fearful faces: Time

course and topographic evoked‐potentials mapping. Human Brain Mapping, 26(1), 65–

79.

Pourtois, G., De Gelder, B., Vroomen, J., Rossion, B., & Crommelinck, M. (2000). The time-

course of intermodal binding between seeing and hearing affective information.

NeuroReport, 11(6), 1329–1333. https://doi.org/10.1097/00001756-200004270-00036

Pourtois, G., Grandjean, D., Sander, D., & Vuilleumier, P. (2004). Electrophysiological

correlates of rapid spatial orienting towards fearful faces. Cerebral Cortex, 14(6), 619–

633.

Prince, S., & Hensley, W. E. (1992). The Kuleshov effect: Recreating the classic experiment.

Cinema Journal, 31(2), 59–75. https://doi.org/10.2307/1225144

Proverbio, A. M. (2017). Sex differences in social cognition: The case of face processing.

Journal of Neuroscience Research, 95(1–2), 222–234.

https://doi.org/10.1002/jnr.23817

Proverbio, A. M., Zani, A., & Adorni, R. (2008). Neural markers of a greater female

responsiveness to social stimuli. BMC Neuroscience, 9(1), 56.

https://doi.org/10.1186/1471-2202-9-56

Puce, A., Epling, J. A., Thompson, J. C., & Carrick, O. K. (2007). Neural responses elicited to

Page 105: Il ruolo del contesto nell’interpretazione di espressioni ...

105

face motion and vocalization pairings. Neuropsychologia, 45(1), 93–106.

https://doi.org/10.1016/j.neuropsychologia.2006.04.017

Pudovkin, V. V. (1970). Film Technique and Film Acting (1926-1934). Retrieved from

https://scholar.google.it/scholar?hl=it&as_sdt=0%2C5&q=Pudovkin+1970+Film+techni

que+and+film+acting&btnG=

Ramachandran, V. S., Altschuler, E. L., & Hillyer, S. (1997). Mirror agnosia. Proceedings.

Biological Sciences, 264(1382), 645–7. https://doi.org/10.1098/rspb.1997.0091

Richard, W. (1987). The Thread of Life.

Righart, R., & De Gelder, B. (2006). Context influences early perceptual analysis of faces - An

electrophysiological study. Cerebral Cortex, 16(9), 1249–1257.

https://doi.org/10.1093/cercor/bhj066

Righart, R., & De Gelder, B. (2008). Recognition of facial expressions is influenced by

emotional scene gist. Cognitive, Affective, & Behavioral Neuroscience, 8(3), 264–272.

Russell, J. A. (1980). A circumplex model of affect. Journal of Personality and Social

Psychology, 39(6), 1161.

Russell, J. A. (1997). 13-reading emotion from and into faces: Resurrecting a dimensional-

contextual perspective. The Psychology of Facial Expression, 295–320.

Russell, J. A., & Fehr, B. (1987). Relativity in the perception of emotion in facial expressions.

Journal of Experimental Psychology: General, 116(3), 223.

Sato, W., Kochiyama, T., Yoshikawa, S., & Matsumura, M. (2001). Emotional expression

boosts early visual processing of the face: ERP recording and its decomposition by

independent component analysis. Neuroreport, 12(4), 709–714.

https://doi.org/10.1097/00001756-200103260-00019

Sato, W., Kochiyama, T., Yoshikawa, S., & Matsumura, M. (2001). Emotional expression

boosts early visual processing of the face: ERP recording and its decomposition by

independent component analysis. NeuroReport, 12(4), 709–714.

https://doi.org/10.1097/00001756-200103260-00019

Sauter, D. A., & Eimer, M. (2010). Rapid detection of emotion from human vocalizations.

Page 106: Il ruolo del contesto nell’interpretazione di espressioni ...

106

Journal of Cognitive Neuroscience, 22(3), 474–481.

https://doi.org/10.1162/jocn.2009.21215

Schachter, S., & Singer, J. (1962). Cognitive, social, and physiological determinants of

emotional state. Psychological Review, 69(5), 379–399.

https://doi.org/10.1037/h0046234

Schneider, W., Eschman, A., & Zuccolotto, A. (2002). E-prime, Version 1.1. Pittsburgh, PA:

Psychology Software Tools.

Schupp, H. T., Cuthbert, B. N., Bradley, M. M., Hillman, C. H., Hamm, A. O., & Lang, P. J.

(2004). Brain processes in emotional perception: Motivated attention. Cognition and

Emotion, 18(5), 593–611. https://doi.org/10.1080/02699930341000239

Schupp, H. T., Flaisch, T., Stockburger, J., & Junghöfer, M. (2006). Chapter 2 Emotion and

attention: event-related brain potential studies. Progress in Brain Research, 156, 31–

51. https://doi.org/10.1016/S0079-6123(06)56002-9

Schupp, H. T., Junghofer, M., Weike, A. I., & Hamm, A. O. (2003). Emotional facilitation of

sensory processing in the visual cortex. Psychological Science, 14(1), 7–13.

https://doi.org/10.1111/1467-9280.01411

Schupp, H. T., Junghöfer, M., Weike, A. I., & Hamm, A. O. (2004). The selective processing of

briefly presented affective pictures: An ERP analysis. Psychophysiology, 41(3), 441–

449. https://doi.org/10.1111/j.1469-8986.2004.00174.x

Schupp, H. T., Schmälzle, R., Flaisch, T., Weike, A. I., & Hamm, A. O. (2013). Reprint of

“Affective picture processing as a function of preceding picture valence: An ERP

analysis.” Biological Psychology, 92(3), 520–525.

https://doi.org/10.1016/j.biopsycho.2013.02.002

Schwarz, K. A., Wieser, M. J., Gerdes, A. B. M., Mühlberger, A., & Pauli, P. (2012). Why are

you looking like that? How the context influences evaluation and processing of human

faces. Social Cognitive and Affective Neuroscience, 8(4), 438–445.

Shimamura, A. P., Marian, D. E., & Haskins, A. L. (2013). Neural correlates of emotional

regulation while viewing films. Brain Imaging and Behavior, 7(1), 77–84.

Page 107: Il ruolo del contesto nell’interpretazione di espressioni ...

107

https://doi.org/10.1007/s11682-012-9195-y

Spielberger, C. D., Gorsuch, R. L., & Lushene, R. E. (1968). State-Trait Anxiety Inventory

(STAI): Test Manual for Form X. Consulting Psychologists Press.

Streit, M., Ioannides, A. A., Liu, L., Wolwer, W., Dammers, J., Gross, J., … Muller-Gartner, H.

W. (1999). Neurophysiological correlates of the recognition of facial expressions of

emotion as revealed by magnetoencephalography. Brain Research. Cognitive Brain

Research, 7(4), 481–491.

Sun, L., Ren, J., & He, W. (2017). Neural correlates of facial expression processing during a

detection task : An ERP study, 1–13.

Taake, I., Jaspers-Fayer, F., Psychology, M. L.-B., & 2009, undefined. (n.d.). Early frontal

responses elicited by physical threat words in an emotional Stroop task: Modulation

by anxiety sensitivity. Elsevier. Retrieved from

https://www.sciencedirect.com/science/article/pii/S0301051109000076

Team, R. C. (2014). R: A language and environment for statistical computing (Version 3.1.

1)[Computer software]. Vienna, Austria: R Foundation for Statistical Computing.

Thayer, J., & Johnsen, B. H. (2000). Sex differences in judgement of facial affect: A

multivariate analysis of recognition errors. Scandinavian Journal of Psychology, 41(3),

243–246. https://doi.org/10.1111/1467-9450.00193

Tomkins, S. S. (1962). Affect Imagery Consciousness: The Positive Affect.

Tucker, D. M., Liotti, M., Potts, G. F., Russell, G. S., & Posner, M. I. (1994). Spatiotemporal

analysis of brain electrical fields. Human Brain Mapping, 1(2), 134–152.

Vanderploeg, R. D., Brown, W. S., & Marsh, J. T. (1987). Judgements of emotion in words

and faces: ERP correlates. International Journal of Psychophysiology, 5(3), 193–205.

https://doi.org/10.1016/0167-8760(87)90006-7

Werheid, K., Alpay, G., Jentzsch, I., & Sommer, W. (2005). Priming emotional facial

expressions as evidenced by event-related brain potentials. International Journal of

Psychophysiology, 55(2), 209–219. https://doi.org/10.1016/J.IJPSYCHO.2004.07.006

Wieser, M. J., & Brosch, T. (2012). Faces in context: A review and systematization of

Page 108: Il ruolo del contesto nell’interpretazione di espressioni ...

108

contextual influences on affective face processing. Frontiers in Psychology, 3(NOV), 1–

13. https://doi.org/10.3389/fpsyg.2012.00471

Zacks, J. M., Speer, N. K., Swallow, K. M., & Maley, C. J. (2010). The brain’s cutting-room

floor: segmentation of narrative cinema. Frontiers in Human Neuroscience, 4, 168.

https://doi.org/10.3389/fnhum.2010.00168