Il ruolo del contesto nell’interpretazione di espressioni ...
Transcript of Il ruolo del contesto nell’interpretazione di espressioni ...
Universita degli Studi di Parma
DIPARTIMENTO DI MEDICINA E CHIRURGIA
Corso di Laurea Magistrale in Psicobiologia e Neuroscienze Cognitive
Tesi di laurea magistrale
Il ruolo del contestonell’interpretazione di espressioni facciali:
uno studio EEG sull’effetto Kuleshov
Relatore:
Vittorio Gallese
Correlatore:
Marta Calbi
Laureando:
Nunzio LangiulliMatricola 269914
Anno Accademico 2017–2018
2
Alla mia famiglia
3
Indice
Capitolo 1: Introduzione
1.1 Emozioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.1 Approccio Categoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.2 Approccio Dimensionale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.3 Il Ruolo del Contesto nell'Analisi dei Volti . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2 Correlati Elettrofisiologici della codifica dei Volti . . . . . . . . . . . . . . . . . .12
1.3 Cinema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .18
1.3.1 L' “Effetto Kuleshov” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.3.2 Repliche Precedenti. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.4 Obiettivi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .26
Capitolo 2: Materiali, Metodi e Risultati
2.1 Campione Sperimentale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.2 Stimoli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3 Procedura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.3.1 Compito Sperimentale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.3.2 Compito di Categorizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4
2.4 Questionari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .37
2.4.1 Interpersonal Reactivity Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .38
2.4.2 Behavioral Activation / Inhibition System Scale . . . . . . . . . . . . . . . . . . . . . . .39
2.4.3 Toronto Alexithymia Scale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .39
2.4.4 State / Trait Anxiety Scale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.4.5 Giudizio di Familiarità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .40
2.5 Analisi Comportamentale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.5.2 Post Hoc. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.5.1 Categorizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .46
2.6 Analisi EEG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.6.1 Preprocessing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.6.2 Global ERP waveform analysis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .49
2.6.2.1 Condizione di Paura vs Condizione Neutra. . . . . . . . . . . . . . . . . . . . . . . . . . .50
2.6.2.2 Condizione di Felicità vs Condizione Neutra. . . . . . . . . . . . . . . . . . . . . . . . . .64
2.6.2.3 Condizione di Paura vs Condizione di Felicità. . . . . . . . . . . . . . . . . . . . . . . . .75
Capitolo 3: Discussione e Conclusioni
3.1 Discussione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .84
3.1.1 Comportamentale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
3.1.2 EEG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .86
3.2 Conclusioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .89
5
6
Capitolo 1
Introduzione
1.1 Emozioni
Le emozioni sono stati mentali (Cabanac, 2002), legati ad un’attivazione fisiologica
(Schachter & Singer, 1962), di primaria importanza per i nostri processi cognitivi e
motivazionali (Izard, 1971).
Sebbene non vi sia consenso su una definizione generale del termine "emozione" (Kleinginna
& Kleinginna, 1981), molti esperti concordano sul fatto che le emozioni abbiano un insieme
limitato di componenti e caratteristiche (Izard, 2007). Dal punto di vista filogenetico si ritiene
che esistano sistemi neurali dedicati, almeno in parte, ai processi emotivi che svolgerebbero
un ruolo nel motivare il soggetto all'azione e alla valutazione cognitiva, reclutando sistemi di
risposta adattivi selezionati nel corso dell’evoluzione (Darwin, 1972). Le emozioni sono state
classificate, ad esempio, come emozioni di base universali, radicate e definite principalmente
negli schemi biologici e di evoluzione, o emozioni complesse che includono componenti
cognitive che differiscono tra individui e culture (Ekman, 1992; Izard, 2007; Panksepp, 2007).
Tra le manifestazioni del vissuto emotivo ci sono le espressioni facciali che rivestono una
primaria importanza nella nostra comprensione delle emozioni e, più in generale, degli stati
mentali altrui (Ekman, 1992, 1993, Izard, 1994, 2009; Russell, 1997; Tomkins, 1962).
1.1.1 Approccio Categoriale
La teoria ancora oggi dominante nell’ambito della ricerca neuroscientifica, sostiene che
l’uomo si sia evoluto con una dotazione di emozioni di base limitate ed universali (Darwin,
1972), selezionate per favorire l’adattamento dell’individuo all’ambiente (Ekman, 1992;
Panksepp, 1998; Tomkins, 1962). Osservando le espressioni facciali e le risposte fisiologiche
7
periferiche a stimoli affettivi, diversi autori hanno assunto che ciascuna emozione sia
associata a specifici modelli di attivazione autonomica e a specifiche espressioni facciali
(Ekman, 1992; Ekman, Levenson, & Friesen, 1983).
Da queste osservazioni nasce l’approccio categoriale che sostiene una sostanziale
corrispondenza tra le varie espressioni facciali e le diverse emozioni che possono essere
racchiuse all’interno di differenti categorie (emozioni di base o primarie ed emozioni
complesse o secondarie) (Ekman, 1993; Ekman & Friesen, 1971). Le emozioni di base
manterrebbero le loro caratteristiche indipendentemente dalla cultura e, secondo Ekman,
comprenderebbero sei emozioni: rabbia, tristezza, felicità, paura, disgusto e sorpresa (Ekman
& Friesen, 1971). Studiando le espressioni facciali, Ekman e Friesen hanno notato che ogni
emozione attiva una configurazione di muscoli ben precisi che provoca una mimica facciale
costante. In seguito a questa osservazione, gli stessi autori hanno identificato circa 50 diverse
configurazioni di attivazioni di muscoli facciali a cui hanno dato il nome di “unità d’azione”
che, combinate tra loro, permettevano di codificare e riconoscere tutte le espressioni facciali
osservate, attraverso un sistema di codifica che hanno chiamato FACS (Facial Action Coding
System) (Ekman & Friesen, 1978).
Sebbene questo approccio sia ancora ampiamente adottato in ambito neuroscientifico, ha
ricevuto diverse critiche. Le misure fisiologiche a cui le emozioni di base sono associate
sembrano, infatti, differire in base al tipo di stimolo utilizzato (Hamm, Gerlach, Globisch, &
Vaitl, 1992). Inoltre, come nota lo stesso Ekman, non tutte le emozioni sembrano essere
associate ad una caratteristica espressione facciale (Ekman, 1993) e alcune espressioni
facciali sembrano essere associate a più di una emozione (Posner, Russell, & Peterson, 2005).
Date queste osservazioni, diversi altri autori hanno proposto un approccio meno rigido, che
tenga conto della notevole complessità dell’esperienza emotiva umana.
1.1.2 Approccio dimensionale
I modelli dimensionali considerano le esperienze affettive come un continuum di stati
altamente interconnessi e frequentemente ambigui che spesso vengono riportati come due
distinte dimensioni dell’esperienza emotiva. Ad oggi, queste due dimensioni sono state
concettualizzate in molti modi diversi da svariati autori. Tra gli autori più rappresentativi di
8
questo approccio c’è Russell il quale identifica due dimensioni, quella della Valenza e quella
dell’Attivazione, che rimandano a due distinti sistemi neurofisiologici dai quali vengono
generati i diversi stati affettivi. Secondo Russell ogni esperienza affettiva è, infatti, la
conseguenza di una combinazione lineare tra questi due sistemi di attivazione (Aviezer et al.,
2008; Hajcak, Weinberg, MacNamara, & Foti, 2012; Posner et al., 2005) ed ha una intrinseca
natura relazionale. Le emozioni, infatti, non sono più viste come dei riflessi prodotti
dall'organismo, ma possono essere utilizzate dall’individuo come segnali di negoziazione
interpersonali all'interno di una transazione o relazione sociale.
Le due dimensioni, Valenza e Attivazione, che descrivono l’esperienza emotiva sono riportate
in Figura 1.1 e determinano una rappresentazione circolare dello spettro emotivo. Il modello
proposto da Russell prende, infatti, il nome di “Modello Circonflesso dell’Affetto”.
Figura 1.1
Fig. 1.1 L’asse orizzontale rappresenta la dimensione della Valenza che si riferisce al grado di piacevolezza o spiacevolezza di una
emozione, mentre l’asse verticale rappresenta la dimensione dell’Attivazione che può andare da un polo di attivazione (che indicheremo
con il termine “eccitato”) e un polo di de-attivazione (che indicheremo con il termine “calmo”) per descrivere l’emozione.
Nell’ottica di questo approccio dimensionale le espressioni facciali convogliano informazioni
relative sia alla Valenza che all’Attivazione relative all’emozione (Russell, 1980, 1997).
9
Entrambi gli approcci, categoriale e dimensionale, analizzano l’espressione emotiva e la
relativa attivazione fisiologica in modo del tutto isolato dal contesto in cui si esperisce o
osserva l’emozione. Per motivi di semplificazione sperimentale, utilizzare le espressioni
facciali come stimoli semplici permette di isolare la variabile relativa ad una specifica
emozione o espressione, ma dal punto di vista ecologico questa stessa semplificazione
rappresenta un limite per la nostra comprensione del meccanismo con cui esperiamo ed
analizziamo le espressioni facciali altrui durante le quotidiane interazioni sociali. Interazioni
durante le quali il contesto (e.g., postura corporea, ambiente circostante, credenze e
aspettative) esercita verosimilmente un ruolo non indifferente (Righart & De Gelder, 2006).
1.1.3 Il ruolo del contesto nell’analisi dei volti
Diversi autori hanno focalizzato la loro attenzione sul ruolo che il contesto gioca nella
percezione e comprensione di espressioni facciali assumendo così un approccio più
ecologico. Come nota Aviezer, i volti sono raramente esperiti in isolamento percettivo, e il
contesto nel quale appaiono risulta spesso molto informativo (Aviezer et al., 2008).
Secondo Wieser e Brosch (2012) vi sarebbero quattro differenti elementi contestuali in grado
di influenzare la nostra percezione di un volto in un ambiente ecologico, qualitativamente
diverso e più ricco di stimoli rispetto a quello sperimentale (Wieser & Brosch, 2012).
Il primo elemento che influenza la nostra percezione di un volto è costituito dalle
caratteristiche del volto stesso come la mimica facciale e la direzione dello sguardo. Queste
ultime, secondo la teoria dell’Appraisal, sarebbero sempre integrate dall’osservatore nella
percezione dell’emozione durante la valutazione di uno stimolo rilevante (Graham & LaBar,
2012). Sembra che la direzione dello sguardo giochi un ruolo importante nella modulazione
dell'elaborazione delle espressioni facciali soprattutto quando l'emozione facciale è difficile
da discriminare (Graham & LaBar, 2012).
Il secondo elemento che influenza la nostra percezione riguarda le caratteristiche del
soggetto osservato, come ad esempio le posture corporee (Aviezer et al., 2008; Calbi, 2017;
Meeren, van Heijnsbergen, & de Gelder, 2005).
10
Il terzo elemento che influenza la nostra percezione è relativo alle caratteristiche del
soggetto che sta percependo il volto, e comprende i processi di apprendimento affettivo e le
distorsioni implicite nell'elaborazione dovute, ad esempio, ai tratti di personalità (Calder,
Ewbank, & Passamonti, 2011).
Il quarto elemento in grado di influenzare la nostra percezione è relativo al contesto
nell’accezione più comune del termine, ovvero alle caratteristiche dell’ambiente in cui il volto
è esperito. Tra le caratteristiche esterne possiamo includere le stesse etichette emotive
verbali che si utilizzano per indicare le emozioni. Numerosi studi hanno, infatti, evidenziato
che il linguaggio può guidare e persino condizionare i partecipanti su come interpretare le
espressioni facciali. Halberstadt e Niedenthal nel 2001, ad esempio, hanno osservato che
quando associavano a volti ambigui ottenuti con una tecnica di morphing (per il 50%
arrabbiati e per il 50% felici) la parola “arrabbiato”, i partecipanti percepivano quel volto
come arrabbiato (Niedenthal, Brauer, Halberstadt, & Innes-Ker, 2001). Anche la descrizione
verbale che possiamo fare di una determinata scena rientra in questa categoria di elementi
che influenzano la nostra percezione di volti. Carrol e Russell, ad esempio, già in un
esperimento del 1996, avevano osservato che informazioni contestuali di questo tipo
possono assumere addirittura maggior importanza rispetto alle stesse espressioni facciali.
Questi autori hanno fatto leggere ai partecipanti sei brevi storie che descrivevano una
situazione, caratterizzata da una determinata valenza emotiva, che creava il contesto
all’interno del quale presentavano immagini di volti emotivi. Tali espressioni facciali venivano
poi interpretate dai partecipanti in maniera congruente alla situazione descritta nella storia
che avevano letto; ad esempio, se il partecipante leggeva una storia che descriveva una
situazione dolorosa e poi gli veniva mostrato un volto con un’espressione di paura il
partecipante attribuiva a quel volto un’espressione di dolore e non di paura (J. M. Carroll &
Russell, 1996a).
È interessante notare che il contesto gioca un ruolo particolarmente importante nella
percezione di volti ambigui (Kim et al., 2004) e volti neutri (Schwarz, Wieser, Gerdes,
Mühlberger, & Pauli, 2012), 2012]. Schwarz e colleghi precisano, infatti, che le informazioni
che traiamo dal contesto possono esercitare un’influenza ancora maggiore quando le
informazioni emotive espresse dal volto sono ambigue o del tutto assenti (volti neutri)
(Schwarz et al., 2012).
11
Il contesto all’interno del quale percepiamo un volto può essere rappresentato anche da altre
espressioni facciali. In una situazione ecologica, infatti, raramente percepiamo un volto
isolato, ma più spesso ci capita di osservarlo in un contesto in cui ci sono altre persone,
ognuna delle quali ha una propria espressione facciale che può influenzare la nostra
percezione del volto osservato, soprattutto quando questo volto è neutro e le altre
espressioni hanno una valenza emotiva (Russell & Fehr, 1987).
È stato dimostrato, inoltre, che anche semplici oggetti inanimati, presenti nella scena visiva
circostante, sono importanti e vengono analizzati quando percepiamo un’espressione
facciale. Barrett e Kensinger nel 2010 hanno dimostrato che il contesto viene sempre
analizzato quando vengono osservate espressioni facciali di cui dobbiamo identificare
l’emozione. Questi autori, facevano vedere ai partecipanti delle espressioni facciali di
disgusto, di paura oppure neutre su uno sfondo, con valenza affettiva neutra, in cui potevano
essere presenti degli oggetti inanimati. Quando ai partecipanti veniva chiesto di eseguire un
compito di categorizzazione emotiva, questi ricordavano meglio il contesto in cui veniva
presentato il volto rispetto a quando ai partecipanti era chiesto di identificare il semplice
significato affettivo dell'espressione attraverso un compito in cui dovevano indicare se
avrebbero voluto approcciare o meno quella persona nella vita quotidiana. Secondo questi
autori questo risultato dimostrerebbe che, quando era richiesto di identificare un’emozione
sulla base dell’espressione presentata, i partecipanti analizzavano anche il contesto e gli
oggetti presenti nello sfondo (infatti li ricordavano meglio), pur non essendo questi utili poi
per identificare l’emozione del volto (Barrett & Kensinger, 2010).
Anche Righart e De Gelder in una serie di studi hanno indagato il ruolo di scene visive nel
riconoscimento delle espressioni facciali. Nel 2006 hanno condotto uno studio di
elettroencefalografia (EEG) durante il quale hanno associato a volti (che potevano avere
un’espressione neutra o un’espressione di paura) delle scene di contesto (che potevano
rimandare ad una situazione con valenza emotiva neutra o di paura). Poiché i volti potevano
essere presentati nel loro naturale orientamento oppure capovolti, ai partecipanti era
chiesto di eseguire un compito di categorizzazione dell’orientamento. I risultati hanno
mostrato un aumento significativo dell’ampiezza della componente N170 (si veda 1.2)
quando i volti neutri erano associati a contesti di paura, e questo effetto era maggiore
quando al contesto di paura era associato un volto con espressione emotiva congruente
12
(Righart & De Gelder, 2006). Nel 2008 gli stessi autori hanno condotto uno studio
comportamentale durante il quale hanno chiesto ai partecipanti di categorizzare l’emozione
di volti, tratti dal Karolinska Directed Emotional Faces picture set (Lundqvist, Flykt, & Öhman,
1998), mostrati, come nello studio precedente, in presenza di scene visive il cui contenuto
emotivo poteva essere congruente o incongruente rispetto all’espressione del volto. I
risultati hanno mostrato un vantaggio nel compito di categorizzazione (i partecipanti erano
più veloci), quando l’espressione facciale e il contesto erano congruenti. Questi risultati
hanno mostrato, ancora una volta, il fatto che le informazioni che traiamo dal contesto
migliorano la nostra percezione dell’espressione emotiva (Righart & De Gelder, 2008). Le
informazioni che ricaviamo dal contesto vengono, quindi, associate a quelle che ricaviamo
dal volto e, quando congruenti, producono un effetto additivo, che si manifesta con una
maggiore velocita nel compito di categorizzazione delle emozioni dovuta al fatto che le
informazioni a disposizione conducono alla percezione della stessa emozione e non a due
emozioni diverse che competono tra di loro.
Globalmente, i risultati di questi studi indicano chiaramente che le informazioni fornite
dall'espressione facciale vengono automaticamente combinate con le informazioni
provenienti dal contesto in cui l’espressione stessa è calata. Più precisamente, sono stati
osservati sia effetti di congruenza, che sostengono l’ipotesi secondo la quale le informazioni
che traiamo dal contesto aiutano ad identificare l’emozione espressa dal volto, sia effetti di
specificazione o focalizzazione (J. M. Carroll & Russell, 1996a), per cui le informazioni
contestuali interverrebbero quando le informazioni relative all’espressione facciale sono
scarse o di più difficile comprensione (volti ambigui o volti neutri).
Come affermato da Wieser e Brosch (2012), quindi, possiamo concludere che l'impatto dei
segnali contestuali sul riconoscimento dell'espressione facciale è notevole e la ricerca
neuroscientifica dovrebbe soffermarsi sul ruolo che questi hanno, adottando un approccio
maggiormente ecologico nell’indagine di processi cognitivi complessi come quelli messi in
atto durante la percezione delle espressioni facciali e dei volti più in generale (Wieser &
Brosch, 2012).
1.2 Correlati Elettrofisiologici della codifica dei Volti
13
I potenziali evento-correlati o potenziali evocati correlati ad eventi (Event-related potentials
- ERPs) forniscono una misurazione dell’attività elettrica cerebrale che può essere registrata
in modo non invasivo da più aree dello scalpo (Birbaumer, Elbert, Canavan, & Rockstroh,
1990). Più specificatamente, gli ERPs riflettono i potenziali postsinaptici sommati generati nel
processo di trasmissione neurale e passivamente condotti attraverso il cervello e il cranio alla
superficie dello scalpo dove sono rilevati attraverso l'elettroencefalogramma (EEG). Le
componenti ERP di ampiezza maggiore riflettono fonti di attivazione o de-attivazione
sincrone diffuse in regioni corticali specifiche (Lutzenberger, Elbert, & Rockstroh, 1987). Tale
attività cerebrale legata all'elaborazione di uno stimolo diventa evidente come deflessione
positiva o negativa nella forma d'onda ERP. L'ampiezza e la latenza di componenti ERP
specifiche forniscono informazioni sulla forza e sul decorso temporale dei processi neurali
sottostanti. Inoltre, dato un appropriato campionamento spaziale (Tucker, Liotti, Potts,
Russell, & Posner, 1994), la topografia delle componenti ERP può essere utilizzata per stimare
i siti da cui si generano i potenziali evocati.
In generale, gli ERPs possono fornire preziose informazioni sulla codifica delle emozioni a
livello cerebrale. La ricerca neuroscientifica si è focalizzata principalmente sull’individuazione
del decorso temporale relativo alla percezione dei volti, sfruttando l’elevata risoluzione
temporale messa a disposizione dall’EEG, e sull’individuazione delle componenti relative
all’analisi del volto associando la loro modulazione alle differenti espressioni emotive.
Diversi autori hanno notato che la rilevazione e l’elaborazione di eventi emotivamente
significativi può essere attivata rapidamente quando segnalata da espressioni facciali di
natura emotiva (Kawasaki et al., 2001; D. Pizzagalli, Regard, & Lehmann, 1999; Wataru Sato,
Kochiyama, Yoshikawa, & Matsumura, 2001), ribadendo l’importanza che questa tipologia di
stimoli assume nella nostra esperienza. LeDoux sosteneva infatti che, per avere valore di
sopravvivenza, il monitoraggio dei segnali potenzialmente salienti, e con valenza emotiva
(piacevole o sgradevole), dovrebbe essere rapido e il più accurato possibile (LeDoux, 1995).
I primi effetti dell’elaborazione di stimoli emotivi possono essere rilevati già 100 ms dopo
l'insorgenza degli stimoli stessi (Pourtois, De Gelder, Vroomen, Rossion, & Crommelinck,
2000). Diversi recenti studi che hanno misurato gli ERPs durante la visione di volti con
espressioni emotive hanno, infatti, riportato effetti emozionali che si verificano durante una
finestra temporale molto precoce, influenzando l'ampiezza della componente visiva P1
14
rilevata sulla corteccia posteriore (Batty & Taylor, 2003; Eger, Jedynak, Iwaki, & Skrandies,
2003b; D. Pizzagalli et al., 1999; Pourtois, Dan, Grandjean, Sander, & Vuilleumier, 2005), così
come di alcune componenti fronto-centrali che si manifestano ad una latenza di circa 120 ms
dalla presentazione del volto (M. C. Eimer & Holmes, 2002; M. Eimer & Holmes, 2007a). Una
modulazione significativa di queste componenti sensoriali precoci è stata, in particolare,
rilevata in risposta a espressioni di paura (M. C. Eimer & Holmes, 2002; Holmes, Vuilleumier,
& Eimer, 2003; Pourtois et al., 2005).
La componente P1, che è massima nei siti di registrazione posteriori ed ha una latenza di
circa 100 ms, può essere elicitata, sia nei bambini che negli adulti, in risposta alla
presentazione di volti, e sembra essere sensibile all’informazione emotiva veicolata dai volti
stessi (Batty & Taylor, 2003; Eger et al., 2003b; M. Eimer & Holmes, 2007a; Pourtois,
Grandjean, Sander, & Vuilleumier, 2004). Alcuni autori hanno rilevato, inoltre, che la risposta
che emerge da questa componente può essere modulata dal tipo di compito richiesto ai
partecipanti (Batty & Taylor, 2003; M. Eimer & Holmes, 2007a; Itier & Taylor, 2004). Alcuni
autori hanno, ad esempio, riportato come le risposte visive relative alle espressioni facciali
negative (come paura o rabbia) fossero presenti anche quando il contenuto emotivo dei volti
non doveva essere giudicato esplicitamente dagli osservatori (Eger et al., 2003b; Harald T.
Schupp, Junghöfer, Weike, & Hamm, 2004) o quando i volti erano completamente irrilevanti
ai fini del compito (Pourtois et al., 2004). Alcuni studi hanno anche indagato la modulazione
di questa componente in una condizione di percezione ambigua, modificando artificialmente
i volti che i partecipanti vedevano durante l’esperimento. In uno studio che utilizzava "facce
ibride" con espressioni facciali diverse, Pourtois e colleghi, hanno, ad esempio, rilevato un
aumento della P1 (con una latenza di circa 130 ms) correlato alla visione di espressioni facciali
di paura rispetto ad espressioni neutre (Pourtois et al., 2005).
Successivamente alla componente P1, l’elaborazione visiva di uno stimolo elicita solitamente
un potenziale negativo (N1). Si ritiene che l’ampiezza ridotta di questa componente sia
strettamente correlata alla facilitazione del focus attentivo verso input attesi (Luck, 2006;
Mangun & Hillyard, 1995; Näätänen & Picton, 1987). Vi sono, però, alcune evidenze che
mostrano come la componente N1 possa essere sensibile alle caratteristiche dei volti (Bentin,
Allison, Puce, Perez, & McCarthy, 1996; Campanella, Quinet, Bruyer, Crommelinck, & Guerit,
2002; M. Eimer & Holmes, 2002). Ad esempio, Eimer e Holmes hanno rilevato che questa
15
componente negativa, rilevata sugli elettrodi frontali con una latenza di circa 115 ms,
risultava ridotta quando i partecipanti osservavano volti con espressioni di paura rispetto a
quando osservavano facce neutre (M. Eimer & Holmes, 2002). In un altro studio, Pourtois e
colleghi hanno proposto dei contenuti audiovisivi in cui veniva manipolato il contenuto visivo
(volti) e sonoro (tre frasi pronunciate con un tono di voce arrabbiato da un attore) per creare
degli stimoli in cui la valenza emotiva di questi poteva essere coerente o incoerente. Gli
autori hanno osservato una diminuzione dell'ampiezza della N1 in risposta agli stimoli il cui
contenuto (visivo e sonoro) era incoerente (Pourtois et al., 2000), ipotizzando che il maggior
reclutamento di risorse neurali potesse riflettere la difficoltà di elaborazione di contenuti
emotivi incoerenti. Anche Jessen e Kotz hanno osservato una minore ampiezza della N1 per
stimoli emotivi rispetto a stimoli neutri (Jessen & Kotz, 2011). L’ampiezza minore della
componente N1 per stimoli emotivi rispetto a stimoli neutri riflette un maggiore
reclutamento di risorse neurali, come già visto per gli stimoli incoerenti (Paulmann & Pell,
2009). Questo effetto è ulteriormente rafforzato dalla riduzione della latenza del picco N1
per gli stimoli ad elevata salienza emotiva come i volti esprimenti rabbia.
I meccanismi precoci e relativamente automatici indicati dalle componenti P1 e N1 possono
non solo supportare l'elaborazione attenzionale di volti con espressioni emotive, ma possono
anche essere correlati alla capacità di modulare le reazioni a tali stimoli emotivi. I risultati
sopra descritti, infatti, confermano il ruolo importante assunto dalle fasi di elaborazione
precoce che possono successivamente guidare il riconoscimento visivo e, più in generale,
l’elaborazione di volti (Bar, 2003; Bullier, 2001).
Un’altra componente visiva che sembra essere selettiva per i volti è la N170: un potenziale
negativo posteriore che si manifesta a circa 170 ms dalla presentazione dello stimolo. È,
infatti, ormai riconosciuto come la N170 rifletta la codifica strutturale dei volti (Batty &
Taylor, 2003; Bentin et al., 1996; Eger et al., 2003b; D. Pizzagalli et al., 1999; Righart & De
Gelder, 2006).
Non è, tuttavia, chiaro se la N170 possa essere influenzata dal contenuto emotivo delle
espressioni del volto. I lavori presenti in letteratura mostrano, infatti, risultati contrastanti
(Ashley, Vuilleumier, & Swick, 2004; Batty & Taylor, 2003; Bobes, Martin, Olivares, & Valdes-
Sosa, 2000; Campanella et al., 2002; Eger et al., 2003b; M. Eimer & Holmes, 2002, 2007b;
Herrmann et al., 2002; Krolak-Salmon, Fischer, Vighetto, & Mauguiere, 2001; Miyoshi,
16
Katayama, & Morotomi, 2004; Munte et al., 1998; D. A. Pizzagalli et al., 2002). In ogni caso,
le modulazioni esercitate dal contenuto emotivo dei volti non sono apparse selettive per
alcuna espressione specifica. Risultati significativi in questo senso sono stati riportati per
espressioni di paura (Campanella et al., 2002) così come per quelle di disgusto e felicità
(Ashley et al., 2004). Il dato interessante è che tali modulazioni possono variare anche in base
all’orientamento del volto (Ashley et al., 2004), suggerendo come questa componente
rifletta un’analisi percettiva che riguarda l’attenzione e la configurazione strutturale del
volto, piuttosto che un’analisi emotiva specifica (Ashley et al., 2004; Ioannides, Liu, Kwapien,
Drozdz, & Streit, 2000).
Ulteriori differenze nell’analisi dei volti possono essere rilevate in modo affidabile anche
dopo 200 ms dalla presentazione dello stimolo, in questo caso associate a fasi di elaborazioni
tardive (Paulmann & Pell, 2009). Ad esempio, una componente negativa posteriore (Early
Posterior Negativity - EPN) con una latenza compresa tra 240 e 280 ms dalla comparsa dello
stimolo (W Sato, Kochiyama, Yoshikawa, & Matsumura, 2001; Harald T. Schupp, Cuthbert, et
al., 2004), e con una topografia occipitale e temporale bilaterale, è risultata essere
selettivamente più ampia durante la visione passiva di volti con espressione di paura, rispetto
a volti felici o neutri. Con una latenza simile a quella della EPN si presenta anche un’altra
componente, questa volta positiva (P2) e con topografia fronto-centrale, che è stata messa
in relazione all’analisi emotiva dei volti da diversi autori: volti emotivi elicitano una P2 di
maggior ampiezza rispetto a quelli neutri (Paulmann & Pell, 2009; Sauter & Eimer, 2010).
In generale, è emerso che le modulazioni di componenti con una latenza a circa 250 ms dalla
presentazione di un volto possono riflettere una differenza tra espressioni emotive ed
espressioni neutre, mentre effetti selettivi per le espressioni di paura possono emergere
intorno a 550 ms (Krolak-Salmon et al., 2001; Sato et al., 2001). Questo tipo di discriminazioni
più selettive per una singola espressione facciale sono indicizzate da potenziali positivi tardivi
(Late Positive Potential - LPP) (Battaglia et al., 2007; Campanella et al., 2002; Carretie &
Iglesias, 1995; Krolak-Salmon et al., 2001; Marinkovic & Halgren, 1998; Harald T. Schupp,
Cuthbert, et al., 2004). Queste risposte tardive ai volti emotivi, inoltre, permangono spesso
per periodi di tempo prolungati dopo l'insorgenza dello stimolo (Ashley et al., 2004; Carretie
& Iglesias, 1995; Krolak-Salmon et al., 2001; Meinhardt & Pekrun, 2003) e a volte fino a 1
secondo o più (Krolak-Salmon et al., 2001).
17
Spesso, questi potenziali prolungati sono anticipati dalla componente P3 che risulta
generalmente di ampiezza maggiore per stimoli emotivi. La componente P3, tuttavia, non
risulta specifica per l’elaborazione emotiva, in quanto diversi autori hanno rilevato
un’ampiezza maggiore anche quando lo stimolo era atteso (Johnson, 1993), poco frequente
o rilevante per il compito (Picton, 1992). Pertanto, diversi autori sostengono che la P3 sia una
componente ERP provocata da processi cognitivi di analisi dello stimolo causati da una
maggiore salienza dello stimolo stesso (Bashore & van der Molen, 1991).
Diversi autori ipotizzano, invece, che le risposte lente e prolungate nel tempo non
rifletterebbero un’analisi specifica e differenziale per l’espressione emotiva, ma complessi
processi cognitivi e/o di attivazione e attenzione, innescati dopo l'elaborazione percettiva e
sensoriale di base (Adolphs, Tranel, & Damasio, 2003; Dolan, 2002; Lang, Bradley, &
Cuthbert, 1998), in risposta a stimoli salienti (Foti, Olvet, Klein, & Hajcak, 2010; Kanske &
Kotz, 2007). Di conseguenza, le emozioni che generano maggiore attivazione fisiologica o
sono maggiormente salienti, come quelle di paura, generano potenziali positivi maggiori in
questa tardiva finestra temporale. Inoltre, in numerosi studi è emersa una maggiore
ampiezza di queste componenti in risposta a stimoli emotivi rispetto a stimoli neutri, sia
quando si utilizzavano immagini (Cuthbert, Schupp, Bradley, Birbaumer, & Lang, 2000; Hajcak
& Nieuwenhuis, 2006) sia quando si utilizzavano volti (Foti et al., 2010).
È emerso, inoltre, come alcune delle risposte tardive ai volti emotivi possano verificarsi solo
quando l'attenzione è diretta all'espressione del volto, ma non durante compiti che
richiedono giudizi solo sull'identità facciale o sul genere dei volti (Krolak-Salmon et al., 2001;
Munte et al., 1998; Streit et al., 1999). Effetti con una latenza successiva ai 400 ms possono
anche sorgere in risposta all'integrazione multisensoriale degli stimoli (che riguardano ad
esempio l’integrazione di stimoli vocali e visivi) (Puce, Epling, Thompson, & Carrick, 2007)
riflettendo, appunto, l’elaborazione più generale e di alto livello cui queste componenti
fanno riferimento.
In termini di elaborazione emotiva, gli effetti mostrati nella finestra temporale della LPP
possono, quindi, essere attribuiti all'aumentato valore motivazionale e di eccitazione assunto
dagli stimoli emotivi (Cuthbert et al., 2000; M. Eimer & Holmes, 2002). Possono, inoltre,
riflettere un’analisi percettiva e cognitiva legata all'elevata salienza intrinseca degli stimoli
emotivi (Kok, 2000).
18
Come emerso dagli studi presentati, gli ERPs possono, quindi, rappresentare un adeguato
strumento per indagare il modo in cui analizziamo ed elaboriamo gli stimoli emotivi salienti.
1.3 Cinema
Il cinema ha rappresentato per tutto il corso del Novecento, e rappresenta tutt’ora, la più
straordinaria e realistica riproduzione della nostra vita (Gallese & Guerra, 2015).
Come le altre forme d’arte, esso rappresenta un caso di esperienza mediata in cui il film si
offre come elemento di mediazione tra il suo creatore e il suo spettatore (Gallese & Guerra,
2013). Secondo il regista Michael Haneke, infatti, il ruolo dello spettatore non può essere
solo ricettivo. Nel momento in cui siamo spettatori di un’opera cinematografica la esperiamo
esteticamente per mezzo di modalità peculiari che, attraverso le tecniche di brain imaging,
possiamo cominciare a studiare sperimentalmente.
L'interesse per l'uso di stimoli dinamici quali video o sequenze filmiche è presente in
numerosi studi e può essere un elemento di congiunzione o un primo passo nel percorso di
studio e approfondimento verso la comprensione dell'esperienza del cinema.
Molti esperimenti di EEG o di risonanza magnetica funzionale (functional magnetic resonance
imaging o fMRI) hanno nel tempo, infatti, utilizzato come stimoli brevi clip video che,
sebbene manchino della complessità di un’opera cinematografica integrale, rappresentano
degli strumenti che possono “catturare dinamicamente le esperienze dei partecipanti in
modo più naturalistico rispetto ai tipici stimoli utilizzati nella ricerca neuroscientifica (e.g.,
immagini statiche e parole)” (Shimamura, Marian, & Haskins, 2013).
In che modo mettiamo in campo l’esperienza estetica quando assistiamo ad una narrazione
per immagini in movimento come quella del film? Secondo Vittorio Gallese il potente effetto
di realtà e la dinamicità del film ci consentono di attuare una simulazione multimodale che
sfrutta tutte le potenzialità del sistema cervello-corpo (Gallese & Guerra, 2015), chiamata
“simulazione incarnata”. Questo meccanismo funzionale di base del nostro cervello ci
consente di riutilizzare parte delle risorse neurali che normalmente utilizziamo per interagire
con il mondo (modellando i rapporti e le relazioni che con esso stabiliamo) mettendole al
servizio della sua percezione e immaginazione in modo inconscio e preriflessivo, e può
19
interessare azioni, emozioni e sensazioni altrui (Vittorio Gallese, 2006). La “simulazione
incarnata”, nella fruizione di un film, assume la forma di “simulazione liberata” in quanto
l’osservatore è libero da coinvolgimenti con la realtà esterna vera e propria ed è calato nella
finzione cinematografica (Gallese & Guerra, 2015).
Le neuroscienze hanno iniziato solo recentemente ad indagare i vari aspetti del linguaggio
cinematografico che rendono possibile questo tipo di esperienza estetica nello spettatore,
esplorandone i vari elementi sintattici (e.g., il montaggio, le tecniche di ripresa).
Heimann e colleghi nel 2014, ad esempio, hanno studiato il modo in cui i movimenti di
macchina influenzano la percezione degli spettatori, partendo dall’idea che il movimento
della macchina da presa (mdp) che riprende l’azione implichi e stimoli un determinato tipo
di relazione fisica e spaziale tra ciò che viene ripreso e l’osservatore. Secondo l’ipotesi degli
autori, questa relazione avrebbe una connotazione motoria e indurrebbe risposte diverse da
parte dei meccanismi di simulazione incarnata in base ai diversi movimenti di macchina
utilizzati. Per verificare questa ipotesi, gli autori hanno realizzato un esperimento in cui,
durante una registrazione di EEG, mostravano ai partecipanti la stessa scena (un attore
davanti ad un tavolo che afferrava un oggetto posto sullo stesso tavolo) ripresa in quattro
modi diversi: con mdp statica (controllo), con un effetto di zoom in avanti che stringeva sulla
scena, muovendo la mdp in avanti su una rotaia (carrellata in avanti), muovendo la mdp in
avanti utilizzando una steadicam (supporto meccanico a cui si aggancia la mdp che è ancorato
al corpo dell’operatore che si può muovere liberamente nella scena camminando). Dai
risultati di questo esperimento è emerso che i partecipanti ritenevano la tecnica di ripresa
che utilizzava la steadicam come quella che più era fedele alla reale esperienza di qualcuno
che si avvicina alla scena filmata camminando. È stato rilevato, inoltre, che la riduzione della
distanza tra lo spettatore e la scena filmata attraverso il movimento della mdp determinava
una maggiore attivazione del meccanismo di simulazione incarnata misurato attraverso la
desincronizzazione del ritmo mu (S Cochin, Barthelemy, Lejeune, Roux, & Martineau, 1998;
S Cochin, Barthelemy, Roux, & Martineau, 1999; Ramachandran, Altschuler, & Hillyer, 1997).
Questa desincronizzazione risultava essere più intensa durante l’osservazione dei movimenti
di macchina rispetto a quando la camera era statica e, tra i movimenti di macchina proposti,
quello che elicitava la risposta maggiore di desincronizzazione del ritmo mu dei soggetti era
quello della steadicam che, essendo ancorata al corpo dell’operatore, restituiva
20
all’osservatore un dinamismo più vicino a quello esperito quotidianamente e, quindi,
risultava di più efficace richiamo per il meccanismo di simulazione incarnata (K. Heimann,
Umiltà, Guerra, & Gallese, 2014).
Questo stesso gruppo di ricerca ha indagato un secondo aspetto del linguaggio filmico
relativo questa volta al montaggio. I ricercatori hanno preso in considerazione il fenomeno
dello “scavallamento di campo” dovuto alla violazione della regola dei 180°. Secondo tale
regola, lo spazio in cui si svolge l’azione filmata va considerato come diviso da una linea
immaginaria, chiamata asse, che lo divide in due metà: in una di esse è collocata la mdp,
mentre l’altra costituisce il cosiddetto spazio “profilmico”, quello in cui si svolgerà l’azione
da riprendere. La mdp può muoversi da un’inquadratura all’altra, purché non oltrepassi
l’asse. Se la mdp oltrepassa l’asse, la regola viene violata, il montaggio risulta discontinuo
(Zacks, Speer, Swallow, & Maley, 2010), e avviene lo “scavallamento di campo” che,
generando una incongruenza sensori-motoria, può causare una temporanea sospensione
della simulazione incarnata mediante la quale ci immergiamo nella scena (Gallese & Guerra,
2015). Gli autori, che hanno mostrato ai partecipanti dei filmati in cui variava il tipo di
montaggio utilizzato, durante una registrazione EEG, hanno rilevato che, in linea generale, il
montaggio ingaggia una percezione visiva incarnata che utilizza le precedenti esperienze
sensori-motorie derivate dall’incontro con il mondo reale per mappare, revisionare e
riconoscere le discontinuità delle immagini in movimento del film. Hanno, inoltre, rilevato
che l’incongruenza percettiva derivante dall’osservare sequenze con lo “scavallamento di
campo” è legata alla rilevazione di una violazione della struttura delle azioni osservate;
infatti, in questa condizione, i processi che intervengono normalmente quando rileviamo una
discontinuità, che è insita nel montaggio stesso, vengono inibiti (ampiezza minore della
componente P4-6) mentre, nella condizione in cui il montaggio era continuo, l’attivazione del
meccanismo di simulazione (desincronizzazione del ritmo mu) era maggiore (K. S. Heimann
et al., 2017).
Come abbiamo visto, quindi, diversi studi hanno indagato con successo alcuni aspetti del
linguaggio cinematografico che rendono possibile la nostra esperienza estetica del film e che
innescano meccanismi di quella che abbiamo definito come “simulazione liberata”, ma
ancora molti aspetti rimangono ancora da indagare.
21
1.3.1 L’Effetto Kuleshov
Come anticipato, per comprendere il linguaggio cinematografico bisogna codificarne la
sintassi anche attraverso la ricerca neuroscientifica. Uno degli aspetti "sintattici" più
importanti di questo linguaggio è sicuramente il montaggio video, come emerso anche da
precedenti studi (K. S. Heimann et al., 2017). Tra i diversi contributi teorici in questo ambito
dobbiamo ricordare quelli di Lev Kuleshov (1899 - 1970), cineasta russo che durante il primo
ventennio del '900 comprese la potenza, non solo narrativa, del montaggio. Lev Kuleshov
basò il suo lavoro sulle tecniche del regista americano David Griffith (1875 - 1948) che nel
1915, con il film “Nascita di una Nazione”, aveva codificato le regole del cinema narrativo
moderno, valide tutt'oggi. Il montaggio narrativo di Griffith prendeva vita attraverso l'unione
di inquadrature (che chiameremo shots) che formavano scene e sequenze filmiche le cui
caratteristiche di continuità davano vita alla narrazione cinematografica. Lev Kuleshov capì
che una stessa inquadratura accostata ad altre inquadrature di natura diversa cambiava la
percezione della scena nell'osservatore, così nel 1920 mise a punto un esperimento per
verificare questa sua intuizione. Le informazioni sul tipo di sequenze utilizzate da Kuleshov
non sono certe, ma diversi autori riportano che il regista creò tre diverse sequenze nelle quali
alla stessa inquadratura del primo piano del volto, con espressione neutra, dell'attore Ivan
Mozzhukhin accostò tre inquadrature che mostravano ciò che l’attore stava guardando: una
bambina che gioca con una palla, una donna morta in una bara, un piatto di zuppa. Gli
spettatori cui vennero mostrate queste sequenze riferirono che, in base al contesto, il volto
dell'attore appariva felice, triste o affamato (Kuleshov, 1974; Pudovkin, 1970). Il regista
osservò, quindi, che la percezione emotiva del volto neutro dell'attore cambiava in base al
contesto cui era associato attraverso il montaggio, pur rimanendo sempre lo stesso in tutte
le scene proposte. Questo effetto di montaggio divenne da allora noto come "Effetto
Kuleshov".
Le scene create da Kuleshov possono essere interpretate in due modi differenti. La prima
interpretazione spiega il legame tra le due inquadrature in senso cognitivo: si potrebbe
pensare, infatti, che attraverso il montaggio si evochi l'immagine di ciò a cui
l'attore/personaggio sta pensando in quel momento della scena. L'oggetto dell'inquadratura
non sarebbe, quindi, presente fisicamente, ma solo immaginato dall'attore.
22
La seconda interpretazione si basa invece sull'idea che tra le due inquadrature ci sia un
legame spaziale: la scena ci mostrerebbe in questo caso ciò che l'attore sta effettivamente
guardando. L'oggetto dell'inquadratura in questo caso è presente ed è l'oggetto
dell'attenzione dell'attore. Questa seconda interpretazione della scena presuppone che
l'accostamento delle inquadrature sia coerente nel tempo e nello spazio con il punto di vista
dell'attore (“point of view” o POV). Le caratteristiche formali che inducono lo spettatore a
fare delle inferenze sul punto di vista dell'attore sono otto (Persson, 2003):
1) Lo sguardo non deve essere diretto verso la macchina da presa;
2) L'inquadratura dell'oggetto deve essere presentata nella prospettiva dello sguardo
dell'attore o di un osservatore esterno;
3) L'inquadratura del volto e quella dell'oggetto devono essere seguite da una terza
inquadratura del volto dell'attore;
4) Il contesto della prima inquadratura deve essere congruente a quello della seconda
inquadratura in modo da mantenere lo sfondo e l'illuminazione costanti;
5) L'attore deve cambiare comportamento subito prima del primo cambio di
inquadratura;
6) L'attore mostra qualche forma di reazione nella terza inquadratura;
7) La colonna sonora deve essere la stessa per tutta la scena;
8) La relazione spaziale tra l'osservatore e l'oggetto viene stabilita in precedenza.
Secondo alcuni teorici, l’effetto Kuleshov si instaura, quindi, nello spettatore quando la
sequenza filmica, composta dall’inquadratura del contesto (object shot) tra due inquadrature
del volto dell’attore (glance shot), è costruita rispettando le regole del POV. Nel tempo,
diversi autori hanno avanzato delle ipotesi per spiegare l’effetto rilevato da Kuleshov e per
capire in che modo venga assegnata dallo spettatore una emozione al volto dell’attore sulla
base del contesto.
Carroll afferma che quando guardiamo il volto di un attore questo riveste una grande
importanza nel determinare il modo in cui concepiamo il suo stato emotivo, ma ammette
che le informazioni che traiamo sono generali e che qualsiasi emozione è causata o è in
relazione con un oggetto (J. M. Carroll & Russell, 1996b). Già nel 1751, Charles LeBrun nel
suo libro “Conference sur l'Expression Generale et Particuliere des Passion” affermava che
l’osservatore può avere un’indicazione solo generale sul tipo di emozione ritratta e, come
23
specifica Richard Wollheim, “nella mente dell’osservatore c’è incertezza, ambiguità e
vaghezza sul tipo di emozione attribuita al volto che si osserva” (LeBrun & Picart, 1713;
Richard, 1987). Secondo Carroll ciò che ci permette di porre fine a questa ambiguità è la
comprensione dell’oggetto con cui quell’emozione è correlata. Riportando questo
ragionamento alla struttura del POV, Carroll ipotizza che l’emozione del personaggio è
rappresentata, all’interno del montaggio che segue le caratteristiche del POV, attraverso la
relazione funzionale reciproca tra il glance shot e l’object shot. Nello specifico, il glance shot
imposta una certa gamma emotiva di rilievo che guida la percezione, poiché, come anticipato
parlando dell’approccio categoriale, siamo in grado di trarre informazioni emotive dai volti.
L’object shot, anche sulla base della gamma emotiva espressa dal glance shot, focalizza la
percezione iniziale su una particolare emozione grazie al fatto che fornisce un correlato
oggettuale e di contesto che ci permette di comprendere il vissuto emotivo del soggetto(l
Carroll, 1993).
Nelle sequenze utilizzate da Lev Kuleshov, tuttavia, le informazioni che gli osservatori
potevano trarre dal volto dell’attore non erano emotivamente rilevanti e quindi il giudizio
sulla natura emozionale del volto stesso proveniva esclusivamente dalle informazioni che si
potevano trarre dal contenuto espresso dall’object shot.
Barratt nel 2016 ha parlato di due differenti ipotesi interpretative circa l’“effetto Kuleshov”:
la prima, da lui definita come “weak version” coinciderebbe con la teoria proposta da Carroll,
mentre la seconda, definita come “strong version”, sosterrebbe che l’interpretazione dello
stato emozionale del soggetto delle riprese venga affidata dallo spettatore solo ed
esclusivamente alle informazioni emotive derivanti dal contesto (Barratt, 2015).
Secondo Barrett, invece, l’effetto Kuleshov potrebbe essere spiegato da un meccanismo in
cui intervengono elaborazioni cognitive che, una volta rilevate le sensazioni visive del
contesto emotivo, le interpretano mediante le corrispondenti rappresentazioni affettive
soggettive, generando una previsione che permette di percepire volti neutri come volti
emotivi (Barratt, 2015; Barrett & Bar, 2009).
Calbi e colleghi ritengono invece che il contesto inneschi l'eccitazione e la reazione emotiva
nell'osservatore che poi attribuisce un valore emotivo a una faccia neutra (Calbi et al., 2017)
attraverso una sorta di contagio emotivo tra stimoli.
24
1.3.2 Repliche precedenti
Sebbene questo effetto del montaggio cinematografico sia stato utilizzato anche da registi di
fama mondiale come Alfred Hitchcock (ne è un esempio paradigmatico il suo celebre film "La
finestra sul cortile"), non sono stati molti gli studi scientifici che hanno cercato di riprodurre
l'effetto descritto negli anni ‘20 da Kuleshov e quelli che hanno provato a ricreare un
paradigma ispirato all’effetto Kuleshov lo hanno fatto ottenendo risultati contrastanti.
Il primo studio che ha cercato di replicare l'originale di Lev Kuleshov è stato quello di Prince
e colleghi del 1992. Questi autori hanno presentato a 137 studenti una sequenza della durata
totale di 21 secondi composta da 3 inquadrature: un primo piano di un attore con volto
neutro, una tra tre scene emotive (una bambina sorridente che gioca con un orso di peluche,
una donna stesa in una bara, una coppa di zuppa fumante su un tavolo) e la riproposizione
del volto neuro dell’attore presentato precedentemente. I partecipanti potevano scegliere
tra sette categorie emotive per indicare lo stato emotivo dell’attore presente nella scena, ma
i risultati hanno mostrato come essi scegliessero quasi sempre la categoria “nessuna
emozione”. Probabilmente i ricercatori non hanno trovato evidenze sulla presenza
dell’effetto Kuleshov anche a causa del disegno sperimentale adottato che prevedeva di
sottoporre ogni partecipante alla visione di una sola sequenza (single trial experiment)
(Prince & Hensley, 1992).
Un secondo studio che ha riproposto l’effetto Kuleshov è quello di Mobbs e colleghi del 2006.
I ricercatori hanno presentato a 14 partecipanti 24 sequenze filmiche di cui otto con contesto
neutro, otto con contesto positivo e 8 con contesto negativo. Al contesto era associato un
volto creato attraverso un software di morphing che poteva essere positivo (25% positivo e
75% neutro) o negativo (25% negativo e 75% neutro). In questo studio le sequenze erano
composte dalla scena con il contesto (4000 ms) seguita dal volto (750 ms) seguendo le regole
del “POV retrospettivo”. I partecipanti dovevano valutare le sequenze attraverso due scale,
una di Valenza ed una di Attivazione (si veda Approccio Dimensionale 1.1), durante una
registrazione fMRI. I ricercatori hanno evidenziato che le sequenze in cui erano presenti
scene emotive, non solo erano associate a risposte più alte nelle scale di Valenza e
Attivazione, ma comportavano un aumento del segnale BOLD (Blood oxygen level dipendent)
nella regione dell’amigdala. In questo studio, tuttavia, la sequenza delle scene non
corrispondeva a quella originaria dell’effetto Kuleshov e i tempi di presentazione utilizzati
25
rispondevano alle esigenze della registrazione fMRI più che a regole di montaggio
cinematografico, quindi i risultati ottenuti in questo studio sono di difficile valutazione e
collocazione nell’ambito della ricerca sull’effetto cinematografico indagato (Mobbs et al.,
2006).
Più recentemente, nel 2016, Barratt e colleghi hanno proposto un disegno sperimentale per
indagare la presenza dell’effetto Kuleshov, prestando particolare attenzione alla costruzione
delle scene da mostrare ai partecipanti. Nel loro studio hanno mostrato a 36 partecipanti 144
scene costruite per replicare al meglio le scene presentate da Kuleshov negli anni ‘20. Questi
autori hanno utilizzato 12 volti di uomini e 12 volti di donne con espressione neutra, scelti
dal Karolinska Directed Emotional Faces picture set (Lundqvist et al., 1998), con
orientamento a tre quarti, per creare l'illusione che il soggetto stesse dirigendo lo sguardo
verso qualcosa, cui è stato applicato un effetto di “zoom in” in modo tale da rispettare le
regole del POV (si veda 1.3.1) e aumentare la possibilità che i partecipanti percepissero le
scene che componevano la sequenza come spazialmente correlate. La sequenza utilizzata
era composta dall’immagine del volto neutro appena descritta, una scena di contesto in un
set di sei diverse condizioni (felicità, tristezza, fame, paura, desiderio e una “condizione nulla”
che prevedeva la presentazione di un conto alla rovescia numerico in modo tale da
focalizzare l’attenzione del partecipante senza però presentare alcuna scena di contesto vera
e propria), ed ancora l’immagine del volto iniziale. Ogni scena durava 3 secondi e quindi ogni
sequenza aveva la durata totale di 9 secondi. Ai partecipanti veniva chiesto di valutare ogni
sequenza, e nello specifico l’emozione provata dalla persona presente nella sequenza, sia
seguendo un approccio dimensionale, attraverso una scala di Valenza ed una di Attivazione,
sia seguendo un approccio categoriale, attraverso un compito di categorizzazione emotiva,
mentre i ricercatori registravano i movimenti oculari dei partecipanti. I risultati di questo
studio hanno mostrato che i volti neutri associati a contesti tristi, ma non a contesti di paura,
venivano valutati dai partecipanti con valenza più negativa e attivazione più bassa, mentre
volti neutri associati a contesti di desiderio venivano valutati con valenza più positiva e
attivazione più alta, confermando così le osservazioni iniziali di Lev Kuleshov.
Seguendo un approccio ancora più ecologico, Calbi e colleghi nel 2017 hanno riproposto
questo stesso paradigma con qualche variazione. In questo studio venivano mostrate 18
sequenze filmiche a 28 partecipanti in cui le condizioni relative alle scene di contesto erano
solo tre (paura, felicità e un vero e proprio contesto neutro al posto della “condizione nulla”
26
presente nello studio di Barratt e colleghi). Inoltre, le sequenze filmiche utilizzate, pur
essendo costruite nello stesso modo, avevano una durata totale di 6 secondi (i volti venivano
presentati per 1.5 secondi). Gli autori hanno chiesto ai partecipanti di valutare l’emozione
dell’attore in termini di Valenza e Attivazione, rifacendosi così all’approccio dimensionale, in
una sessione sperimentale separata rispetto alla domanda di categorizzazione in cui si
chiedeva al partecipante di associare l’emozione della persona presentata nella sequenza ad
una etichetta emotiva. I partecipanti, quindi, guardavano il set di 18 sequenze filmiche due
volte in tutto. I risultati di questo esperimento hanno mostrato una modulazione significativa
delle risposte dei partecipanti solo quando i volti neutri erano associati ad un contesto di
paura. Nello specifico, i partecipanti valutavano l’emozione della persona presentata nella
sequenza con valenza più negativa ed attivazione più alta rispetto a quando il volto era
associato ad un contesto neutro o ad un contesto di felicità. Dal punto di vista della
categorizzazione emotiva, invece, i partecipanti sembravano attribuire al volto un’emozione
congruente al contesto presentato nella sequenza sia quando questo era un contesto di
felicità sia quando era un contesto di paura.
1.4 Obiettivi
Il nostro studio si pone in diretta continuità con quello di Calbi e coll. (2017). Riproporremo
infatti un disegno sperimentale paragonabile utilizzando sequenze filmiche che hanno le
stesse caratteristiche di quelle utilizzate da questi autori (si veda 2.2). Alla componente
comportamentale dello studio aggiungeremo tuttavia una componente di analisi
elettrofisiologica con l’utilizzo dell’EEG, con l’obiettivo di indagare i correlati temporali
dell’effetto del contesto sull’analisi visiva dei volti e delle espressioni facciali, alla luce delle
potenzialità che l’effetto Kuleshov ci offre in ambito sperimentale. Ci aspettiamo di rilevare
differenze significative nella valutazione dei volti neutri associati a contesti con valenza
emotiva rispetto ai volti associati a contesto neutro. Nello specifico, ci aspettiamo che i volti
neutri associati ad un contesto di paura vengano valutati con una Valenza negativa e
un’Attivazione più alta e che i volti neutri associati a contesto di felicità vengano valutati con
Valenza positiva e un’Attivazione più alta rispetto ai volti neutri associati a contesti neutri.
Coerentemente con quanto trovato dal Calbi e colleghi, ci aspettiamo anche che i
27
partecipanti categorizzino le emozioni espresse dai volti in modo coerente alla scena di
contesto presentata nella sequenza. Dal punto di vista elettrofisiologico ci aspettiamo,
inoltre, di rilevare modulazioni significative nell’attività elettrica cerebrale evocata dalla
visione dei volti in base al tipo di contesto presentato nella sequenza, in modo coerente con
quanto riportato in letteratura riguardo l’analisi di espressioni emotive. Nello specifico ci
aspettiamo di trovare una modulazione precoce nelle condizioni emotive già da circa 80 ms
dopo la presentazione dello stimolo come rilevato da altri autori (Eger, Jedynak, Iwaki, &
Skrandies, 2003a; Pourtois et al., 2005). Inoltre, ci aspettiamo di trovare una modulazione
tardiva positiva come un Late Positive Potential (LPP), associato anche in questo caso alle
condizioni emotive, che rifletta una modalità di elaborazione percettiva e cognitiva di ordine
superiore rispetto all’elaborazione precoce dello stimolo (Kok, 2000).
28
Capitolo 2
Materiali, Metodi e Risultati
2.1 Campione Sperimentale
Il campione sperimentale era composto da 14 partecipanti (6 maschi e 8 femmine, con
età media - M di 25.5 e Deviazione Standard - DS di ± 1.98 anni, compresa in un range di 23-
30 anni). In base alla somministrazione della versione italiana dell'Edinburgh Handedness
Inventory (Oldfield, 1971) 13 partecipanti risultavano destrimani e solo uno ambidestro
(Tabella 2.1), inoltre tutti i partecipanti avevano un'acuità visiva nella norma o corretta alla
normalità. I partecipanti erano selezionati all'interno del bacino di utenza dell'Università
degli studi di Parma attraverso un annuncio pubblico e risultavano avere un elevato livello di
scolarizzazione (M di 15.2 anni e DS di 2 anni) Per gli scopi del nostro studio erano stati esclusi
i partecipanti che avevano subito traumi cerebrali, partecipanti francamente mancini e/o con
malattie neurologiche conclamate. Prima dell'inizio dello studio i partecipanti avevano letto
e firmato un consenso informato approvato dall’Institutional Review Board dell’Università di
Parma, e dopo l'esperimento erano ricompensati con una somma in denaro pari a 15 euro.
Tab 2.1 Valori relativi alla numerosità campionaria (N), al valore minimo (Min.) e massimo (Max.) rilevato e alla Media (Media),
Deviazione standard (Std. Dev.) e Varianza (Var.) relative a tre variabili descrittive del nostro campione (Manualità, Età e Scolarità
misurata in anni frequentati).
Per quanto riguarda le analisi delle risposte comportamentali dei partecipanti, verranno
presentati i risultati relativi ai dati del campione completo di 14 partecipanti. Poiché i dati
EEG di quattro partecipanti sono stati scartati a causa dell'eccessiva presenza di artefatti
dovuti principalmente a movimenti durante la registrazione (si veda 2.6.1), il campione
Tabella 2.1
29
sperimentale finale per le analisi EEG è stato ridotto, invece, a 10 partecipanti (3 maschi e 7
femmine, con età media - M di 24.9 e Deviazione Standard - DS di ± 1.52 anni, compresa in
un range di 23-27 anni) (Tabella 2.2).
Tab 2.2 Valori relativi alla numerosità campionaria (N), al valore minimo (Min.) e massimo (Max.) rilevato e alla Media (Media),
Deviazione standard (Std. Dev.) e Varianza (Var.) relative a tre variabili descrittive del nostro campione (Manualità, Età e Scolarità
misurata in anni frequentati).
2.2 Stimoli
Gli stimoli somministrati ai partecipanti erano costituiti da sequenze filmiche ottenute
attraverso il montaggio di tre inquadrature (shots) che avevano le seguenti caratteristiche e
che rispettavano sempre il seguente ordine di presentazione:
1) Primo Glance Shot (Volto Neutro)
Le immagini dei volti sono state scelte dal database Karolinska Directed Emotional Faces
(Lundqvist et al., 1998). Il set di volti comprendeva 24 volti neutri (Figura 2.1), di cui 12 di
uomini e 12 di donne, presentati in una prospettiva ottica ambigua (a tre quarti) per creare
l'illusione che il soggetto stesse dirigendo lo sguardo verso qualcosa. Inoltre, per controllare
eventuali effetti legati alla direzione del volto, e quindi dello sguardo, ognuno dei 24 volti
scelti veniva presentato sia nella sua versione orientata verso destra, sia nella sua versione
orientata verso sinistra.
Tabella 2.2
30
2) Object Shot (Contesto)
Le scene contestuali selezionate erano costituite da video (tratti da YouTube e Vimeo)
categorizzati in tre condizioni differenti: due emotivamente connotate e una neutra. A
differenza dello studio di Barratt e colleghi (Barratt, 2015), abbiamo ritenuto opportuno
ridurre a due il numero di condizioni emotive presentate, felicità e paura, e sostituire la
condizione nulla (schermo nero con presentazione di numeri) con una condizione neutra
caratterizzata dalla presenza di un contesto privo di valenza emotiva. Per la condizione di
felicità (valenza positiva) sono stati proposti per lo più video che riprendevano cuccioli o
bambini (Fig. 2.2a), per la condizione di paura (valenza negativa) sono state selezionate scene
che presentavano situazioni di pericolo, come scene di guerra, o scene che riprendevano
animali atavicamente ritenuti pericolosi come ragni o serpenti (Figura 2.2b). Infine, per la
condizione neutra (assenza di valenza emotiva) sono state utilizzate scene che riprendevano
traffico cittadino, campagne o scene carenti di stimoli salienti (Figura 2.2c).
Figura 2.1
31
Tutti i video di contesto utilizzati sono stati selezionati grazie ad un esperimento di
validazione ad hoc in cui 22 partecipanti volontari (10 maschi e 12 femmine, con età media
di 30,4 ± 5,04 anni, compresa in un range di 22- 42 anni) valutavano 97 scene di contesto. Ai
partecipanti era chiesto di valutare ciascuna scena in termini di attivazione (arousal), valenza
emotiva e categorizzazione esplicita. Gli stimoli sperimentali sono stati poi selezionati sulla
base del rating di valenza, ottenendo così 48 video di scene di contesto (16 per ognuna delle
due condizioni emotive, felicità e paura, e 16 per la condizione neutra).
(c)
(a)
Figura 2.2
(b)
32
3) Secondo Glance Shot (Volto Neutro)
Il secondo glance shot, che indicheremo d’ora in poi come Volto_2, era costituito dallo stesso
volto presentato nel primo glance shot, riproposto per la seconda volta con lo stesso
orientamento.
Alle immagini statiche dei volti è stato aggiunto un movimento di zoom digitale in avanti in
modo tale da simulare una situazione dinamica e, successivamente, tra le due inquadrature
dei volti (glance shots) sono state aggiunte le scene di contesto (object shot) in modo da
ottenere sequenze filmiche caratterizzate come descritto sopra. Inoltre, i colori dei video
sono stati ridotti ad una scala di grigi, attraverso la riduzione del livello di saturazione,
creando così una maggiore continuità cromatica all'interno delle sequenze. In tutte le
sequenze realizzate, ogni Glance Shot aveva la durata di 1500 ms, mentre l'Object Shot aveva
una durata di 3000 ms. La durata totale di ciascuna sequenza filmica era, quindi, di 6000 ms,
a differenza delle sequenze di durata di 9000 ms utilizzate da Barratt e colleghi (Barratt,
2015).
Dal montaggio di questi tre shots abbiamo ottenuto 288 sequenze filmiche caratterizzate dal
fatto di essere l'una diversa dall'altra per almeno una caratteristica specifica della sequenza
(volto, sesso del volto, orientamento del volto, contesto) al fine di non ottenere effetti
confondenti dovuti alla familiarità percettiva che si sarebbe creata alla ripetizione della
stessa sequenza durante l'esperimento.
Le sequenze sono state presentate in formato Audio Video Interleave (AVI) con risoluzione
640x480 pixel e con una frequenza media di 60 fotogrammi al secondo (fps). Ogni trial
sperimentale era costituito da una croce di fissazione nera su sfondo grigio posta al centro
dello schermo con una durata di 400 ms (al fine di focalizzare l'attenzione del partecipante)
seguita dalla sequenza filmica. La sequenza veniva presentata con un aspetto di forma di 4:3
con un background nero. Dopo ogni sequenza venivano presentate (in ordine casuale) le due
domande sperimentali che verranno descritte in seguito (si veda 2.3.1). Tra un trial e il
successivo veniva interposto un intertrial interval (ITI) di durata variabile (1000 o 1500 ms).
33
2.3 Procedura
Dopo l'arrivo in laboratorio, ai partecipanti veniva chiesto di compilare alcuni
questionari (si veda 2.4) e di leggere e firmare il consenso informato per la partecipazione
all'esperimento. Successivamente, il partecipante era preparato all'acquisizione dei dati di
EEG. Era quindi prevista una fase di Training cui seguiva la fase sperimentale vera e propria
durante la quale venivano acquisiti i dati di EEG:
1) Training
In questa fase, il partecipante era istruito sul compito che avrebbe dovuto svolgere e
sulle tempistiche da rispettare per rispondere alle domande che gli sarebbero state
presentate (si veda 2.3.1). Per fare questo, dopo una breve spiegazione, al partecipante
venivano presentati otto stimoli sperimentali (che non avrebbe poi rivisto nella fase
sperimentale vera e propria) con le relative domande in modo da comprendere meglio il
compito stesso ed esercitarsi a rispondere nei tempi previsti. Se il partecipante lo richiedeva,
o se le sue risposte non rispettavano ancora le tempistiche richieste, si ripeteva la fase di
training. Durante questa fase il partecipante veniva anche istruito riguardo alcuni
comportamenti che avrebbe dovuto evitare di mettere in atto durante la registrazione EEG
e, soprattutto, durante la visione delle sequenze filmiche. Tra le raccomandazioni, si chiedeva
di prestare particolare attenzione al muoversi il meno possibile, a non sbattere gli occhi, a
non incrociare le gambe e a rimanere rilassato.
2) Fase Sperimentale
Dopo la fase di training iniziava una prima fase sperimentale durante la quale avveniva la
registrazione dei dati di EEG. Questa fase era divisa in sei blocchi, che si susseguivano in
ordine casuale, e durante ogni blocco al partecipante venivano presentati 48 trials
sperimentali il cui ordine di presentazione era anch'esso casuale. Ogni blocco conteneva 16
sequenze sperimentali (stimoli) per ognuna delle tre condizioni descritte precedentemente
(si veda 2.2). Il sesso (maschile e femminile) e la lateralizzazione (orientamento verso destra
e verso sinistra) dei volti presentati in ogni blocco erano bilanciati in modo tale da mantenere
costanti e controllate le variabili relative a queste caratteristiche. Tra un blocco e quello
successivo veniva fatta una pausa, di durata variabile, durante la quale venivano controllati i
34
valori delle impedenze degli elettrodi e, laddove necessario, venivano riportate al di sotto del
valore soglia di 50 kΩ (si veda 2.6). Una volta completata questa fase, al partecipante veniva
tolta la cuffia per la registrazione EEG.
Dopo la registrazione EEG il partecipante doveva completare una seconda fase sperimentale
che prevedeva una nuova somministrazione di tutte le 288 sequenze filmiche. Al termine di
ogni sequenza era chiesto al partecipante di effettuare un compito di categorizzazione (si
veda 2.3.2).
Tutti i trials sperimentali (si veda 2.2) venivano presentati su un monitor attraverso il
Software E-Prime (Schneider, Eschman, & Zuccolotto, 2002) con il quale erano state
registrate anche le risposte dei partecipanti. La durata totale dell'esperimento era di circa
due ore (di cui circa un'ora per la Fase sperimentale che prevedeva l'acquisizione dei dati di
EEG).
2.3.1 Compito Sperimentale
Al partecipante veniva chiesto semplicemente di guardare le sequenze filmiche presentate,
descritte come delle semplici situazioni filmate in cui un uomo o una donna
guardavano una scena di contesto. Come anticipato, dopo la visione di ogni sequenza, ai
partecipanti venivano presentate (in ordine casuale) due domande alle quali dovevano
rispondere con l'utilizzo del mouse, su una Visual Analog Scale, attribuendo la loro
valutazione al secondo volto che compariva nella sequenza filmica (Volto_2). I partecipanti
avevano un tempo limitato per rispondere ad ogni domanda (di massimo 3000 ms). Le due
domande riguardavano:
1) Valenza
Al partecipante veniva richiesto di indicare la valenza dell'emozione della persona che
compariva dopo la scena (Volto_2). La scala era divisa visivamente in nove punti, che
indicavano diversi livelli di valenza emotiva, cui erano associati dei numeri. La scala, infatti,
andava da un valore di -4 (valenza negativa) ad un valore di +4 (valenza positiva) passando
per lo 0 (Figura 2.3a). Il puntatore era posizionato in corrispondenza dello 0 ogni volta che la
35
domanda veniva presentata e il partecipante doveva muovere il mouse liberamente per
rispondere alla domanda secondo la sua valutazione.
2) Attivazione (Arousal)
Al partecipante veniva chiesto di indicare il livello di attivazione della persona che compariva
dopo la scena (Volto_2). Anche in questo caso la scala era divisa visivamente in nove punti
che indicavano diversi livelli di attivazione contraddistinti da numeri. La scala andava da un
valore di 1 (calmo) ad un valore di 9 (eccitato) (Figura 2.3b). Il puntatore, ad ogni
presentazione della domanda, era posizionato in corrispondenza del valore medio (5) e il
partecipante doveva muovere il mouse liberamente per rispondere alla domanda secondo la
sua valutazione.
2.3.2 Compito di Categorizzazione
Come anticipato, i partecipanti dovevano eseguire anche un compito di categorizzazione
(nella seconda fase sperimentale) nel quale erano invitati ad attribuire un'etichetta emotiva
all'emozione del Volto_2. Ai partecipanti venivano date le seguenti sei possibili etichette
emotive ,le sei emozioni di base individuate da Ekman (Ekman, 1993), associate a sei tasti di
una tastiera: Felicità, Tristezza, Paura, Rabbia, Disgusto, Sorpresa (Figura 2.4).
Inoltre, veniva data una settima opzione (identificata con la dicitura “Altro”) attraverso la
quale i partecipanti potevano esprimere un proprio giudizio sull'emozione provata dalla
Figura 2.3
36
persona (scrivendolo loro stessi) qualora questo non fosse contemplato all'interno delle
possibili sei etichette emotive presentate.
In Figura 2.5 riassumiamo l’ordine di presentazione delle sequenze filmiche e delle domande
di valenza e attivazione (compito sperimentale) e di categorizzazione.
Figura 2.4
37
Figura 2.5
2.4 Questionari
Ad ogni partecipante veniva somministrata una batteria di test. Il giorno prima della seduta
sperimentale il partecipante era invitato a compilare alcuni questionari inviati in forma
telematica tramite Moduli di Google (Google Inc.) che comprendevano:
1) Interpersonal Reactivity Index (IRI) (Davis, 1983)
38
2) Behavioral Activation / Inhibition System Scale (BIS BAS) (Carver & White, 1994)
3) Toronto Alexithymia Scale (TAS 20) (Bagby, Parker, & Taylor, 1994)
4) Forma X2 dello State / Trait Anxiety Scale (STAI X2) (Spielberger, Gorsuch, & Lushene,
1968)
In laboratorio invece il partecipante era invitato a compilare, prima della registrazione EEG:
1) Edinburgh Handedness Inventory (Oldfield, 1971)
2) Forma X1 dello State / Trait Anxiety Scale (STAI X1) (Spielberger et al., 1968)
Dopo la sessione di EEG il partecipante doveva invece compilare:
1) Forma X3 dello State / Trait Anxiety Scale (STAI X) (Spielberger et al., 1968)
2) Giudizio di Familiarità
2.4.1 Interpersonal Reactivity Index
L'Interpersonal Reactivity Index (IRI) (Davis, 1983) indaga la responsività empatica attraverso
la misura integrata di componenti affettive e cognitive (Albiero, Ingoglia, & Lo Coco, 2006).
Si compone di quattro sottoscale:
1) IRI EC (Empathic Concern)
Misura la reazione emotiva del partecipante orientata verso la condivisione dell'esperienza
altrui.
2) IRI PD (Personal Distress)
Misura la reazione emotiva del partecipante orientata alla comprensione dei propri stati
d'ansia e preoccupazione in situazioni relazionali.
3) IRI PT (Perspective Taking)
Indaga l'abilità del partecipante di adottare il punto di vista altrui.
4) IRI FS (Fantasy Scale)
39
Indaga la tendenza del partecipante ad immaginarsi in situazioni fittizie
2.4.2 Behavioral Activation / Inhibition System Scale
Il Behavioral Activation / Inhibition System Scale (BIS/BAS) (Carver & White, 1994) misura le
capacità generali del partecipante di autoregolarsi (Leone, Pierro, & Mannetti, 2002) e
prevede due sottoscale:
1) BAS (Behavioral Activation System)
Ci fornisce una misura dei sistemi di attivazione del partecipante attraverso tre sottoscale:
a) Drive
Indaga la tendenza del partecipante a perseguire con intensità mete di tipo affettivo.
b) Reward Responsiveness
Indaga la responsività e sensibilità del partecipante alle opportunità di ricompensa.
c) Fun Seeking
Indaga la spinta del partecipante a sperimentare situazioni nuove legate all'immediato
raggiungimento di un obiettivo premiante.
2) BIS (Behavioral Inibition System)
Ci fornisce una misura di inibizione comportamentale del partecipante.
2.4.3 Toronto Alexithymia Scale
Il Toronto Alexithymia Scale (TAS-20) (Bagby et al., 1994) misura il grado di consapevolezza
emotiva dei partecipanti per evidenziare se ci sono deficit problematici nel mentalizzare,
percepire, riconoscere e descrivere i propri o gli altrui stati emotivi, caratteristici dei soggetti
Alessitimici (La Ferlita, Bonadies, Solano, De Gennaro, & Gonini, 2007). Il test è composto da
tre sottoscale che misurano i tre fattori principali legati a questo deficit:
1) TAS DIF (Difficulty Identifying Feelings)
40
Indaga le possibili difficoltà nell'identificare i sentimenti.
2) TAS DDF (Difficulty Describing Feelings)
Indaga le possibili difficoltà nel descrivere i sentimenti.
3) TAS EOT (Externally Oriented Thinking)
Misura l'orientamento del pensiero verso l'esterno.
2.4.4 State / Trait Anxiety Scale
Il State / Trait Anxiety Scale (STAI) (Spielberger et al., 1968) è diviso in due sottoscale (e tre
forme):
1) STAI X1 / X3
Nelle forme X1 e X3 il test valuta l'Ansia di Stato del partecipante prima e dopo l'esperimento
(PRE e POST) (Pedrabissi & Santinello, 1989). L'Ansia di Stato è concettualizzata come uno
stato transitorio emozionale caratterizzato da sentimenti soggettivi di tensione ed
apprensione percepiti a livello cosciente che possono variare e fluttuare nel tempo e nella
forma.
2) STAI X2
Nella forma X2 il test valuta l'Ansia di Tratto che si riferisce a differenze individuali
relativamente stabili nella disposizione e nella tendenza a rispondere con innalzamento
dell'intensità dell'Ansia in situazioni percepite come minacciose (Pedrabissi & Santinello,
1989).
2.4.5 Giudizio di Familiarità
Ad esperimento concluso (dopo aver effettuato il compito di categorizzazione) i partecipanti
dovevano rispondere a sei domande aperte che risultavano utili per verificare che i
partecipanti non avessero capito l'obiettivo sperimentale, che non fossero stati influenzati
41
da conoscenze pregresse riguardo l'effetto studiato, e che non avessero familiarità con i
video presentati. Le domande proposte erano le seguenti:
1) Prima di oggi hai mai visto qualcuno di questi video?
2) Riguardo cosa pensi che sia l'esperimento?
3) C'era qualcosa di poco chiaro/confuso nell'esperimento?
4) Qual era la tua impressione dei diversi volti?
5) Hai altri commenti?
6) Hai mai sentito parlare dell’effetto Kuleshov?
2.5 Analisi Comportamentale
Per le analisi statistiche abbiamo utilizzato il Software R (Team, 2014). Nello specifico,
abbiamo utilizzato la funzione lme implementata nel pacchetto nlme (Pinheiro et al., 2017) per
la definizione del modello statistico e la funzione glht implementata nel pacchetto multcomp
(Hothorn, Bretz, Westfall, & Heiberger, 2008) per le analisi Post Hoc basate sul modello
ottenuto. Inoltre, per stimare i coefficienti di determinazione del nostro modello abbiamo
utilizzato la funzione r.squaredGLMM implementata nel pacchetto MuMIn (MuMIn, 2018).
Per tracciare i grafici abbiamo utilizzato la funzione ggplot implementata nel pacchetto
ggplot2 (Kahle & Wickham, 2013). Per il calcolo delle medie campionarie relative ai dati
riportati in Figura 2.6 abbiamo utilizzato la funzione lsmeans implementata nel pacchetto
lsmeans (Lenth, 2016).
Come proposto da Barratt e colleghi (Barratt, 2015), abbiamo riscalato i punteggi di risposta
dei partecipanti in modo tale da centrarli sulla media relativa alle risposte di tutto il campione
in relazione alla specifica domanda presa in considerazione (valenza e attivazione, si veda
2.4). Per fare questo abbiamo per prima cosa trasformato i punteggi iniziali relativi alla Visual
Analog Scale, che andavano da 1 a 100, nei punteggi relativi alla specifica scala a nove punti
riportata per ogni domanda (da −4 a +4 per la Valenza e da 1 a 9 per l'Attivazione). Dopo aver
fatto questo, ad ogni punteggio è stato sottratto il punteggio medio relativo alla specifica
42
domanda (Tabella 2.3). In questo modo lo zero corrispondeva alla media delle risposte per
quella specifica domanda sperimentale. Questa procedura è stata eseguita per evidenziare
le risposte dei partecipanti superiori (punteggi positivi) o inferiori (punteggi negativi) rispetto
alla media, separatamente per Valenza e Attivazione.
Tab 2.3 Valori relativi alla media delle risposte date dai partecipanti e calcolate separatamente in base alla domanda sperimentale
considerata (Valenza e Attivazione).
Per indagare la modulazione delle risposte dei partecipanti alle domande sperimentali
abbiamo utilizzato un Modello Misto Lineare. Abbiamo infatti utilizzato il punteggio delle
risposte dei partecipanti come variabile dipendente. La Condizione di Contesto presente
nella sequenza (3 livelli: condizione di felicità, di paura e neutra), la Domanda Sperimentale
(2 livelli: Valenza e Attivazione) e il Sesso dei partecipanti (Maschi o Femmine) sono state
utilizzate come variabili indipendenti o predittori. Inoltre, queste tre variabili indipendenti
venivano messe in interazione all'interno del modello in modo tale da comprendere meglio
l'influenza di ognuna di queste sulle risposte dei partecipanti. Per controllare ed escludere
eventuali effetti dovuti al caso (e nello specifico alla variazione idiosincratica dovuta alle
differenze individuali tra i partecipanti che componevano il nostro campione sperimentale)
abbiamo definito il modello in modo tale che venisse assegnata un'intercetta diversa ad ogni
partecipante in relazione alle sue risposte. In questo modo abbiamo escluso possibili
influenze sulle risposte dipendenti dalla variabilità tra i partecipanti, focalizzandoci solo
sull'effetto delle variabili indipendenti. Per escludere possibili ed ulteriori fonti di variabilità
tra le risposte dei partecipanti abbiamo inoltre definito il modello in modo tale che la
pendenza della retta di regressione calcolata per ogni partecipante variasse in relazione
all'interazione tra la variabile relativa alla Condizione di Contesto e la variabile relativa alla
domanda sperimentale. In questo modo abbiamo escluso possibili influenze relative al fatto
Tabella 2.3
43
che partecipanti diversi rispondano in maniera diversa nelle diverse condizioni sperimentali
considerate.
Il nostro modello, quindi, rappresentava una misura della relazione tra la variabile
dipendente e le variabili indipendenti al netto della variabilità dovuta al caso. Il modello è
stato calcolato sulla base del metodo della massima verosimiglianza e, confrontato con un
modello nullo tramite Likelihood Ratio Test, risultava adattarsi significativamente meglio al
fenomeno misurato (Likelihood Ratio = 3720.3; p < .000). La normalità e l’omoschedasticità
sono stati verificati tramite un'ispezione visiva dei grafici relativi alla distribuzione dei residui
del modello. Il modello ottenuto spiegava quasi il 14% della varianza dei punteggi misurati,
senza tenere conto della variabilità dovuta ad effetti casuali. Considerando anche l'influenza
degli effetti casuali inclusi nel modello statistico, la varianza nei dati spiegata cresceva fino a
raggiungere il 38 % (come esposto nella Tabella 2.4).
Tab 2.4 Valori relativi al Marginal R^2, relativo alla varianza dei punteggi misurati dal modello presentato senza tenere conto della
variabilità dovuta ad effetti casuali e al Conditional R^2, relativo alla varianza dei punteggi misurati dal modello presentato tenendo
conto della variabilità dovuta ad effetti casuali inclusi nel modello.
L’effetto delle varie variabili indipendenti inserite nel modello è stato verificato attraverso
un'analisi della varianza (ANOVA) sulla base del modello descritto. In questo modo abbiamo
evidenziato quali variabili e quali interazioni tra le variabili prese in esame risultavano
significative, senza evidenziare nello specifico le differenze tra i vari livelli delle variabili
indipendenti. L’effetto della variabile relativa alla Domanda Sperimentale risultava
significativa (F(1, 8040) =16.29; p <.000). Nello specifico, in base al nostro modello, le risposte
relative alla Valenza (M = 1.014; ES=0.354) risultavano in media superiori (β =1.01; SE =0.35;
t =2.84; p =.004) rispetto a quelle in Attivazione (M =-0.799; ES=0.365). Anche la variabile
relativa alla Condizione di Contesto risultava complessivamente significativa (F(2, 8040)
Tabella 2.4
44
=29.14; p < .000) ma, in base ai risultati del modello, abbiamo notato che l'unica differenza
significativa era presente tra le risposte che i partecipanti attribuivano al volto (Volto_2) nella
condizione di paura (M =1.404; ES=0.276) e nella condizione neutra (M =-0.799; ES=0.365).
Nello specifico, le risposte dei partecipanti nella condizione di paura erano più alte rispetto
a quelle nella condizione neutra (β = 1.0; SE = 0.27; t = 5.08; p <.000). Le risposte dei maschi,
inoltre, non risultavano complessivamente differenti da quelle delle femmine. L'ANOVA ha,
inoltre, mostrato che anche tulle le interazioni a due vie (Condizione di Contesto ∗ Domanda
Sperimentale F(2, 8040) = 14.85; p <.000, Condizione di Contesto ∗ Sesso F(2, 8040) = 4.98;
p =.006, Domanda Sperimentale ∗ Sesso F(1, 8040) = 12.83; p <.000) e l'interazione a tre vie
(Condizione di Contesto ∗ Domanda Sperimentale ∗ Sesso F(2, 8040) = 4.41; p =.01) tra le
variabili sperimentali risultavano significative. Per mostrare tali interazioni, sottolineando le
differenze significative, abbiamo operato dei confronti Post Hoc.
2.5.1 Post Hoc
Abbiamo utilizzato il test di Tukey per confrontare le risposte dei partecipanti (Tabella 2.5).
Tab 2.5 Media: risposta media dei partecipanti; St. Error: errore standard della media; Lower CL: limite inferiore intervallo di confidenza
della media; Upper CL: limite superiore intervallo di confidenza della media
Tabella 2.5
45
Figura 2.6
Fig 2.6 Risposte medie dei partecipanti con relativo errore standard rappresentato con le barre d’errore. Abbiamo evidenziato anche le
differenze significative rilevate nei confronti post hoc con il test di Tukey (*** p <.001; ** p <.001; * p <.01).
In particolare, abbiamo confrontato con il Test di Tukey tutti i livelli della Condizione di
Contesto con i livelli della variabile relativa al sesso dei partecipanti, separatamente per
Valenza ed Attivazione.
***
***
***
*** *
46
Tab 2.6 Estimate: differenza stimata tra le risposte medie dei due livelli della variabile confrontata; St. Error: errore standard; z value:
valore del test di significatività espresso in punti z ; Pr(>|z|): significatività statistica
Tab 2.7 Estimate: differenza stimata tra le risposte medie dei due livelli della variabile confrontata; St. Error: errore standard; z value:
valore del test di significatività espresso in punti z ; Pr(>|z|): significatività statistica
2.5.2 Categorizzazione
Riguardo l'analisi delle risposte dei partecipanti al compito di categorizzazione emotiva degli
stimoli, abbiamo estratto le percentuali di risposta per ogni etichetta emotiva presentata (si
veda 2.3.2) in relazione al contesto emotivo (o neutro) presentato nella sequenza filmica.
Tabella 2.7
Tabella 2.6
47
I risultati ci indicano che i partecipanti nella condizione di felicità rispondevano identificando
l’emozione nel 36% dei casi con l’opzione “Felicità”. Le risposte risultavano quindi coerenti
con il contesto presentato (object shot), anche se rileviamo che i partecipanti sceglievano
nell’11% dei casi anche le opzioni “Tristezza” e “Sorpresa”. Anche nella condizione di paura
le risposte erano coerenti con il contesto presentato (object shot). I partecipanti, infatti,
rispondevano, nella maggior parte dei casi, scegliendo emozioni negative come “Tristezza”,
“Paura”, “Rabbia” e “Disgusto”. Per quanto riguarda la condizione neutra, come ci
aspettavamo, i soggetti sceglievano in modo quasi indifferenziato etichette emotive positive,
come “Felicità” (18%), e negative, come “Tristezza” (16%), dimostrando che il contesto
neutro non influenzava, a differenza dei contesti emotivi, la percezione emotiva del Volto_2.
In quest’ultima condizione i partecipanti sceglievano spesso, nel 16% dei casi, anche
l’opzione “Altro” descrivendo l’emozione, la metà delle volte (122 risposte sulle totali 223
date per l’opzione “Altro”), come esplicitamente neutra.
Tab 2.8 Percentuali di scelta per ogni opzione di risposta disponibile nelle tre condizioni.
2.6 Analisi EEG
Per la registrazione EEG è stata utilizzata una cuffia con 128 canali (Hydrocel Geodesic Sensor
Net - GSN300) (Figura 2.7), mantenendo l'impedenza degli elettrodi al di sotto di 50 kΩ, e un
amplificatore (Net Amps), con una frequenza di campionamento di 500 Hz, prodotti dalla
Electrical Geodesics Inc. La cuffia è stata posizionata con l’elettrodo Cz (Reference) al centro
dello scalpo di ogni partecipante.
Tabella 2.8
48
Figura 2.7
Fig 2.7 Visualizzazione dei 129 elettrodi della cuffia utilizzata divisi in aree topografiche dello scalpo. Le aree topografiche,
evidenziate con diversi colori, erano 9: AS (Anteriore sinistra), AC (Anteriore centrale), AD (Anteriore destra), CS (Centrale sinistra),
CC (Centrale), CD (Centrale destra), PS(Posteriore sinistra), PC (Posteriore centrale), PD (Posteriore destra).
L'acquisizione dei dati di EEG è avvenuta mediante il Software NetStation (Electrical
Geodesics, 2003), mentre per analisi successive (si veda 2.6.1) è stato sia utilizzato il toolbox
di Matlab EEGLAB (Delorme & Makeig, 2004) sia il software Cartool (Brunet, Murray, &
Michel, 2011).
Hydrocel Geodesic Sensor Net
49
2.6.1 Preprocessing
La prima fase relativa alla pulizia dei dati EEG è stata effettuata tramite il Software NetStation
(Electrical Geodesics, 2003). Alla registrazione EEG continua di ogni partecipante è stato
applicato un filtro passa banda che escludeva le frequenze al di sotto di 1 Hz e al di sopra di
30 Hz e un filtro taglia banda (notch) a 50 Hz. Dopo questo passaggio i dati sono stati
segmentati in epoche da 6100 ms che comprendevano i sei secondi relativi alla visione della
sequenza filmica e 100 ms precedenti alla comparsa del primo volto della sequenza, utilizzati
in seguito come baseline. I dati sono stati sottoposti a una Independent Component Analysis
(ICA) (Delorme & Makeig, 2004) al fine di escludere componenti ricorrenti che risultavano
artefattuali, come il movimento degli occhi (saccadi), lo sbattere delle palpebre
(ammiccamenti), il battito cardiaco e le tensioni muscolari temporali o frontali. Prima di
effettuare l’ICA, sono stati eliminati eventuali canali o singole epoche che presentavano
anomalie nell’andamento del tracciato (drift e jump) o anomalie dell’acquisizione dovute
all’amplificatore.
Attraverso l’ICA abbiamo, in media, escluso 10 componenti per ogni partecipante. Dopo
questa prima fase di pulizia, ai dati è stato applicato un ulteriore filtro che escludeva tutte le
frequenze al di sotto di 0.3 Hz in modo da preservare l’ampiezza del segnale per le
componenti ERP più lente, come evidenziato in precedenti studi (Kappenman & Luck, 2010).
I tracciati sono stati poi ispezionati visivamente per escludere trials e canali che risultassero
caratterizzati ancora dalla presenza di artefatti. Tutti i canali esclusi sono poi stati interpolati
utilizzando il metodo sferico implementato in EEGLAB. Inoltre, il segnale relativo a tutti i
canali è stato ricalcolato sulla base della media totale (Average Re-referencing). I dati
processati come descritto sono stati in seguito importati e analizzati in Cartool (Brunet et al.,
2011). Ciascuna epoca di 6100 ms è stata ulteriormente segmentata in modo da ottenere
epoche sincronizzate con l’apparizione del Volto_2 (durata di 1500 ms).
2.6.2 Global ERP waveform analysis
Le epoche di 1500 ms, ottenute attraverso il preprocessing descritto sopra, sono state
sottoposte ad una Global ERP waveform analysis per determinare le modulazioni nel tempo
50
della risposta elettrica evocata durante la visione del Volto_2. Questa analisi è stata condotta
confrontando, attraverso un t test, l’ampiezza d’onda media del segnale elettrico evocato
per ogni punto temporale dell’epoca registrata da ogni elettrodo in due condizioni
sperimentali per volta (confronti a coppie) e per ciascun partecipante:
1) Condizione di Paura vs Condizione Neutra
2) Condizione di Felicità vs Condizione Neutra
3) Condizione di Felicità vs Condizione di Paura
Abbiamo preso in considerazione le differenze nell’andamento del segnale tra due condizioni
quando rispettavano questi criteri: la differenza tra l’ampiezza media del segnale doveva
essere significativa (con un livello di significatività p <.05) per una finestra temporale minima
di 20 ms (Guthrie & Buchwald, 1991) che doveva interessare almeno cinque elettrodi contigui
compresi all’interno di almeno una delle nove aree topografiche già presentate nella Figura
2.7. Analizzeremo di seguito i risultati ottenuti nei tre confronti.
2.6.2.1 Condizione di Paura vs Condizione Neutra
Nella figura 2.8 abbiamo evidenziato le finestre temporali di durata superiore a 20 ms nelle
quali almeno cinque elettrodi contigui risultavano avere un segnale significativamente
diverso (p <.05) tra la condizione di paura e la condizione neutra.
51
Figura 2.8
52
Fig. 2.8. In alto: le linee orizzontali rappresentano i 129 elettrodi analizzati. Su ogni linea viene evidenziata, quando presente, con tratti di
spessore maggiore, una differenza significativa nelle due condizioni confrontate. La lunghezza dei tratti neri rispecchia la durata nel
tempo della finestra di significatività evidenziata in un determinato elettrodo. Vengono inoltre evidenziate le finestre temporali in cui si
rileva una differenza significativa tra le condizioni con colori diversi. In basso: visualizzazione dei 129 elettrodi divisi in aree topografiche
dello scalpo. Le aree topografiche erano 9: AS (Anteriore sinistra), AC (Anteriore centrale), AD (Anteriore destra), CS (Centrale sinistra), CC
(Centrale), CD (Centrale destra), PS (Posteriore sinistra), PC (Posteriore centrale), PD (Posteriore destra).
Abbiamo evidenziato la presenza di nove finestre di significatività che suddivideremo in base
al tempo di inizio e fine di ciascuna finestra rispetto all’onset del Volto_2.
T 1 - 42 ms
Riteniamo che le differenze rilevate durante questa finestra temporale così precoce possano
essere dovute al fatto che l’epoca che abbiamo utilizzato (quella del Volto_2) non è
preceduta da una fase di rest o da un interstimulus interval, ma è preceduta dalla visione
della scena di contesto (object shot). Il partecipante, quindi, è impegnato nell’attività di
visione della sequenza filmica (nella sua totalità) e le fluttuazioni che rileviamo così
precocemente non possono essere spiegate in base ad una reale attività cerebrale evocata
dalla presentazione del Volto_2, ma sono verosimilmente dovute a variazioni dell’attività
cerebrale in risposta allo stimolo precedente.
T 94 - 148 ms
In questa finestra temporale abbiamo rilevato la presenza di due modulazioni (una frontale
e una posteriore) compatibile con componenti precoci nell’analisi visiva dei volti (N1 e P1,
rispettivamente).
Nella Figura 2.9 vengono evidenziate queste due componenti topograficamente distinte.
53
Figura 2.9
Fig. 2.9 A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate (in rosso) le aree statisticamente significative nella
finestra temporale che va da 94 a 148 ms. A destra: mappa dello scalpo in due dimensioni in cui viene evidenziata in rosso l’area nella
quale i potenziali evocati, per ogni elettrodo, nella condizione di paura erano superiori rispetto a quelli nella condizione neutra (t
positivo) e in blu l’area nella quale i potenziali evocati, per ogni elettrodo, nella condizione neutra erano superiori a quelli nella
condizione di paura (t negativo). Nella finestra temporale considerata, in media gli elettrodi con il punteggio al t Test più alti erano gli
elettrodi E112 (t= 3.87, p <.05) ed E71 (t= -3.42, p <.05).
Nella Figura 2.10 possiamo notare l’area della componente P1 posteriore positiva e l’area
della componente N1 anteriore negativa.
Figura 2.10
E58
E112
54
Fig. 2.10 A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate in rosso le aree in cui il potenziale evocato è
complessivamente positivo e in blu dove il segnale è complessivamente negativo. A destra: ERPs riferiti ai due elettrodi (E58 in alto ed
E112 in basso) dove la differenza rilevata dal test era massima nella finestra temporale che va da 94 a 148 ms (evidenziata in azzurro). Nei
due plot degli ERPs presentati vediamo sovrapposti i due tracciati riferiti alle due condizioni confrontate (in rosso la condizione di paura e
in nero la condizione neutra).
La componente P1 ha una estensione topografica che comprende la regione centrale
posteriore centrale, posteriore destra e posteriore sinistra dello scalpo.
Ipotizziamo che la rilevazione della componente P1 sia dovuta a un’analisi visiva precoce del
volto. Riteniamo, tuttavia, che la differenza significativa in questa componente nelle due
condizioni, specificamente più ampia (più positiva) nella condizione neutra rispetto alla
condizione di paura (t =-5.18, p <.05), possa essere dovuta anche ad un effetto di latenza,
ovvero ad una differenza nella comparsa della componente stessa a livello temporale. Come
si può notare dall’ERP dell’elettrodo E58 (Figura 2.10), il picco positivo nella condizione
neutra, seppur molto più ampio, risulta temporalmente successivo (di circa 26 ms) rispetto
al picco positivo nella condizione di paura.
La componente N1 ha un’estensione topografica che comprende la regione centrale,
anteriore centrale, anteriore destra e anteriore sinistra dello scalpo. La significatività rilevata
in questa finestra temporale, nella parte anteriore dello scalpo, ci indica una modulazione
molto più ampia (più negativa) nella condizione neutra rispetto alla condizione di paura
(t=6.23, p <.05).
T 156 - 196 ms
Le differenze rilevate nelle due condizioni, in questa finestra temporale, potrebbero essere
dovute a oscillazioni casuali del segnale che potrebbero venir meno qualora si aumentasse il
campione sperimentale. Avanziamo questa ipotesi dati il ristretto numero di elettrodi in cui
la differenza rilevata risulta significativa e l’andamento confuso del segnale ERP visualizzato.
T 264 - 332 ms
Durante questa finestra temporale abbiamo rilevato una modulazione posteriore congruente
con una componente P3.
55
La figura 2.11 evidenzia la presenza della componente posteriore in questione, mostrando,
inoltre, l’assenza di un bipolo di attivazione differenziale (Figura 2.11 Sinistra).
Figura 2.11
Fig. 2.11. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate (in rosso) le aree statisticamente significative nella
finestra temporale che va da 264 a 332 ms. A destra: mappa dello scalpo in due dimensioni in cui viene evidenziata in rosso l’area nella
quale i potenziali evocati, per ogni elettrodo, nella condizione di paura erano superiori a quelli nella condizione neutra (t positivo) e in blu
l’area nella quale i potenziali evocati, per ogni elettrodo, nella condizione neutra erano superiori a quelli nella condizione di paura (t
negativo). Nella finestra temporale considerata, in media l’elettrodo con il punteggio al tTest più alto era l’elettrodo E76 (t= -3.06, p <.05).
Nella Figura 2.12 notiamo chiaramente che la componente è positiva e, osservando l’ERP
dell’elettrodo dove questa differenza risulta maggiore (t =-3.93, p <.05), rileviamo un
secondo picco positivo compatibile con la componente P3.
56
Figura 2.12
Fig. 2.12. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate in rosso le aree in cui il potenziale evocato è
positivo e in blu dove il segnale è negativo. A destra: ERP riferito all’elettrodo (E77) dove la differenza rilevata dal test era massima nella
finestra temporale che va da 264 a 332 ms (evidenziata in azzurro). Nel plot dell’ERP presentato vediamo sovrapposti i due tracciati
riferiti alle due condizioni confrontate (in rosso la condizione di paura e in nero la condizione neutra).
L’area di significatività del cluster in analisi comprende solo la regione posteriore centrale
dello scalpo.
T 432 - 712 ms
Nella lunga finestra temporale che va da 432 a 712 ms abbiamo evidenziato, nello specifico,
quattro periodi di tempo caratterizzati da un’attività cerebrale significativamente differente
tra le due condizioni. Le prime due finestre sono topograficamente e funzionalmente molto
simili ed hanno un’estensione temporale molto ampia.
Nella figura 2.13 viene evidenziata la prima ampia area, in cui la differenza tra le due
condizioni risulta significativa, che si estende nelle zone centrali di sinistra dello scalpo, nella
finestra di tempo che va da 432 a 590 ms. In questa finestra temporale non è presente un
vero e proprio dipolo in quanto sulle regioni posteriori è emersa una differenza significativa
tra le due condizioni solo tra 456 e 480 ms.
E77
57
Figura 2.13
Fig. 2.13. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate (in rosso) le aree statisticamente significative nella
finestra temporale che va da 432 a 590 ms. A destra: mappa dello scalpo in due dimensioni in cui viene evidenziata in rosso l’area nella
quale i potenziali evocati, per ogni elettrodo, nella condizione di paura erano superiori a quelli nella condizione neutra (t positivo) e in blu
l’area nella quale i potenziali evocati, per ogni elettrodo, nella condizione neutra erano superiori a quelli nella condizione di paura (t
negativo). Nella finestra temporale considerata, in media l’elettrodo con il punteggio al t Test più alto era l’elettrodo E73 (t= -3.26, p
<.05).
Nella Figura 2.14, osservando l’ERP dell’elettrodo dove questa differenza risulta maggiore (t
=-4.84, p <.05), notiamo la differenza tra la modulazione nella condizione neutra e quella
nella condizione di paura.
58
Figura 2.14
Fig. 2.14. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate in rosso le aree in cui il potenziale evocato è
positivo e in blu dove il segnale è negativo. A destra: ERP riferito all’elettrodo (E41) dove la differenza rilevata dal test era massima nella
finestra temporale che va da 432 a 590 ms (evidenziata in verde). Nel plot dell’ERP presentato vediamo sovrapposti i due tracciati riferiti
alle due condizioni confrontate (in rosso la condizione di paura e in nero la condizione neutra).
Nella figura 2.15 viene evidenziata la seconda ampia area, topograficamente simile a quella
appena descritta, in cui la differenza tra le due condizioni risulta significativa nella finestra di
tempo che va da 608 a 712 ms. Anche in questa finestra temporale non è presente un vero
e proprio dipolo che perdura nel tempo, ma si ripresenta una situazione analoga a quella
descritta precedentemente.
E41
59
Figura 2.15
Fig. 2.15. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate (in rosso) le aree statisticamente significative nella
finestra temporale che va da 608 a 712 ms. A destra: mappa dello scalpo in due dimensioni in cui viene evidenziata in rosso l’area nella
quale i potenziali evocati, per ogni elettrodo, nella condizione di paura erano superiori a quelli nella condizione neutra (t positivo) e in blu
l’area nella quale i potenziali evocati, per ogni elettrodo, nella condizione neutra erano superiori a quelli nella condizione di paura (t
negativo). Nella finestra temporale considerata, in media l’elettrodo con il punteggio al t Test più alto era l’elettrodo E29 (t= -3.93, p
<.05).
Nella Figura 2.16 viene mostrato che anche la modulazione funzionale è analoga alla
precedente (t =-7.09, p <.05).
Figura 2.16
E42
60
Fig. 2.16. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate in rosso le aree in cui il potenziale evocato è
positivo e in blu dove il segnale è negativo. A destra: ERP riferito all’elettrodo (E42) dove la differenza rilevata dal test era massima nella
finestra temporale che va da 608 a 712 ms (evidenziata in rosa). Nel plot dell’ERP presentato vediamo sovrapposti i due tracciati riferiti
alle due condizioni confrontate (in rosso la condizione di paura e in nero la condizione neutra).
Abbiamo, quindi, una componente che interessa la regione centrale e centrale sinistra dello
scalpo. Questa componente è caratterizzata da una modulazione più ampia per la condizione
di paura (che risulta negativa) rispetto alla condizione neutra (che risulta positiva). Possiamo
ipotizzare che questa componente, almeno nella prima finestra di significatività, possa essere
coerente con una N400.
Le altre due finestre significative, anch’esse topograficamente funzionalmente simili tra loro,
sono caratterizzate, invece, da una minor estensione temporale.
Nella Figura 2.17 possiamo notare l’area posteriore in cui la differenza tra le due condizioni
risulta significativa: nella finestra temporale da 456 a 480 ms e nella finestra temporale da
648 a 672 ms.
61
Figura 2.17
Fig. 2.17. A sinistra: mappe dello scalpo in due dimensioni in cui vengono evidenziate (in rosso) le aree statisticamente significative nella
finestra temporale che va da 456 a 480 ms (in alto) e da 648 a 672 ms (in basso). A destra: mappe dello scalpo in due dimensioni in cui
viene evidenziata in rosso l’area nella quale i potenziali evocati, per ogni elettrodo, nella condizione di paura erano superiori a quelli nella
condizione neutra (t positivo) e in blu l’area nella quale i potenziali evocati, per ogni elettrodo, nella condizione neutra erano superiori a
quelli nella condizione di paura (t negativo). Nelle due finestre temporali considerate, in media gli elettrodi con il punteggio al t Test più
alti erano gli elettrodi E95 (t= -3.73, p <.05), nella prima finestra temporale, ed E95 (t= -3.42, p <.05) nella seconda finestra temporale.
Vista la connotazione topografica posteriore e il tempo in cui rileviamo questa componente
(superiore ai 300 ms) possiamo riconoscere un Late positive potential (LPP). Come vediamo
in Figura 2.18, infatti, abbiamo una modulazione maggiore (più negativa) per la condizione
62
neutra rispetto alla condizione di paura (t =5.44, p <.05 nella prima finestra temporale e t =-
3.42, p <.05 nella seconda).
Figura 2.18
Fig. 2.18. In alto: mappa dello scalpo in due dimensioni in cui vengono evidenziate in rosso le aree in cui il potenziale evocato è positivo e
in blu dove il segnale è negativo in due finestre temporali da 456 a 480 ms (a sinistra) e da 648 a 672 ms (a destra). In basso: ERPs riferiti
all’elettrodo (E95) dove la differenza rilevata dal test era massima nella finestra temporale che va da 456 a 480 ms e da 648 a 672 ms
(evidenziata in giallo). Nel plot dell’ERP presentato vediamo sovrapposti i due tracciati riferiti alle due condizioni confrontate (in rosso la
condizione di paura e in nero la condizione neutra).
La componente rilevata è molto discontinua e interessa pochi elettrodi nelle regioni
posteriori dello scalpo.
E95
63
Ipotizziamo che aumentando il campione si possa giungere a una maggiore definizione di
questi risultati. Quest’ultima componente, infatti, è spesso descritta come un insieme di
componenti più che come un’unica modulazione, e può perdurare anche pur tutta la durata
della presentazione dello stimolo. Con un maggior numero di osservazioni campionarie
aumenteremmo la potenza statistica del test e forniremmo interpretazioni più circostanziate
sulla base di risultati più solidi.
T 786 – 836 ms
In Figura 2.19 possiamo notare un’area centrale sinistra, nella quale la differenza tra le due
condizioni risulta significativa da 786 a 836 ms, non dissimile da quelle descritte nella finestra
temporale precedente.
Figura 2.19
Fig. 2.19. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate (in rosso) le aree statisticamente significative nella
finestra temporale che va da 786 a 836 ms. A destra: mappa dello scalpo in due dimensioni in cui viene evidenziata in rosso l’area nella
quale i potenziali evocati, per ogni elettrodo, nella condizione di paura erano superiori a quelli nella condizione neutra (t positivo) e in blu
l’area nella quale i potenziali evocati, per ogni elettrodo, nella condizione neutra erano superiori a quelli nella condizione di paura (t
negativo). Nella finestra temporale considerata, in media l’elettrodo con il punteggio al t Test più alto era l’elettrodo E46 (t= -4.04, p
<.05).
Come si evince dalla figura 2.20, rileviamo, infatti, una modulazione più ampia (più positiva)
per la condizione neutra rispetto alla condizione di paura (t =-8.33, p <.05).
64
Figura 2.20
Fig. 2.20. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate in rosso le aree in cui il potenziale evocato è
positivo e in blu dove il segnale è negativo. A destra: ERP riferito all’elettrodo (E46) dove la differenza rilevata dal test era massima nella
finestra temporale che va da 786 a 836 ms (evidenziata in azzurro). Nel plot dell’ERP presentato vediamo sovrapposti i due tracciati
riferiti alle due condizioni confrontate (in rosso la condizione di paura e in nero la condizione neutra).
Anche in questo caso aumentando la numerosità campionaria sarà possibile interpretare con
maggiore chiarezza questi dati.
2.6.2.2 Condizione di Felicità vs Condizione Neutra
Nella figura 2.21 abbiamo evidenziato le finestre temporali di durata superiore a 20 ms nelle
quali almeno cinque elettrodi contigui risultavano avere un segnale significativamente
diverso (p <.05) tra la condizione di felicità e la condizione neutra
E46
65
Figura 2.21
66
Fig. 2.21. In alto: le linee orizzontali rappresentano i 129 elettrodi analizzati. Su ogni linea viene evidenziata, quando presente, con tratti
di spessore maggiore, una differenza significativa nelle due condizioni confrontate. La lunghezza dei tratti neri rispecchia la durata nel
tempo della finestra di significatività evidenziata in un determinato elettrodo. Vengono inoltre evidenziate le finestre temporali in cui si
rileva una differenza significativa tra le condizioni con colori diversi. In basso: visualizzazione dei 129 elettrodi divisi in aree topografiche
dello scalpo. Le aree topografiche erano 9: AS (Anteriore sinistra), AC (Anteriore centrale), AD (Anteriore destra), CS (Centrale sinistra), CC
(Centrale), CD (Centrale destra), PS (Posteriore sinistra), PC (Posteriore centrale), PD (Posteriore destra).
Abbiamo evidenziato la presenza di sei finestre di significatività che suddivideremo in base al
tempo di inizio e fine di ciascuna finestra rispetto all’onset del Volto_2.
T 1 - 44 ms
Come nel primo confronto che abbiamo discusso, le differenze emerse in questa finestra
temporale possono essere spiegate dal fatto che l’epoca che abbiamo utilizzato (Volto_2)
non è preceduta da un interstimulus interval, ma è preceduta dalla visione della scena
contestuale (object Shot), e le variazioni significative tra le due condizioni potrebbero essere
causate da variazioni dell’attività cerebrale in risposta a stimoli precedenti alla visione del
Volto_2, ovvero alla visione dell’object shot.
T 54 - 78 ms
In questa finestra temporale osserviamo la presenza di una differenza significativa tra le due
condizioni sperimentali localizzate su due aree, una anteriore centrale ed una posteriore
centrale.
Figura 2.22
67
Fig. 2.22. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate (in rosso) le aree statisticamente significative nella
finestra temporale che va da 54 a 78 ms. A destra: mappa dello scalpo in due dimensioni in cui viene evidenziata in rosso l’area nella
quale i potenziali evocati, per ogni elettrodo, nella condizione di felicità erano superiori a quelli nella condizione neutra (t positivo) e in
blu l’area nella quale i potenziali evocati, per ogni elettrodo, nella condizione neutra erano superiori a quelli nella condizione di felicità (t
negativo). Nella finestra temporale considerata, in media gli elettrodi con il punteggio al t Test più alti erano gli elettrodi E65 (t= 3.36, p
<.05) ed E18 (t= -3.98, p <.05).
In Figura 2.23 notiamo che l’area posteriore è caratterizzata da una modulazione positiva e
l’area anteriore da una modulazione negativa che ci potrebbe portare a ipotizzare l’emergere
di una componente P1 (posteriore) e N1 (anteriore), tuttavia le coordinate temporali non
corrispondo a questo tipo di modulazione essendo la finestra temporale troppo precoce.
Figura 2.23
Fig. 2.23. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate in rosso le aree in cui il potenziale evocato è
positivo e in blu dove il segnale è negativo. A destra: ERPs riferiti ai due elettrodi (E18 in alto ed E65 in basso) dove la differenza rilevata
dal test era massima nella finestra temporale che va da 54 a 78 ms (evidenziata in rosa). Nei due plot degli ERPs presentati vediamo
sovrapposti i due tracciati riferiti alle due condizioni confrontate (in rosso la condizione di felicità e in nero la condizione neutra).
Possiamo spiegare quanto osservato guardando i tracciati ERPs presentati in Figura 2.23. La
differenza tra le condizioni è relativa, infatti, ai millisecondi precedenti ai picchi delle
componenti P1 e N1 (che verranno presentati infatti nella prossima finestra temporale).
Nell’elettrodo 65, in cui la differenza tra le condizioni è massima (t =3.57, p <.05) il potenziale
E18
E65
68
evocato nella condizione di felicità è maggiore (più positivo) di quello nella condizione neutra
poiché precede temporalmente il picco P1 relativo alla condizione neutra. La stessa dinamica
relativa all’insorgenza del picco N1 la si può notare nell’elettrodo 18, in cui però il potenziale
evocato nella condizione di felicità è più negativo di quello nella condizione neutra (t =-4.66,
p <.05).
Questa modulazione è simile a quanto abbiamo già esposto nel confronto tra la condizione
di paura e quella neutra per le componenti P1 e N1, pur non avendo, in quel caso, rilevato
differenze significative nella finestra temporale precedente alle componenti stesse.
T 94 - 186 ms
In questa finestra temporale, rileviamo due modulazioni (una frontale destra e una
posteriore sinistra, come si evince in Figura 2.24) compatibili con componenti precoci
dell’analisi visiva dei volti (P1 e N1).
Figura 2.24
Fig. 2.24. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate (in rosso) le aree statisticamente significative nella
finestra temporale che va da 94 a 186 ms. A destra: mappa dello scalpo in due dimensioni in cui viene evidenziata in rosso l’area nella
quale i potenziali evocati, per ogni elettrodo, nella condizione di felicità erano superiori a quelli nella condizione neutra (t positivo) e in
blu l’area nella quale i potenziali evocati, per ogni elettrodo, nella condizione neutra erano superiori a quelli nella condizione di felicità (t
negativo). Nella finestra temporale considerata, in media gli elettrodi con il punteggio al t Test più alti erano gli elettrodi E116 (t= 3.9, p
<.05) ed E72 (t= -2.25, p <.05).
69
In entrambe le componenti (Figura 2.25) riscontriamo che le differenze rilevate non sono
dovute ad una differenza sostranziale tra l’ampiezza nella condizione neutra rispetto alla
condizione di felicità, ma alla differenza, a livello temporale, della comparsa della
componente stessa, come già anticipato per quanto riguarda la finestra temporale
precedente.
Figura 2.25
Fig. 2.25. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate in rosso le aree in cui il potenziale evocato è
positivo e in blu dove il segnale è negativo. A destra: ERPs riferiti ai due elettrodi (E106 in alto ed E64 in basso) dove la differenza rilevata
dal test era massima nella finestra temporale che va da 94 a 186 ms (evidenziata in blu). Nei due plot degli ERPs presentati vediamo
sovrapposti i due tracciati riferiti alle due condizioni confrontate (in rosso la condizione di felicità e in nero la condizione neutra).
La componente P1 ha un’estensione topografica che comprende la parte posteriore centrale
e posteriore sinistra dello scalpo, mentre la componente N1 ha un’estensione topografica
che comprende la parte centrale, centrale destra e anteriore destra dello scalpo.
T 204 - 302 ms
Nella figura 2.26 vengono evidenziate due aree anteriori in cui rileviamo un’attivazione
differenziale significativa tra la condizione di felicità e la condizione neutra.
E106
E64
70
Figura 2.26
Fig. 2.26. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate (in rosso) le aree statisticamente significative nella
finestra temporale che va da 204 a 302 ms. A destra: mappa dello scalpo in due dimensioni in cui viene evidenziata in rosso l’area nella
quale i potenziali evocati, per ogni elettrodo, nella condizione di felicità erano superiori a quelli nella condizione neutra (t positivo) e in
blu l’area nella quale i potenziali evocati, per ogni elettrodo, nella condizione neutra erano superiori a quelli nella condizione di felicità (t
negativo). Nella finestra temporale considerata, in media gli elettrodi con il punteggio al t Test più alti erano gli elettrodi E116 (t= 3.27, p
<.05) ed E11 (t= -3.32, p <.05).
L’area più centrale ha un’estensione topografica che comprende la parte centrale e anteriore
centrale dello scalpo, mentre l’area più lateralizzata ha un’estensione topografica che
comprende la parte centrale destra e anteriore destra dello scalpo.
71
Figura 2.27
Fig. 2.27. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate in rosso le aree in cui il potenziale evocato è
positivo e in blu dove il segnale è negativo. A destra: ERPs riferiti ai due elettrodi (E11 in alto ed E116 in basso) dove la differenza rilevata
dal test era massima nella finestra temporale che va da 204 a 302 ms (evidenziata in verde). Nei due plot degli ERPs vediamo sovrapposti
i due tracciati riferiti alle due condizioni confrontate (in rosso la condizione di felicità e in nero la condizione neutra).
Come si evince in Figura 2.27 la modulazione in entrambe queste aree è negativa. Nello
specifico rileviamo che, nell’area centrale e per l’elettrodo 11 (in cui la differenza è più ampia)
la modulazione è più negativa per la condizione di felicità rispetto alla condizione neutra (t
=-4.6, p <.05), mentre nell’area centrale destra e per l’elettrodo 116 (in cui la differenza è più
ampia) la modulazione è più negativa per la condizione neutra rispetto alla condizione di
felicità (t =7.6, p <.05). Entrambe le componenti sono negative e temporalmente congruenti
con la componente N2.
T 358 - 622 ms
Nella figura 2.28 vengono evidenziate due aree, una posteriore ed una anteriore, in cui
rileviamo un’attivazione differenziale significativa tra la condizione di felicità e la condizione
neutra.
E11
E116
72
Figura 2.28
Fig. 2.28. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate (in rosso) le aree statisticamente significative nella
finestra temporale che va da 358 a 622 ms. A destra: mappa dello scalpo in due dimensioni in cui viene evidenziata in rosso l’area nella
quale i potenziali evocati, per ogni elettrodo, nella condizione di felicità erano superiori a quelli nella condizione neutra (t positivo) e in
blu l’area nella quale i potenziali evocati, per ogni elettrodo, nella condizione neutra erano superiori a quelli nella condizione di felicità (t
negativo). Nella finestra temporale considerata, in media gli elettrodi con il punteggio al t Test più alti erano gli elettrodi E95 (t= 5.03, p
<.05) ed E12 (t= -4.89, p <.05).
L’area frontale ha un’estensione topografica che comprende la parte centrale, anteriore
centrale, centrale sinistra e anteriore sinistra dello scalpo, mentre l’area posteriore risulta
molto meno estesa e comprende la parte centrale destra, e posteriore destra dello scalpo.
73
Figura 2.29
Fig. 2.29. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate in rosso le aree in cui il potenziale evocato è
positivo e in blu dove il segnale è negativo. A destra: ERPs riferiti ai due elettrodi (E31 in alto ed E95 in basso) dove la differenza rilevata
dal test era massima nella finestra temporale che va da 358 a 622 ms (evidenziata in azzurro). Nei due plot degli ERPs presentati vediamo
sovrapposti i due tracciati riferiti alle due condizioni confrontate (in rosso la condizione di felicità e in nero la condizione neutra).
Come evidenziato in Figura 2.29, nell’elettrodo centrale (E31) la modulazione risulta
maggiore (più positiva) nella condizione neutra rispetto a quella di felicità (t =-9.91, p <.05).
Analogamente a quanto esservato nel confronto tra la condizione neutra e quella di paura,
ipotizziamo che questa componente frontale possa corrispondere ad una N400.
Nell’elettrodo posteriore (E95) la modulazione risulta più negativa nella condizione neutra
rispetto a quella di felicità (t =8.83, p <.05). Rileviamo, quindi, una componente posteriore
che potrebbe rappresentare un Late Positive Potential (LPP), come già riscontrato nel
confronto tra condizione di paura e condizione neutra in una finestra temporale simile.
T 634 - 710 ms
Come nel confronto tra la condizione neutra e quella di paura, rileviamo che il bipolo appena
discusso si estende, in un secondo momento, fino a circa 710 ms, con finestre di significatività
di ampiezza diversa per quanto riguarda le aree frontali e quelle posteriori. Come si nota in
Figura 2.30 le aree in cui rileviamo una differenza significativa tra le due condizioni sono
paragonabili a quelle evidenziate in Figura 2.27.
E31
E95
74
Figura 2.30
Fig. 2.30. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate (in rosso) le aree statisticamente significative nella
finestra temporale che va da 634 a 710 ms. A destra: mappa dello scalpo in due dimensioni in cui viene evidenziata in rosso l’area nella
quale i potenziali evocati, per ogni elettrodo, nella condizione di felicità erano superiori a quelli nella condizione neutra (t positivo) e in
blu l’area nella quale i potenziali evocati, per ogni elettrodo, nella condizione neutra erano superiori a quelli nella condizione di felicità (t
negativo). Nella finestra temporale considerata, in media gli elettrodi con il punteggio al t Test più alti erano gli elettrodi E95 (t= 3.61, p
<.05) ed E29 (t= -3.84, p <.05).
Le due finestre significative (la precedente e questa) si collocano a soli 12 ms di distanza,
quindi ipotizziamo che sia in atto la stessa modulazione.
Figura 2.31
E29
E95
75
Fig. 2.31. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate in rosso le aree in cui il potenziale evocato è
positivo e in blu dove il segnale è negativo. A destra: ERPs riferiti ai due elettrodi (E29 in alto ed E95 in basso) dove la differenza rilevata
dal test era massima nella finestra temporale che va da 634 a 710 ms (evidenziata in giallo). Nei due plot degli ERPs presentati vediamo
sovrapposti i due tracciati riferiti alle due condizioni confrontate (in rosso la condizione di felicità e in nero la condizione neutra).
Come si evince in Figura 2.31, infatti, negli elettrodi in cui la differenza tra le condizioni è
maggiore, l’andamento è simile a quello già rilevato nella finestra precedente. Nell’elettrodo
E29 la modulazione risulta maggiore (più positiva) nella condizione neutra rispetto a quella
di felicità (t =-5.28, p <.05) e nell’elettrodo posteriore (E95), la modulazione risulta più
negativa nella condizione neutra rispetto a quella di felicità (t =4.58, p <.05).
Ipotizziamo che anche in questo caso ci sia un Late positive potential (LPP) che si esprime con
una maggiore positività negli elettrodi dell’area posteriore per la condizione emotiva rispetto
alla condizione neutra, come già riscontrato nel confronto tra condizione di paura e
condizione neutra in una finestra temporale simile.
2.6.2.3 Condizione di Paura vs Condizione di Felicità
Nella figura 2.32 abbiamo evidenziato le finestre temporali di durata superiore a 20 ms nelle
quali almeno cinque elettrodi contigui risultavano avere un segnale significativamente
diverso (p <.05) tra la condizione di paura e la condizione di felicità.
76
Figura 2.32
77
Fig. 2.32. In alto: le linee orizzontali rappresentano i 129 elettrodi analizzati. Su ogni linea viene evidenziata, quando presente, con tratti
di spessore maggiore, una differenza significativa nelle due condizioni confrontate. La lunghezza dei tratti neri rispecchia la durata nel
tempo della finestra di significatività evidenziata in un determinato elettrodo. Vengono inoltre evidenziate le finestre temporali in cui si
rileva una differenza significativa tra le condizioni con colori diversi. In basso: visualizzazione dei 129 elettrodi divisi in aree topografiche
dello scalpo. Le aree topografiche erano 9: AS (Anteriore sinistra), AC (Anteriore centrale), AD (Anteriore destra), CS (Centrale sinistra), CC
(Centrale), CD (Centrale destra), PS (Posteriore sinistra), PC (Posteriore centrale), PD (Posteriore destra).
Abbiamo evidenziato la presenza di sei finestre di significatività che suddivideremo in base al
tempo di inizio e fine di ciascuna finestra rispetto all’onset del Volto_2.
T 1 – 142 ms
In questa precoce finestra temporale rileviamo una differenza significativa tra le due
condizioni emotive che interessa le aree frontali e quelle posteriori, come si vede in Figura
2.33.
Figura 2.33
Fig. 2.33. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate (in rosso) le aree statisticamente significative nella
finestra temporale che va da 1 a 142 ms. A destra: mappa dello scalpo in due dimensioni in cui viene evidenziata in rosso l’area nella
quale i potenziali evocati, per ogni elettrodo, nella condizione di felicità erano superiori a quelli nella condizione di paura (t positivo) e in
blu l’area nella quale i potenziali evocati, per ogni elettrodo, nella condizione di paura erano superiori a quelli nella condizione di felicità
(t negativo). Nella finestra temporale considerata, in media gli elettrodi con il punteggio al t Test più alti erano gli elettrodi E102 (t= 3.05,
p <.05) ed E26 (t= -3.46, p <.05).
78
Come già esposto per gli altri confronti, riteniamo che nei primi millisecondi di attivazione le
differenze rilevate non siano dovute ad una reale differenza tra le condizioni, ma all’influenza
della scena contestuale precedente al Volto_2. Questa finestra, tuttavia, si estende nel
tempo fino ad interessare porzioni temporali corrispondenti alle componenti P1 e N1. Come
si vede in Figura 2.34, gli ERPs degli elettrodi dove la differenza tra le condizioni era maggiore
comprendono le componenti P1 e N1.
Figura 2.34
Fig. 2.34. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate in rosso le aree in cui il potenziale evocato è
positivo e in blu dove il segnale è negativo. A destra: ERPs riferiti ai due elettrodi (E6 in alto ed E83 in basso) dove la differenza rilevata dal
test era massima nella finestra temporale che va da 1 a 142 ms (evidenziata in azzurro). Nei due plot degli ERPs presentati vediamo
sovrapposti i due tracciati riferiti alle due condizioni confrontate (in rosso la condizione di paura e in nero la condizione felicità).
Nell’elettrodo 83 vediamo che la componente P1 ha un’ampiezza maggiore (più positiva)
nella condizione di felicità rispetto alla condizione di paura (t =2.57, p <.05), mentre
nell’elettrodo 6 notiamo che la componente N1 ha un’ampiezza più negativa nella condizione
di felicità rispetto alla condizione di paura (t =-2.14, p <.05). Notiamo inoltre, che il picco P1
e il picco N1 sono sincroni nelle due condizioni emotive.
T 168 – 212 ms
E6
E83
79
In questa finestra temporale abbiamo rilevato una differenza tra le condizioni che abbiamo
ricondotto a quella rilevata nel confronto Paura vs Neutro in una finestra simile (156 - 196
ms), e che non avevamo poi riscontrato nel confronto Felicità vs Neutro.
T 262 – 336 ms
In questa finestra temporale rileviamo due modulazioni (una frontale ed una posteriore)
come si evince in Figura 2.35.
Figura 2.35
Fig. 2.35. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate (in rosso) le aree statisticamente significative nella
finestra temporale che va da 262 a 336 ms. A destra: mappa dello scalpo in due dimensioni in cui viene evidenziata in rosso l’area nella
quale i potenziali evocati, per ogni elettrodo, nella condizione di felicità erano superiori a quelli nella condizione di paura (t positivo) e in
blu l’area nella quale i potenziali evocati, per ogni elettrodo, nella condizione di paura erano superiori a quelli nella condizione di felicità
(t negativo). Nella finestra temporale considerata, in media gli elettrodi con il punteggio al t Test più alti erano gli elettrodi E84 (t= 3.22, p
<.05) ed E118 (t= -3.88, p <.05).
Come notiamo in Figura 2.36, l’elettrodo 27 (regione frontale) presenta una modulazione
negativa maggiore (più negativa) nella condizione di felicità rispetto alla condizione di paura
(t =-6.18, p <.05), mentre nell’elettrodo 84, nell’area posteriore, notiamo una modulazione
positiva maggiore (più positiva) nella condizione di felicità rispetto alla condizione di paura (t
=5.69, p <.05).
80
Figura 2.36
Fig. 2.36. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate in rosso le aree in cui il potenziale evocato è
positivo e in blu dove il segnale è negativo. A destra: ERPs riferiti ai due elettrodi (E27 in alto ed E84 in basso) dove la differenza rilevata
dal test era massima nella finestra temporale che va da 262 a 336 ms (evidenziata in blu). Nei due plot degli ERPs presentati vediamo
sovrapposti i due tracciati riferiti alle due condizioni confrontate (in rosso la condizione di paura e in nero la condizione felicità).
Queste modulazioni sono congruenti a quelle già osservate che riguardano la componente
P3 (posteriore) emersa nel confronto tra la condizione di paura e quella neutra e la
componente N2 (anteriore) emersa nel confronto tra la condizione di felicità e quella neutra.
T 368 – 498 ms
In questa finestra temporale rileviamo una differenza significativa tra le condizioni,
compatibile con una modulazione N400. Abbiamo un’unica area significativa anteriore
sinistra (Figura 2.37).
E27
E84
81
Figura 2.37
Fig. 2.37. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate (in rosso) le aree statisticamente significative nella
finestra temporale che va da 368 a 498 ms. A destra: mappa dello scalpo in due dimensioni in cui viene evidenziata in rosso l’area nella
quale i potenziali evocati, per ogni elettrodo, nella condizione di felicità erano superiori a quelli nella condizione di paura (t positivo) e in
blu l’area nella quale i potenziali evocati, per ogni elettrodo, nella condizione di paura erano superiori a quelli nella condizione di felicità
(t negativo). Nella finestra temporale considerata, in media l’elettrodo con il punteggio al t Test più alto era l’elettrodo E26 (t= -3.42, p
<.05).
Come notiamo in figura 2.38 abbiamo una modulazione maggiore (più positiva) per la
condizione di paura rispetto alla condizione di felicità (t =-5.87, p <.05).
Figura 2.38
E26
82
Fig. 2.38. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate in rosso le aree in cui il potenziale evocato è
positivo e in blu dove il segnale è negativo. A destra: ERP riferito all’elettrodo (E26) dove la differenza rilevata dal test era massima nella
finestra temporale che va da 368 a 498 ms (evidenziata in azzurro). Nel plot dell’ERP presentato vediamo sovrapposti i due tracciati
riferiti alle due condizioni confrontate (in rosso la condizione di paura e in nero la condizione felicità).
Quanto osservato potrebbe essere dovuto alle differenze già rilevate nei confronti
precedenti sulla temporizzazione della componente N400.
T 462 – 504 ms
In quest’ultima finestra temporale rileviamo una differenza significativa tra le condizioni
compatibile con un LPP. Abbiamo un’unica area significativa posteriore destra (Figura 2.39).
Figura 2.39
Fig. 2.39. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate (in rosso) le aree statisticamente significative nella
finestra temporale che va da 462 a 504 ms. A destra: mappa dello scalpo in due dimensioni in cui viene evidenziata in rosso l’area nella
quale i potenziali evocati, per ogni elettrodo, nella condizione di felicità erano superiori a quelli nella condizione di paura (t positivo) e in
blu l’area nella quale i potenziali evocati, per ogni elettrodo, nella condizione di paura erano superiori a quelli nella condizione di felicità
(t negativo). Nella finestra temporale considerata, in media l’elettrodo con il punteggio al t Test più alto era l’elettrodo E26 (t= -3.43, p
<.05).
La finestra temporale risulta essere molto breve (circa 40 ms). Nell’elettrodo 85 (Figura 2.40)
notiamo che la modulazione è maggiore (più positiva) nella condizione di felicità rispetto alla
condizione di paura (t =4.46, p <.05).
83
Figura 2.40
Fig. 2.40. A sinistra: mappa dello scalpo in due dimensioni in cui vengono evidenziate in rosso le aree in cui il potenziale evocato è
positivo e in blu dove il segnale è negativo. A destra: ERP riferito all’elettrodi (E85) dove la differenza rilevata dal test era massima nella
finestra temporale che va da 462 a 504 ms (evidenziata in giallo). Nel plot dell’ERP presentato vediamo sovrapposti i due tracciati riferiti
alle due condizioni confrontate (in rosso la condizione di paura e in nero la condizione felicità).
Dal momento che la finestra temporale significativa è molto breve, e che il LPP è un
potenziale che spesso ingloba più modulazioni e che ha solitamente una durata temporale
ben maggiore, ipotizziamo che la modulazione osservata possa essere dovuta a fluttuazioni
casuali.
E85
84
Capitolo 3
Discussione e Conclusioni
3.1 Discussione
L’obiettivo dello studio che abbiamo presentato era quello di indagare l’influenza del
contesto sulla percezione di volti neutri utilizzando stimoli video che rispettassero la stuttura
dell’“effetto Kuleshov” (volto – contesto - volto). Per fare questo abbiamo riproposto il
disegno sperimentale utilizzato da Barratt e colleghi e perfezionato da Calbi e colleghi
(Barratt et al., 2016; Calbi et al., 2017), aggiungendo all’analisi delle risposte esplicite dei
partecipanti l’analisi delle risposte elettrofisiologiche implicite dovute all’osservazione delle
sequernze proposte. Discuteremo, quindi, in primis i risultati comportamentali, in modo tale
da comprendere la percezione esplicita dei partecipanti e il loro giudizio, espresso sia dal
punto di vista dimensionale, attraverso le scale di Valenza e Attivazione, sia dal punto di vista
della categorizzazione emotiva, in particolare sull’emozione espressa dal Volto_2 preceduto
da diversi tipi di contesto. In secundis discuteremo i risultati elettrofisiologici in modo tale da
rilevare le modulazioni significative che intervengono durante la percezione del Volto_2.
3.1.1 Studio Comportamentale
Per quanto riguarda i risultati comportamentali, da un punto di vista categoriale (si veda
1.1.2) abbiamo rilevato che nella maggior parte dei casi i partecipanti rispondevano in
maniera congruente al contesto emotivo associato al volto neutro, e in modo analogo a
quanto riportato da Calbi e colleghi nel 2017. Quando il volto neutro era preceduto da un
contesto di Felicità, i partecipanti categorizzavano il volto neutro scegliendo in maniera
preponderante l’etichetta corrispondente (“felicità”). Quando, invece, il volto era
precededuto da un contesto di Paura, allora le risposte erano distribuite tra le diverse
etichette a connotazione negativa (“Tristezza”, “Paura”, “Disgusto”, “Rabbia”). Nella
85
Condizione Neutra, invece, i soggetti rispondevano indiscriminatamente associando
l’emozione espressa dal volto sia ad emozioni positive (“Felicità”), sia ad emozioni negative
(“Tristezza”). Bisogna, inoltre, sottolineare come, solo nella Condizione Neutra, i partecipanti
categorizzassero il volto neutro scegliendo anche l’etichetta “Altro” (e.g., “neutro”,
“indifferente”).
Da un punto di vista dimensionale (si veda 1.1.3), invece, abbiamo rilevato che partecipanti
di genere femminile rispondevano sempre in maniera coerente alle nostre aspettative. Le
donne valutavano i volti neutri preceduti da un contesto di Paura con una Valenza negativa
e un grado di Attivazione maggiore rispetto ai volti neutri preceduti da contesti neutri. I volti
neutri preceduti da un contesto di Felicità, invece, erano valutati con una Valenza più positiva
rispetto ai volti neutri preceduti da contesti neutri, ma non emergeva una differenza in
Attivazione. Confrontando le due Condizioni emotive abbiamo inoltre rilevato, sempre nelle
donne, una prevedibile differenza sia per quanto riguarda la Valenza (maggiore nella
Condizione di Felicità), sia nell’Attivazione (maggiore nella Condizione di Paura). È
interessante notare che l’unica differenza tra le risposte di uomini e donne sia emersa solo
per quanto riguarda la Valenza attribuita ai volti neutri preceduti da un contesto di felicità.
In generale, quanto emerso potrebbe essere spiegato da una differenza nell’elaborazione
emotiva dei volti tra uomini e donne.
Molti studi hanno, infatti, rilevato che le donne hanno prestazioni migliori nell'identificare le
emozioni facciali (Campbell et al., 2002; Hampson, Anders, Human, & 2006, n.d.; Thayer &
Johnsen, 2000) ed è interessante notare anche che le donne valutano i volti con punteggi in
media più alti (Valenza e Attivazione) rispetto agli uomini (Alice Mado Proverbio, 2017).
Diversi autori, inoltre, ipotizzano che le donne riconoscano le emozioni facciali meglio degli
uomini in condizioni in cui le informazioni rilevate dallo stimolo sono minime (Hall, Emotion,
& 2004). Inoltre, in linea con i nostri risultati, Montagne e colleghi hanno mostrato l'effetto
che l'intensità dell'espressione ha sui processi di codifica dei volti negli uomini e nelle donne,
e hanno rilevato che le donne avevano prestazioni migliori nel riconoscimento
dell’espressione facciale, specialmente quando venivano fornite solo informazioni emotive
ambigue (Montagne et al., 2007). Questi risultati potrebbero riflettere una maggiore
attenzione per le informazioni sociali (Alice M Proverbio, Zani, & Adorni, 2008) e per i volti
(Pavlova, Scheffler, & Sokolov, 2015) e, in generale, potrebbero essere interpretati in termini
86
di una maggiore risposta empatica nelle donne rispetto agli uomini (Baron-Cohen,
Wheelwright, Hill, Raste, & Plumb, 2001).
Infine, è interessante evidenziare come nel nostro studio le differenze di genere non siano
emerse nel compito di categorizzazione ma solo quando ai partecipanti era richiesto di
fornire un giudizio di Valenza ed Arousal. Tale dato potrebbe essere spiegato dal fatto che
l’approccio dimensionale sarebbe più sensibile nel rilevare eventuali differenze di genere.
3.1.2 Studio EEG
Per quanto riguarda i risultati dei dati elettrofisiologici, abbiamo rilevato una modulazione
sia di componenti ERP precoci (P1, N1), sia di componenti più tardive (N400, LPP) in entrambe
le condizioni emotive di Paura e di Felità. Abbiamo rievato, inoltre, due componenti presenti
in una sola delle due Condizioni emotive, una nella Condizione di Paura (P3) e l’altra nella
condizione di Felicità (N2).
Le componenti precoci risultavano avere una latenza minore nelle Condizioni emotive
rispetto alla Condizione Neutra. Probabilmente, tale differenza di latenza emersa sia per la
componente posteriore positiva (P1) sia per la componente anteriore negativa (N1), è dovuta
alla maggiore salienza assunta da stimoli emotivi, i quali verrebbero processati in maniera
anticipata, come evidenziato da precedenti studi (Mühlberger et al., 2009; Olofsson & Polich,
2007). Nel nostro studio, infatti, la salienza emotiva dei contesti di Paura e Felicità, attivava
probabilmente un maggiore investimento in processi attenzionali (Eger et al., 2003a;
Pinheiro et al., 2017; Pourtois et al., 2005) che si traducevano in una minore latenza delle
componenti ERP precoci.
Per quanto riguarda l’ampiezza delle componenti ERP precoci sopra citate, i risultati non
hanno mostrato una differenza significativa tra le Condizioni sperimentali. A nostro avviso
questo potrebbe essere spiegato dal fatto che tali componenti sono sensibili alle variazioni
delle caratteristiche percettive proprie delle espressioni facciali emotive. Poiché nel nostro
studio i volti erano tutti neutri, questo ci porta a ipotizzare che l’effetto del contesto emotivo
non sia tale da influenzare l’elaborazione dei volti già a livello percettivo, ma sia, invece,
87
legato a processi di elaborazione più tardivi relativi all’attribuzione di un connotato emotivo
al volto neutro.
Per quanto riguarda la modulazione della componente P3 posteriore, più ampia per la
Condizione Neutra rispetto alla Condizione di Paura, precedenti studi in letteratura,
coerentemente a quanto da noi osservato, hanno associato una maggiore ampiezza di questa
componente all’elaborazione di stimoli neutri (Cuthbert et al., 2000; Harald T. Schupp,
Junghöfer, et al., 2004; Vanderploeg, Brown, & Marsh, 1987).
La componente N2, invece, è stata rilevata sulla porzione anteriore dello scalpo e la sua
modulazione, più negativa per stimoli emotivi rispetto a stimoli non emotivi, risulta coerente
con quanto riportato in letteratura (Junghöfer, Bradley, Elbert, & Lang, 2001; H T Schupp,
Junghofer, Weike, & Hamm, 2003; Harald T. Schupp, Flaisch, Stockburger, & Junghöfer,
2006).
Le ultime due componenti descritte, tuttavia, risultano essere di difficile interpretazione
considerando che in letteratura sono presenti risultati contrastanti per quanto riguarda la
loro modulazione (Balconi & Pozzoli, 2008; Kayser, 1997; Keil et al., 2002).
Successivamente, abbiamo rilevato una componente tardiva (N400) la cui modulazione
risultava più ampia nelle Condizioni emotive rispetto alla Condizione neutra. Questa
modulazione potrebbe essere spiagata in base alla discordanza percepita dai partecipanti tra
l’osservazione del volto neutro e il contesto emotivo che lo ha preceduto (Taake, Jaspers-
Fayer, Psychology, & 2009). Dato che la discordanza tra questi due elementi risulta maggiore
rispetto a quella tra il volto neutro (Volto_2) e il contesto neutro che lo ha preceduto, il
potenziale evocato risultava essere di maggiore ampiezza. In un recente esperimento di
Kanske e colleghi è stato osservato un effetto simile. Quando uno stimolo emotivo era
preceduto da una parola neutra o emotivamente differente (incongruenza), la N400 aveva
una modulazione maggiore rispetto a quando le due componenti dello stimolo erano
coerenti (Kanske, Plitschka, & Kotz, 2011).
Possiamo dire, quindi, che durante le fasi di elaborazione precoce dello stimolo (Volto_2)
l’effetto del contesto abbia influenzato e catturato maggiormentente l’attenzione dei
partecipanti grazie alla salienza intrinseca nello stimolo emotivo stesso (P1, N1). Fasi
successive di elaborazione (N400) suggerirebbero, invece, come il volto neutro venga
88
interpretato alla luce delle aspettative create dal contesto: in presenza di contesti emotivi vi
sarebbe una violazione dell’aspettativa in quanto il volto neutro non risulterebbe congruente
con l’informazione emotiva veicolata dal contesto..
Il LPP che abbiamo rilevato nel confronto tra le Condizini emotive e la Condizione Neutra
potrebbe riflettere i processi cognitivi, post percettivi, attraverso i quali attribuiamo al volto
una valenza emotiva (Foti et al., 2010; Kanske & Kotz, 2007). La rilevata modulazione positiva
posteriore del LPP, era sempre maggiore nelle Condizioni emotive rispetto alla Condizione
neutra, come mostrato anche in letteratura (Foti et al., 2010; Keil et al., 2002; Harald T.
Schupp, Schmälzle, Flaisch, Weike, & Hamm, 2013; Sun, Ren, & He, 2017) e sembra essere
legata all’attivazione emotiva dovuta al maggior coinvolgimento attenzionale suscitato da
stimoli emotivi (Cuthbert et al., 2000; Harald T. Schupp, Cuthbert, et al., 2004). Cuthberg e
colleghi notano, inoltre, che quando la presentazione dello stimolo è prolungata (circa 6
secondi come nel caso delle nostre sequenze filmiche), il LPP è seguito da una positività
prolungata e ritardata nel tempo associata al processamento emotivo (Cuthbert et al., 2000),
presente anche nella modulazione da noi osservata.
I processi cognitivi riflessi dal LPP, secondo altri autori potrebbero anche essere legati alla
valutazione di incongruenze tra due stimoli, studiata attraverso la tecnica del “Sequential
priming” in cui uno stimolo bersaglio detto “target” viene preceduto da uno stimolo
principale detto “prime”. Werheid e colleghi, ad esempio, hanno presentato ai partecipanti
stimoli facciali emotivi (con espressioni di felicità e rabbia) e hanno osservato un'ampiezza
maggiore del LPP per stimoli affettivamente incongruenti (volto felice seguito da volto
arrabbiato e viceversa) rispetto a stimoli affettivamente congruenti (volto felice seguito da
volto felice e volto arrabbiato seguito da volto arrabbiato, Werheid, Alpay, Jentzsch, &
Sommer, 2005). In seguito, anche Herring e colleghi hanno osservato un amento del LPP
quando, ad esempio, un'immagine piacevole era preceduta da un'immagine spiacevole
(Herring, Taylor, White, & Crites, 2011). È interessante notare come questo effetto permanga
anche nel caso in cui si prenda in considerazione solo il livello di attivazione degli stimoli.
Hinojosa e colleghi, infatti, hanno osservato una aumento del LPP anche quando si associava
uno stimolo “prime” con alta attivazione ad uno stimolo “target” con bassa attivazione e
viceversa, rispetto a quando lo stimolo prime e lo stimolo target avevano lo stesso livello di
attivazione (Hinojosa, Carretié, Méndez-Bértolo, Míguez, & Pozo, 2009).
89
Riconducendo quanto riportato in letteratura ai nostri risultati, ipotizziamo che la
componente LPP possa essere condizionata sia dalla valenza relativa al contesto presentato
prima del volto neutro (risposte maggiori sono state osservate in seguito alla presentazione
di stimoli emotivi), sia dal fatto che il contesto può essere considerato come uno stimolo
“prime” e il volto neutro come uno stimolo “target”. Tra i due stimoli verrebbe, quindi,
rilevata un’incongruenza proprio nelle condizioni il volto neutro è preceduto da un contesto
emotivo. Tale interpretazione sarebbe sostenuta anche dai risultati emersi nella finestra
temporale corrispondente alla N400.
3.2 Conclusioni
Attraverso il nostro studio abbiamo riproposto e verificato la validità dell’“effetto Kuleshov”
come strumento per evidenziare il ruolo del contesto sulla percezione di volti, proponendo
un’interessante ipotesi sulle modalità attraverso le quali questo effetto funziona. Tale
paradigma consente, infatti, di adottare un approccio più ecologico che tiene conto delle
modalità con cui quotidianamente esperiamo questa tipologia di stimoli. Secondo quanto
emerso dai risultati appena discussi, l’“effetto Kuleshov” sembrerebbe essere spiegato da un
processo cognitivo che, partendo dalle informazioni contestuali, genera delle aspettative
sull’espressione del volto associato a quel determinato contesto. Quando questo contesto
risulta essere connotato da valenza emotiva, le aspettative rispetto alla reazione emotiva che
ci si aspetta di rilevare nel volto, che nelle nostre sequenze era sempre neutro, vengono
violate, generando un processo di attribuzione di significato indipendente dall’analisi
percettiva del volto stesso. Questo processo di attribuzione agisce su due livelli: a livello
esplicito, comportamentale, i partecipanti valutavano il volto neutro in maniera coerente alle
aspettative che si erano creati sulla base del contesto; a livello implicito, i risultati
elettrofisiologici dimostrano come l’elaborazione del volto neutro dipendesse dalla
congruenza/incongruenza tra quest’ultimo e le aspettative create dal contesto che lo
precedeva (congruenza: contesto neutro, volto neutro; incongruenza: contesto emotivo,
volto neutro).
Concludendo e ritornando alle ipotesi fino ad ora proposte per interpretare l’”effetto
Kuleshov” (Barratt, 2015; Calbi et al., 2017; Noël Carroll & Carroll, 1993), i nostri risultati
90
sembrano suggerire un’ulteriore interpretazione possibile, secondo la quale l’effetto sarebbe
spiegato da un processo cognitivo di attribuzione di aspettative create dal contesto stesso e
non da una reale esperienza percettiva ed emotiva.
Limiti e future indagini
Un limite del presente studio è legato all’esiguo numero di partecipanti. Infatti, aumentando
il nostro campione potremmo migliorare la potenza statistica del test e di conseguenza avere
dei risultati più chiari sia dal punto di vista del numero di componenti ERP evidenziate, sia
dal punto di vista dell’estensione temporale delle componenti stesse. Inoltre, sarebbe anche
interessante valutare l’attivazione elettrofisiologica dei partecipanti, separando il campione
tra maschi e femmine in modo da dare conto anche delle differenze di genere che
intervengono nell’analisi implicita dei volti in una situazione come quella dell’“effetto
Kuleshov”.
91
92
Bibliografia
Adolphs, R., Tranel, D., & Damasio, A. R. (2003). Dissociable neural systems for recognizing
emotions. Brain and Cognition, 52(1), 61–69.
Albiero, P., Ingoglia, S., & Lo Coco, A. (2006). Contributo all’adattamento italiano
dell’Interpersonal Reactivity Index. Testing-Psicometria-Metodologia, 13(2).
Ashley, V., Vuilleumier, P., & Swick, D. (2004). Time course and specificity of event-related
potentials to emotional expressions. Neuroreport, 15(1), 211–6.
https://doi.org/10.1097/01.wnr.0000091411.19795.f5
Aviezer, H., Hassin, R. R., Ryan, J., Grady, C., Susskind, J., Anderson, A., … Bentin, S. (2008).
Angry, disgust, or afraid? Studies on the malleability of emotion perception.
Psychological Science, 19(7), 724–732. https://doi.org/10.1111/j.1467-
9280.2008.02148.x
Bagby, R. M., Parker, J. D. A., & Taylor, G. J. (1994). The twenty-item Toronto Alexithymia
Scale—I. Item selection and cross-validation of the factor structure. Journal of
Psychosomatic Research, 38(1), 23–32.
Balconi, M., & Pozzoli, U. (2008). Event-related oscillations (ERO) and event-related
potentials (ERP) in emotional face recognition. International Journal of Neuroscience,
118(10), 1412–1424. https://doi.org/10.1080/00207450601047119
Bar, M. (2003). A cortical mechanism for triggering top-down facilitation in visual object
recognition. Journal of Cognitive Neuroscience, 15(4), 600–609.
https://doi.org/10.1162/089892903321662976
Baron-Cohen, S., Wheelwright, S., Hill, J., Raste, Y., & Plumb, I. (2001). The “Reading the
Mind in the Eyes” Test Revised Version: A Study with Normal Adults, and Adults with
Asperger Syndrome or High-functioning Autism. Journal of Child Psychology and
Psychiatry, 42(2), S0021963001006643. https://doi.org/10.1017/S0021963001006643
Barratt, D. (2015). Does the Kuleshov effect really exist ?, (March), 1–55.
Barrett, L. F., & Bar, M. (2009). See it with feeling: affective predictions during object
93
perception. Philosophical Transactions of the Royal Society B: Biological Sciences,
364(1521), 1325–1334.
Barrett, L. F., & Kensinger, E. A. (2010). Context is routinely encoded during emotion
perception. Psychological Science, 21(4), 595–599.
Bashore, T. R., & van der Molen, M. W. (1991). Discovery of the P300: a tribute. Biological
Psychology, 32(2–3), 155–171.
Battaglia, M., Zanoni, A., Giorda, R., Pozzoli, U., Citterio, A., Beri, S., … Molteni, M. (2007).
Effect of the catechol-O-methyltransferase val(158)met genotype on children’s early
phases of facial stimuli processing. Genes, Brain, and Behavior, 6(4), 364–374.
https://doi.org/10.1111/j.1601-183X.2006.00265.x
Batty, M., & Taylor, M. J. (2003). Early processing of the six basic facial emotional
expressions. Cognitive Brain Research, 17(3), 613–620. https://doi.org/10.1016/S0926-
6410(03)00174-5
Bentin, S., Allison, T., Puce, A., Perez, E., & McCarthy, G. (1996). Electrophysiological Studies
of Face Perception in Humans. Journal of Cognitive Neuroscience, 8(6), 551–565.
https://doi.org/10.1162/jocn.1996.8.6.551
Birbaumer, N., Elbert, T., Canavan, A. G., & Rockstroh, B. (1990). Slow potentials of the
cerebral cortex and behavior. Physiological Reviews, 70(1), 1–41.
Bobes, M. A., Martin, M., Olivares, E., & Valdes-Sosa, M. (2000). Different scalp topography
of brain potentials related to expression and identity matching of faces. Brain
Research. Cognitive Brain Research, 9(3), 249–260.
Brunet, D., Murray, M. M., & Michel, C. M. (2011). Spatiotemporal analysis of multichannel
EEG: CARTOOL. Computational Intelligence and Neuroscience, 2011.
https://doi.org/10.1155/2011/813870
Bullier, J. (2001). Integrated model of visual processing. Brain Research. Brain Research
Reviews, 36(2–3), 96–107.
Cabanac, M. (2002). What is emotion? Behavioural Processes, 60(2), 69–83.
https://doi.org/10.1016/S0376-6357(02)00078-5
94
Calbi, M. (2017). Neural mechanisms underpinning Emotional Body Language
comprehension: eye tracking and EEG studies. Università di Parma. Dipartimento di
Neuroscienze.
Calbi, M., Heimann, K., Barratt, D., Siri, F., Umiltà, M. A., & Gallese, V. (2017). How context
influences our perception of emotional faces: A behavioral study on the Kuleshov
effect. Frontiers in Psychology, 8(OCT), 1684.
https://doi.org/10.3389/fpsyg.2017.01684
Calder, A. J., Ewbank, M., & Passamonti, L. (2011). Personality influences the neural
responses to viewing facial expressions of emotion. Philosophical Transactions of the
Royal Society B: Biological Sciences, 366(1571), 1684–1701.
Campanella, S., Quinet, P., Bruyer, R., Crommelinck, M., & Guerit, J.-M. (2002). Categorical
perception of happiness and fear facial expressions: an ERP study. Journal of Cognitive
Neuroscience, 14(2), 210–227. https://doi.org/10.1162/089892902317236858
Campbell, R., Elgar, K., Kuntsi, J., Akers, R., Terstegge, J., Coleman, M., & Skuse, D. (2002).
The classification of ‘fear’ from faces is associated with face recognition skill in
women. Neuropsychologia, 40(6), 575–584. https://doi.org/10.1016/S0028-
3932(01)00164-6
Carretie, L., & Iglesias, J. (1995). An ERP study on the specificity of facial expression
processing. International Journal of Psychophysiology : Official Journal of the
International Organization of Psychophysiology, 19(3), 183–192.
Carroll, J. M., & Russell, J. A. (1996a). Do facial expressions signal specific emotions? Judging
emotion from the face in context. Journal of Personality and Social Psychology, 70(2),
205–218. https://doi.org/10.1037/0022-3514.70.2.205
Carroll, J. M., & Russell, J. A. (1996b). Do facial expressions signal specific emotions?
Judging emotion from the face in context. Journal of Personality and Social Psychology,
70(2), 205.
Carroll, N. (1993). Toward a Theory of Point-of-View Editing: Communication, Emotion, and
the Movies. Poetics Today, 14(1), 123–141. https://doi.org/10.2307/1773144
95
Carroll, N., & Carroll, N. (1993). Toward a Theory of Point-of-View Editing: Communication,
Emotion, and the Movies. Poetics Today, 14(1), 123. https://doi.org/10.2307/1773144
Carver, C. S., & White, T. L. (1994). Behavioral inhibition, behavioral activation, and
affective responses to impending reward and punishment: the BIS/BAS scales. Journal
of Personality and Social Psychology, 67(2), 319.
Cochin, S., Barthelemy, C., Lejeune, B., Roux, S., & Martineau, J. (1998). Perception of
motion and qEEG activity in human adults. Electroencephalography and Clinical
Neurophysiology, 107(4), 287–295. https://doi.org/10.1016/S0013-4694(98)00071-6
Cochin, S., Barthelemy, C., Roux, S., & Martineau, J. (1999). Observation and execution of
movement: similarities demonstrated by quantified electroencephalography.
European Journal of Neuroscience, 11(5), 1839–1842. https://doi.org/10.1046/j.1460-
9568.1999.00598.x
Cuthbert, B. N., Schupp, H. T., Bradley, M. M., Birbaumer, N., & Lang, P. J. (2000). Brain
potentials in affective picture processing: covariation with autonomic arousal and
affective report. Biological Psychology, 52(2), 95–111.
Darwin, C. (n.d.). The expression of the emotions in man and animals.
Davis, M. H. (1983). Measuring individual differences in empathy: Evidence for a
multidimensional approach. Journal of Personality and Social Psychology, 44(1), 113.
Delorme, A., & Makeig, S. (2004). EEGLAB: An open source toolbox for analysis of single-
trial EEG dynamics including independent component analysis. Journal of Neuroscience
Methods. https://doi.org/10.1016/j.jneumeth.2003.10.009
Dolan, R. J. (2002). Emotion, cognition, and behavior. Science (New York, N.Y.), 298(5596),
1191–1194. https://doi.org/10.1126/science.1076358
Eger, E., Jedynak, A., Iwaki, T., & Skrandies, W. (2003a). Rapid extraction of emotional
expression: evidence from evoked potential fields during brief presentation of face
stimuli. Neuropsychologia, 41(7), 808–817.
Eger, E., Jedynak, A., Iwaki, T., & Skrandies, W. (2003b). Rapid extraction of emotional
expression: Evidence from evoked potential fields during brief presentation of face
96
stimuli. Neuropsychologia, 41(7), 808–817. https://doi.org/10.1016/S0028-
3932(02)00287-7
Eimer, M. C., & Holmes, A. (2002). An ERP study on the time course of emotional face
processing. Neuroreport, 13(4), 427–431. https://doi.org/10.1097/00001756-
200203250-00013
Eimer, M., & Holmes, A. (2002). An ERP study on the time course of emotional face
processing. Neuroreport, 13(4), 427–431.
Eimer, M., & Holmes, A. (2007a). Event-related brain potential correlates of emotional face
processing. Neuropsychologia, 45(1), 15–31.
https://doi.org/10.1016/j.neuropsychologia.2006.04.022
Eimer, M., & Holmes, A. (2007b). Event-related brain potential correlates of emotional face
processing. Neuropsychologia, 45(1), 15–31.
https://doi.org/10.1016/j.neuropsychologia.2006.04.022
Ekman, P. (1992). Are there basic emotions? Psychological Review. US: American
Psychological Association. https://doi.org/10.1037/0033-295X.99.3.550
Ekman, P. (1993). Facial expression and emotion. American Psychologist, 48(4), 384.
Ekman, P., & Friesen, W. V. (1971). Constants across cultures in the face and emotion.
Journal of Personality and Social Psychology, 17(2), 124.
Ekman, P., & Friesen, W. V. (1978). Facial Action Coding System: Investigatoris Guide.
Consulting Psychologists Press.
Ekman, P., Levenson, R. W., & Friesen, W. V. (1983). Autonomic nervous system activity
distinguishes among emotions. Science, 221(4616), 1208–1210.
Electrical Geodesics, I. (2003). Net station waveform tools technical manual. s-man-200-
wtfr-001 (Tech. Rep.). EGI.
Foti, D., Olvet, D. M., Klein, D. N., & Hajcak, G. (2010). Reduced electrocortical response to
threatening faces in major depressive disorder. Depression and Anxiety, 27(9), 813–
820. https://doi.org/10.1002/da.20712
97
Gallese, V. (2006). Corpo vivo, simulazione incarnata e intersoggettività. Una prospettiva
neuro-fenomenologica. Neurofenomenologia. Le Scienze Della Mente e La Sfida
Dell’esperienza Cosciente, 293–326.
Gallese, V., & Guerra, M. (2013). Film, corpo, cervello: prospettive naturalistiche per la
teoria del film. Fata Morgana. Retrieved from
https://pdfs.semanticscholar.org/cf39/104ca41898fa623bcdc34861bb175bcf27bf.pdf
Gallese, V., & Guerra, M. (2015). Lo schermo empatico: cinema e neuroscienze. Retrieved
from http://pdfitalia.link/arte-cinema-e-fotografia/lo-schermo-empatico-cinema-e-
neuroscienze.pdf
Graham, R., & LaBar, K. S. (2012). Neurocognitive mechanisms of gaze-expression
interactions in face processing and social attention. Neuropsychologia, 50(5), 553–566.
Guthrie, D., & Buchwald, J. S. (1991). Significance Testing of Difference Potentials.
Psychophysiology, 28(2), 240–244. https://doi.org/10.1111/j.1469-
8986.1991.tb00417.x
Hajcak, G., & Nieuwenhuis, S. (2006). Reappraisal modulates the electrocortical response to
unpleasant pictures. Cognitive, Affective & Behavioral Neuroscience, 6(4), 291–297.
Hajcak, G., Weinberg, A., MacNamara, A., & Foti, D. (2012). ERPs and the Study of Emotion.
In The Oxford Handbook of Event-Related Potential Components.
https://doi.org/10.1093/oxfordhb/9780195374148.013.0222
Hall, J., Emotion, D. M.-, & 2004, undefined. (n.d.). Gender differences in judgments of
multiple emotions from facial expressions. Psycnet.Apa.Org. Retrieved from
http://psycnet.apa.org/journals/emo/4/2/201/
Hamm, A. O., Gerlach, M., Globisch, J., & Vaitl, D. (1992). Phobia specific startle reflex
modulation during affective imagery and slide viewing. Psychophysiology, 29, S36.
Hampson, E., Anders, S. van, Human, L. M.-E. and, & 2006, undefined. (n.d.). A female
advantage in the recognition of emotional facial expressions: Test of an evolutionary
hypothesis. Ehbonline.Org. Retrieved from https://www.ehbonline.org/article/S1090-
5138(06)00033-X/fulltext
98
Heimann, K. S., Uithol, S., Calbi, M., Umiltà, M. A., Guerra, M., & Gallese, V. (2017). “Cuts in
Action”: A High-Density EEG Study Investigating the Neural Correlates of Different
Editing Techniques in Film. Cognitive Science, 41(6), 1555–1588.
https://doi.org/10.1111/cogs.12439
Heimann, K., Umiltà, M. A., Guerra, M., & Gallese, V. (2014). Moving Mirrors: A High-
density EEG Study Investigating the Effect of Camera Movements on Motor Cortex
Activation during Action Observation. Journal of Cognitive Neuroscience, 26(9), 2087–
2101. https://doi.org/10.1162/jocn_a_00602
Herring, D. R., Taylor, J. H., White, K. R., & Crites, S. L. (2011). Electrophysiological
Responses to Evaluative Priming: The LPP Is Sensitive to Incongruity. Emotion, 11(4),
794–806. https://doi.org/10.1037/a0022804
Herrmann, M. J., Aranda, D., Ellgring, H., Mueller, T. J., Strik, W. K., Heidrich, A., &
Fallgatter, A. J. (2002). Face-specific event-related potential in humans is independent
from facial expression. International Journal of Psychophysiology : Official Journal of
the International Organization of Psychophysiology, 45(3), 241–244.
Hinojosa, J. A., Carretié, L., Méndez-Bértolo, C., Míguez, A., & Pozo, M. A. (2009). Arousal
contributions to affective priming: Electrophysiological correlates. Emotion, 9(2), 164–
171. https://doi.org/10.1037/a0014680
Holmes, A., Vuilleumier, P., & Eimer, M. (2003). The processing of emotional facial
expression is gated by spatial attention: evidence from event-related brain potentials.
Cognitive Brain Research, 16(2), 174–184.
Hothorn, T., Bretz, F., Westfall, P., & Heiberger, R. (2008). Multcomp: simultaneous
inference for general linear hypotheses. R Package Version 1.0-3.
Ioannides, A. A., Liu, L. C., Kwapien, J., Drozdz, S., & Streit, M. (2000). Coupling of regional
activations in a human brain during an object and face affect recognition task. Human
Brain Mapping, 11(2), 77–92.
Itier, R. J., & Taylor, M. J. (2004). Face recognition memory and configural processing: a
developmental ERP study using upright, inverted, and contrast-reversed faces. Journal
of Cognitive Neuroscience, 16(3), 487–502.
99
Izard, C. E. (1971). The face of emotion. The face of emotion. East Norwalk, CT, US:
Appleton-Century-Crofts.
Izard, C. E. (1994). Innate and universal facial expressions: Evidence from developmental
and cross-cultural research. Psychological Bulletin. US: American Psychological
Association. https://doi.org/10.1037/0033-2909.115.2.288
Izard, C. E. (2007). Basic Emotions, Natural Ki Emotion Schemas, and a New Paradigm.
Perspectives on Psychological Science, 2(3), 260–280. Retrieved from
http://www.jstor.org/stable/40212206%5Cnhttp://www.jstor.org/stable/40212206?s
eq=1&cid=pdf-reference#references_tab_contents%5Cnhttp://about.jstor.org/terms
Izard, C. E. (2009). Emotion Theory and Research: Highlights, Unanswered Questions, and
Emerging Issues. Annual Review of Psychology, 60(1), 1–25.
https://doi.org/10.1146/annurev.psych.60.110707.163539
Jessen, S., & Kotz, S. A. (2011). The temporal dynamics of processing emotions from vocal,
facial, and bodily expressions. NeuroImage, 58(2), 665–674.
https://doi.org/10.1016/j.neuroimage.2011.06.035
Johnson, R. J. (1993). On the neural generators of the P300 component of the event-related
potential. Psychophysiology, 30(1), 90–97.
Junghöfer, M., Bradley, M. M., Elbert, T. R., & Lang, P. J. (2001). Fleeting images: A new look
at early emotion discrimination. Psychophysiology, 38(2), 175–178.
https://doi.org/10.1017/S0048577201000762
Kahle, D., & Wickham, H. (2013). ggmap: Spatial Visualization with ggplot2. R Journal, 5(1).
Kanske, P., & Kotz, S. A. (2007). Concreteness in emotional words: ERP evidence from a
hemifield study. Brain Research, 1148, 138–148.
https://doi.org/10.1016/j.brainres.2007.02.044
Kanske, P., Plitschka, J., & Kotz, S. A. (2011). Attentional orienting towards emotion: P2 and
N400 ERP effects. Neuropsychologia, 49(11), 3121–3129.
https://doi.org/10.1016/j.neuropsychologia.2011.07.022
Kappenman, E. S., & Luck, S. J. (2010). The effects of electrode impedance on data quality
100
and statistical significance in ERP recordings. Psychophysiology.
https://doi.org/10.1111/j.1469-8986.2010.01009.x
Kawasaki, H., Adolphs, R., Kaufman, O., Damasio, H., Damasio, A. R., Granner, M., …
Howard III, M. A. (2001). Single-neuron responses to emotional visual stimuli recorded
in human ventral prefrontal cortex. Nature Neuroscience, 4(1), 15.
Kayser, 1997. (n.d.).
Kayser, J. T. C. E. N. H. H. D. H. K. an. E. G. (1997). Event related potential (ERP) asymmetries
to emotional stimuli in a half-field paradigm. Psychophysiology, 34, 414–426.
Keil, A., Bradley, M. M., Hauk, O., Rockstroh, B., Elbert, T., & Lang, P. J. (2002). Large-scale
neural correlates of affective picture processing. Psychophysiology, 39(5), 641–649.
https://doi.org/10.1017.S0048577202394162, S0048577202394162 [pii]
Kim, H., Somerville, L. H., Johnstone, T., Polis, S., Alexander, A. L., Shin, L. M., & Whalen, P.
J. (2004). Contextual modulation of amygdala responsivity to surprised faces. Journal
of Cognitive Neuroscience, 16(10), 1730–1745.
Kleinginna, P. R., & Kleinginna, A. M. (1981). A categorized list of motivation definitions,
with a suggestion for a consensual definition. Motivation and Emotion, 5(3), 263–291.
https://doi.org/10.1007/BF00993889
Kok, A. (2000). Age-related changes in involuntary and voluntary attention as reflected in
components of the event-related potential (ERP). Biological Psychology, 54(1–3), 107–
143.
Krolak-Salmon, P., Fischer, C., Vighetto, A., & Mauguiere, F. (2001). Processing of facial
emotion expression: Spatio-temporal data as assessed by scalp event-related
potentials. European Journal of Neuroscience, 13, 987–994.
https://doi.org/10.1046/j.0953-816X.2001.01454.x
Kuleshov, L. (1974). Art of the Cinema. Retrieved from
https://scholar.google.it/scholar?hl=it&as_sdt=0%2C5&q=Kuleshov%2C+1974+Art+of+
the+Cinema&btnG=
La Ferlita, V., Bonadies, M., Solano, L., De Gennaro, L., & Gonini, P. (2007). Alessitimia e
101
adolescenza: studio preliminare di validazione della TAS-20 su un campione di 360
adolescenti italiani. Infanzia e Adolescenza, 6(3), 131–144.
Lang, P. J., Bradley, M. M., & Cuthbert, B. N. (1998). Emotion, motivation, and anxiety: brain
mechanisms and psychophysiology. Biological Psychiatry, 44(12), 1248–1263.
LeBrun, C., & Picart, B. (n.d.). Conférence... sur l’expression générale et particulière, enrichie
de figures gravées par B. Picart.
LeDoux, J. E. (1995). In search of an emotional system in the brain: leaping from fear to
emotion and consciousness.
Lenth, R. V. (2016). Least-squares means: the R package lsmeans. Journal of Statistical
Software, 69(1), 1–33.
Leone, L., Pierro, A., & Mannetti, L. (2002). Validità della versione italiana delle scale
BIS/BAS di Carver e White (1994): generalizzabilità della struttura e relazioni con
costrutti affini. Giornale Italiano Di Psicologia, 29(2), 413–436.
Luck, S. J. (2006). The Operation of Attention--Millisecond by Millisecond--Over the First
Half Second.
Lundqvist, D., Flykt, A., & Öhman, A. (1998). The Karolinska directed emotional faces
(KDEF). CD ROM from Department of Clinical Neuroscience, Psychology Section,
Karolinska Institutet, (1998).
Lutzenberger, W., Elbert, T. H., & Rockstroh, B. (1987). A brief tutorial on the implications of
volume conduction for the interpretation of the EEG. Journal of Psychophysiology, 1,
81–89.
Mangun, G. R., & Hillyard, S. A. (1995). Mechanisms and models of selective attention.
Marinkovic, K., & Halgren, E. (1998). Human brain potentials related to the emotional
expression , repetition , and gender of faces. Psychobiology, 26(4), 348–356.
https://doi.org/10.3758/bf03330621
Meeren, H. K. M., van Heijnsbergen, C. C. R. J., & de Gelder, B. (2005). Rapid perceptual
integration of facial expression and emotional body language. Proceedings of the
National Academy of Sciences of the United States of America, 102(45), 16518–16523.
102
Meinhardt, J., & Pekrun, R. (2003). Attentional resource allocation to emotional events: An
ERP study. Cognition & Emotion, 17(3), 477–500.
https://doi.org/10.1080/02699930244000039
Miyoshi, M., Katayama, J., & Morotomi, T. (2004). Face-specific N170 component is
modulated by facial expressional change. Neuroreport, 15(5), 911–914.
Mobbs, D., Weiskopf, N., Lau, H. C., Featherstone, E., Dolan, R. J., & Frith, C. D. (2006). The
Kuleshov Effect: the influence of contextual framing on emotional attributions. Social
Cognitive and Affective Neuroscience, 1(2), 95–106.
https://doi.org/10.1093/scan/nsl014
Montagne, B., Sierra, M., Medford, N., Hunter, E., Baker, D., Kessels, R. P. C., … David, A. S.
(2007). Emotional memory and perception of emotional faces in patients suffering
from depersonalization disorder. British Journal of Psychology, 98(3), 517–527.
https://doi.org/10.1348/000712606X160669
Mühlberger, A., Wieser, M. J., Herrmann, M. J., Weyers, P., Tröger, C., & Pauli, P. (2009).
Early cortical processing of natural and artificial emotional faces differs between lower
and higher socially anxious persons. Journal of Neural Transmission, 116(6), 735–746.
https://doi.org/10.1007/s00702-008-0108-6
MuMIn, B. K. (2018). multi-model inference. R package version 1.40. 0. 2017.
Munte, T. F., Brack, M., Grootheer, O., Wieringa, B. M., Matzke, M., & Johannes, S. (1998).
Brain potentials reveal the timing of face identity and expression judgments.
Neuroscience Research, 30(1), 25–34.
Näätänen, R., & Picton, T. (1987). The N1 wave of the human electric and magnetic
response to sound: a review and an analysis of the component structure.
Psychophysiology, 24(4), 375–425.
Niedenthal, P. M., Brauer, M., Halberstadt, J. B., & Innes-Ker, Å. H. (2001). When did her
smile drop? Facial mimicry and the influences of emotional state on the detection of
change in emotional expression. Cognition & Emotion, 15(6), 853–864.
Oldfield, R. C. (1971). The assessment and analysis of handedness: the Edinburgh inventory.
103
Neuropsychologia, 9(1), 97–113.
Olofsson, J. K., & Polich, J. (2007). Affective visual event-related potentials: Arousal,
repetition, and time-on-task. Biological Psychology, 75(1), 101–108.
https://doi.org/10.1016/J.BIOPSYCHO.2006.12.006
Panksepp, J. (1998). The periconscious substrates of consciousness: Affective states and the
evolutionary origins of the SELF. Journal of Consciousness Studies, 5(5–6), 566–582.
Panksepp, J. (2007). Neurologizing the Psychology of Affects: How Appraisal-Based
Constructivism and Basic Emotion Theory Can Coexist. Perspectives on Psychological
Science, 2(3), 281–296. https://doi.org/10.1111/j.1745-6916.2007.00045.x
Paulmann, S., & Pell, M. D. (2009). Facial expression decoding as a function of emotional
meaning status: ERP evidence. Neuroreport, 20(18), 1603–1608.
https://doi.org/10.1097/WNR.0b013e3283320e3f
Pavlova, M. A., Scheffler, K., & Sokolov, A. N. (2015). Face-n-Food: Gender Differences in
Tuning to Faces. PLOS ONE, 10(7), e0130363.
https://doi.org/10.1371/journal.pone.0130363
Pedrabissi, L., & Santinello, M. (1989). Inventario per l’ansia di «Stato» e di «Tratto»: nuova
versione italiana dello STAI Forma Y: Manuale. Organizzazioni Speciali, Firenze, 44.
Persson, P. (2003). Understanding Cinema: Understanding and dispositions; 2.
Understanding POV editing; 3. Variable framing and personal space; 4. Character.
Retrieved from
https://scholar.google.it/scholar?hl=it&as_sdt=0%2C5&q=Persson%2C+2003+pov&btn
G=
Picton, T. W. (1992). The P300 wave of the human event-related potential. Journal of
Clinical Neurophysiology : Official Publication of the American Electroencephalographic
Society, 9(4), 456–479.
Pinheiro, J., Bates, D., DebRoy, S., Sarkar, D., Heisterkamp, S., Van Willigen, B., &
Maintainer, R. (2017). Package ‘nlme.’ Linear and Nonlinear Mixed Effects Models, 1–3.
Pizzagalli, D. A., Lehmann, D., Hendrick, A. M., Regard, M., Pascual-Marqui, R. D., &
104
Davidson, R. J. (2002). Affective Judgments of Faces Modulate Early Activity (∼160 ms)
within the Fusiform Gyri. NeuroImage, 16(3), 663–677.
https://doi.org/10.1006/nimg.2002.1126
Pizzagalli, D., Regard, M., & Lehmann, D. (1999). Rapid emotional face processing in the
human right and left brain hemispheres: An ERP study. NeuroReport, 10(13), 2691–
2698. https://doi.org/10.1097/00001756-199909090-00001
Posner, J., Russell, J. A., & Peterson, B. S. (2005). The circumplex model of affect: An
integrative approach to affective neuroscience, cognitive development, and
psychopathology. Development and Psychopathology, 17(3), 715–734.
Pourtois, G., Dan, E. S., Grandjean, D., Sander, D., & Vuilleumier, P. (2005). Enhanced
extrastriate visual response to bandpass spatial frequency filtered fearful faces: Time
course and topographic evoked‐potentials mapping. Human Brain Mapping, 26(1), 65–
79.
Pourtois, G., De Gelder, B., Vroomen, J., Rossion, B., & Crommelinck, M. (2000). The time-
course of intermodal binding between seeing and hearing affective information.
NeuroReport, 11(6), 1329–1333. https://doi.org/10.1097/00001756-200004270-00036
Pourtois, G., Grandjean, D., Sander, D., & Vuilleumier, P. (2004). Electrophysiological
correlates of rapid spatial orienting towards fearful faces. Cerebral Cortex, 14(6), 619–
633.
Prince, S., & Hensley, W. E. (1992). The Kuleshov effect: Recreating the classic experiment.
Cinema Journal, 31(2), 59–75. https://doi.org/10.2307/1225144
Proverbio, A. M. (2017). Sex differences in social cognition: The case of face processing.
Journal of Neuroscience Research, 95(1–2), 222–234.
https://doi.org/10.1002/jnr.23817
Proverbio, A. M., Zani, A., & Adorni, R. (2008). Neural markers of a greater female
responsiveness to social stimuli. BMC Neuroscience, 9(1), 56.
https://doi.org/10.1186/1471-2202-9-56
Puce, A., Epling, J. A., Thompson, J. C., & Carrick, O. K. (2007). Neural responses elicited to
105
face motion and vocalization pairings. Neuropsychologia, 45(1), 93–106.
https://doi.org/10.1016/j.neuropsychologia.2006.04.017
Pudovkin, V. V. (1970). Film Technique and Film Acting (1926-1934). Retrieved from
https://scholar.google.it/scholar?hl=it&as_sdt=0%2C5&q=Pudovkin+1970+Film+techni
que+and+film+acting&btnG=
Ramachandran, V. S., Altschuler, E. L., & Hillyer, S. (1997). Mirror agnosia. Proceedings.
Biological Sciences, 264(1382), 645–7. https://doi.org/10.1098/rspb.1997.0091
Richard, W. (1987). The Thread of Life.
Righart, R., & De Gelder, B. (2006). Context influences early perceptual analysis of faces - An
electrophysiological study. Cerebral Cortex, 16(9), 1249–1257.
https://doi.org/10.1093/cercor/bhj066
Righart, R., & De Gelder, B. (2008). Recognition of facial expressions is influenced by
emotional scene gist. Cognitive, Affective, & Behavioral Neuroscience, 8(3), 264–272.
Russell, J. A. (1980). A circumplex model of affect. Journal of Personality and Social
Psychology, 39(6), 1161.
Russell, J. A. (1997). 13-reading emotion from and into faces: Resurrecting a dimensional-
contextual perspective. The Psychology of Facial Expression, 295–320.
Russell, J. A., & Fehr, B. (1987). Relativity in the perception of emotion in facial expressions.
Journal of Experimental Psychology: General, 116(3), 223.
Sato, W., Kochiyama, T., Yoshikawa, S., & Matsumura, M. (2001). Emotional expression
boosts early visual processing of the face: ERP recording and its decomposition by
independent component analysis. Neuroreport, 12(4), 709–714.
https://doi.org/10.1097/00001756-200103260-00019
Sato, W., Kochiyama, T., Yoshikawa, S., & Matsumura, M. (2001). Emotional expression
boosts early visual processing of the face: ERP recording and its decomposition by
independent component analysis. NeuroReport, 12(4), 709–714.
https://doi.org/10.1097/00001756-200103260-00019
Sauter, D. A., & Eimer, M. (2010). Rapid detection of emotion from human vocalizations.
106
Journal of Cognitive Neuroscience, 22(3), 474–481.
https://doi.org/10.1162/jocn.2009.21215
Schachter, S., & Singer, J. (1962). Cognitive, social, and physiological determinants of
emotional state. Psychological Review, 69(5), 379–399.
https://doi.org/10.1037/h0046234
Schneider, W., Eschman, A., & Zuccolotto, A. (2002). E-prime, Version 1.1. Pittsburgh, PA:
Psychology Software Tools.
Schupp, H. T., Cuthbert, B. N., Bradley, M. M., Hillman, C. H., Hamm, A. O., & Lang, P. J.
(2004). Brain processes in emotional perception: Motivated attention. Cognition and
Emotion, 18(5), 593–611. https://doi.org/10.1080/02699930341000239
Schupp, H. T., Flaisch, T., Stockburger, J., & Junghöfer, M. (2006). Chapter 2 Emotion and
attention: event-related brain potential studies. Progress in Brain Research, 156, 31–
51. https://doi.org/10.1016/S0079-6123(06)56002-9
Schupp, H. T., Junghofer, M., Weike, A. I., & Hamm, A. O. (2003). Emotional facilitation of
sensory processing in the visual cortex. Psychological Science, 14(1), 7–13.
https://doi.org/10.1111/1467-9280.01411
Schupp, H. T., Junghöfer, M., Weike, A. I., & Hamm, A. O. (2004). The selective processing of
briefly presented affective pictures: An ERP analysis. Psychophysiology, 41(3), 441–
449. https://doi.org/10.1111/j.1469-8986.2004.00174.x
Schupp, H. T., Schmälzle, R., Flaisch, T., Weike, A. I., & Hamm, A. O. (2013). Reprint of
“Affective picture processing as a function of preceding picture valence: An ERP
analysis.” Biological Psychology, 92(3), 520–525.
https://doi.org/10.1016/j.biopsycho.2013.02.002
Schwarz, K. A., Wieser, M. J., Gerdes, A. B. M., Mühlberger, A., & Pauli, P. (2012). Why are
you looking like that? How the context influences evaluation and processing of human
faces. Social Cognitive and Affective Neuroscience, 8(4), 438–445.
Shimamura, A. P., Marian, D. E., & Haskins, A. L. (2013). Neural correlates of emotional
regulation while viewing films. Brain Imaging and Behavior, 7(1), 77–84.
107
https://doi.org/10.1007/s11682-012-9195-y
Spielberger, C. D., Gorsuch, R. L., & Lushene, R. E. (1968). State-Trait Anxiety Inventory
(STAI): Test Manual for Form X. Consulting Psychologists Press.
Streit, M., Ioannides, A. A., Liu, L., Wolwer, W., Dammers, J., Gross, J., … Muller-Gartner, H.
W. (1999). Neurophysiological correlates of the recognition of facial expressions of
emotion as revealed by magnetoencephalography. Brain Research. Cognitive Brain
Research, 7(4), 481–491.
Sun, L., Ren, J., & He, W. (2017). Neural correlates of facial expression processing during a
detection task : An ERP study, 1–13.
Taake, I., Jaspers-Fayer, F., Psychology, M. L.-B., & 2009, undefined. (n.d.). Early frontal
responses elicited by physical threat words in an emotional Stroop task: Modulation
by anxiety sensitivity. Elsevier. Retrieved from
https://www.sciencedirect.com/science/article/pii/S0301051109000076
Team, R. C. (2014). R: A language and environment for statistical computing (Version 3.1.
1)[Computer software]. Vienna, Austria: R Foundation for Statistical Computing.
Thayer, J., & Johnsen, B. H. (2000). Sex differences in judgement of facial affect: A
multivariate analysis of recognition errors. Scandinavian Journal of Psychology, 41(3),
243–246. https://doi.org/10.1111/1467-9450.00193
Tomkins, S. S. (1962). Affect Imagery Consciousness: The Positive Affect.
Tucker, D. M., Liotti, M., Potts, G. F., Russell, G. S., & Posner, M. I. (1994). Spatiotemporal
analysis of brain electrical fields. Human Brain Mapping, 1(2), 134–152.
Vanderploeg, R. D., Brown, W. S., & Marsh, J. T. (1987). Judgements of emotion in words
and faces: ERP correlates. International Journal of Psychophysiology, 5(3), 193–205.
https://doi.org/10.1016/0167-8760(87)90006-7
Werheid, K., Alpay, G., Jentzsch, I., & Sommer, W. (2005). Priming emotional facial
expressions as evidenced by event-related brain potentials. International Journal of
Psychophysiology, 55(2), 209–219. https://doi.org/10.1016/J.IJPSYCHO.2004.07.006
Wieser, M. J., & Brosch, T. (2012). Faces in context: A review and systematization of
108
contextual influences on affective face processing. Frontiers in Psychology, 3(NOV), 1–
13. https://doi.org/10.3389/fpsyg.2012.00471
Zacks, J. M., Speer, N. K., Swallow, K. M., & Maley, C. J. (2010). The brain’s cutting-room
floor: segmentation of narrative cinema. Frontiers in Human Neuroscience, 4, 168.
https://doi.org/10.3389/fnhum.2010.00168