File ARACNE corretto2 · Introduzione p. 7 I ... la preferenza elettorale, p. 45 . 2.3. ... del...

34
A

Transcript of File ARACNE corretto2 · Introduzione p. 7 I ... la preferenza elettorale, p. 45 . 2.3. ... del...

A

Mario Graziano

LA MENTE DEL CONSUMATORE

INTRODUZIONE AL NEUROMARKETING

L'opera usufruisce del contributo dei fondi relativi al Progetto di Ricerca PRIN anno 2007 dal titolo “Filosofia e naturalizzazione del mentale.

Nuove prospettive sulla conoscenza e la natura umana" (Unità locale dell'Università degli Studi di Messina).

Copyright © MMXARACNE editrice S.r.l.

www.aracne–editrice.itinfo@aracne–editrice.it

via Raffaele Garofalo, 133/A-B00173 Roma(06) 93781065

ISBN 978-88–548–3201–5

I diritti di traduzione, di memorizzazione elettronica,di riproduzione e di adattamento anche parziale,

con qualsiasi mezzo, sono riservati per tutti i Paesi.

Non sono assolutamente consentite le fotocopiesenza il permesso scritto dell’Editore.

I edizione:Lussografica, Caltanissetta 2008II edizione: febbraio 2010

5

Indice Introduzione p. 7

I. Scienze cognitive e neuroeconomia 1.1. Cosa sono le scienze cognitive 11

1.1.1. La neuropsicologia classica, p. 12 - 1.1.2.Le tecniche di visualizzazione cerebrale, p. 17 - 1.1.3. I limiti delle tecniche, p. 19 1.1.4. La modularità, p. 22 - 1.1.5. Il cervello automatico, p. 25

1.2. La neuroeconomia 28

1.2.1 Utilità e substrato cerebrale umano, p. 31

II. Il Neuromarketing

2.1. Le neuroscienze del consumatore 35 2.2. La preferenza e il neuromarketing 37

2.2.1.La preferenza per le automobili, p. 42 - 2.2.2. Non solo oggetti: la preferenza elettorale, p. 45

. 2.3. Vendesi emozioni 52 2.4. Il ruolo della corteccia prefrontale 62

III. Il marketing 3.1.Cosa manca al neuromarketing: il marketing 67 3.2.La percezione 69 3.2.1. La percezione subliminale e il marketing, p. 72

3.3. I concetti 75 3.3.1. Domini e frames, p. 78 3.4. Concetti e frames nel marketing 82

6 Indice

IV. La ricerca motivazionale

4.1. I bisogni dei consumatori 89 4.2. Le scale per misurare gli atteggiamenti 91 4.3. Misure esplicite e misure implicite 95 4.3.1.Le misure implicite nel marketing, p. 99 4.4. Il potere predittivo delle metafore 103

4.4.1.La metafora nella linguistica, p. 105 - 4.4.2.La teoria comparativa e quella interattiva, p. 107 - 4.4.3.La metafora come evento del pensiero, p. 109

4.5. Manager o psicoterapeuta? 114

V. Una possibile sintesi 5.1.Teorie normative e descrittive della decisione 119 5.2.La teoria dei giochi 122 5.3.Teoria dei giochi e neuroscienze 125 5.4. Le emozioni 127 5.4.1. Scienze cognitive ed emozioni, p. 129 - 5.4.2. La valutazione dell’emozione, p. 131 - 5.4.3. L’ipotesi di polarità, p. 136 5.5. Il ruolo delle emozioni nelle decisioni economiche 139 5.6.Teoria dei giochi e teoria della mente 143 5.6.1. Il test di falsa credenza, p. 145 5.7. ToM e Neuroeconomia 151 Bibliografia 157

7

Introduzione

Il sogno ricorrente del responsabile marketing di un’azienda è semprestato quello di riuscire a prevedere, con precisione, il comportamentodel consumatore di fronte ad una nuova campagna pubblicitaria, ad unnuovo prodotto; sapere se il nuovo spot ha in sé gli elementi giusti perfunzionare, riuscire ad indirizzare l’azienda senza errori, raggiungeregli obiettivi preposti con la minima dispersione di risorse. Negli anniOttanta, molti autori hanno studiato le condizioni che fanno sì cheun’azienda possa raggiungere con successo questi obiettivi. Ad esem-pio, Tom Peters e Robert Waterman hanno intervistato 43 imprese conlo scopo di individuare i fattori determinanti del loro successo. I ri-sultati ottenuti sono stati successivamente presentati nel libro Alla ri-cerca dell’eccellenza, il libro di marketing più venduto di tutti i tempi.I due autori riscontrarono come principio determinante, alla base delsuccesso delle imprese studiate, la precisa attitudine a motivare i pro-pri dipendenti a considerare la qualità ed il valore dei propri clienti.Nel 1986, Frank Rodgers, direttore centrale marketing dell’IBM, pub-blicò il libro Il metodo IBM, in cui viene descritto come questa im-portante azienda traduca in pratica il principio secondo cui “il cliente ère”. Tutto ciò che ha formato oggetto della pubblicistica aziendale inquegli anni negli Stati Uniti, la formulazione delle strategie, lo svilup-po di sistemi informativi per il management, le tecniche di realizza-zione, si dimostrò di rilevante importanza poiché si continuò a tenereconto di una condizione fondamentale: l’orientamento al cliente. Daquesto punto di vista diviene fondamentale chiedersi come i consu-matori rispondano ai diversi stimoli di marketing che un’impresa è ingrado di proporre loro.

Un’impresa, infatti, in grado di capire e prevedere correttamentecome i propri consumatori possano rispondere alle differenti versionidel prodotto, ai diversi livelli di prezzo, a campagne pubblicitarie al-ternative, riuscirà ad avere un rilevante vantaggio competitivo suiconcorrenti. Nonostante queste considerazioni, nel nostro Paesel’attenzione verso il comportamento del consumatore è stata postasolo di recente e decisamente dopo la nascita del marketing propria-mente inteso. Mentre negli Stati Uniti, dove è nata questa disciplina,esiste un certo equilibrio fra gli studi di marketing e quelli sui consu-

Introduzione8

matori, in Italia in ambito scientifico-disciplinare, questa pratica non èugualmente diffusa. Ciò che risulta abbastanza curioso è rilevare co-me, in Italia, i primi esempi di studi di marketing risalgono ai primianni Trenta, mentre le prime trattazioni organiche e sistematiche sulcomportamento del consumatore sono comparse solo nei primi anniSessanta. Una spiegazione potrebbe essere data dal fatto chel’assimilazione delle teorie del comportamento del consumatore, neglistudi di marketing, risulta piuttosto difficile per chi proviene da unacultura economica-aziendale. Infatti, le radici teoriche delle teorie delcomportamento del consumatore sono abbastanza distanti da una pro-spettiva d’impresa: antropologia, psicologia, filosofia e scienze cogni-tive contribuiscono a costruire le basi su cui si innesta un disegnocomplessivo che non prende necessariamente in considerazione ilpunto di vista delle imprese, quale prospettiva privilegiata. Propriopartendo da questa istanza, nei primi anni Sessanta, John A. Howard[Howard, 1963] ha aperto la strada a una disciplina che si è progressi-vamente affrancata dalla sua subordinazione storica e teorica al mar-keting management e ha cominciato a produrre teorie e modelli propri,indipendentemente dal fatto che risultassero immediatamente o neces-sariamente funzionali o utili per la funzione marketing all’internodelle imprese. Questa traiettoria sembra culminare nei contributi di al-cuni studiosi [Holbrook e Hirscheman, 1982; Hirschman e Holbrook,1995] che negano espressamente la necessità di finalizzare i risultatidello studio del comportamento del consumatore ad eventuali applica-zioni di marketing: infatti, studiare i consumatori avrebbe un valore insé e non solo come supporto per il marketing.

Dagli inizi del Duemila, l’incontro teorico tra ricercatori di diver-se discipline, come neuroscienza, psicologia, filosofia, antropologia edeconomia, ha permesso la nascita di due nuove discipline: la neuroe-conomia e il neuromarketing. Entrambe si rifanno ai paradigmi e alleconoscenze delle neuroscienze cognitive e hanno per oggetto lo studiodei processi mentali espliciti ed impliciti dei consumatori in dei diver-si contesti economici, concernenti anche attività di valutazione, di pre-sa di decisione, di memorizzazione o di consumo. Scopo generale,pertanto, di questo libro è quello di indagare, attraverso la descrizionee spiegazione dei processi mentali (affettivi e cognitivi), i comporta-menti risultanti osservabili negli individui in azione in dei contesti di

Introduzione 9

natura commerciale e consumistica. Il volume è così articolato. Dap-prima, nel capitolo I, viene delineato il quadro epistemologico di rife-rimento nell’ambito del quale si pone la neuroeconomia.Un’attenzione particolare è stata dedicata alla questione metodologica,specificando i meriti ed i limiti delle tecnologie di visualizzazione ce-rebrale. Nel capitolo II segue, attraverso una rassegna di alcuni tra ilavori empirici più significativi, un’introduzione relativa al dibattitoattorno il neuromarketing. Vogliamo a questo proposito specificareche quando parliamo di neuromarketing non ci riferiamo ad una ver-sione “debole” che consiste in una semplice appropriazione di meto-dologie e di tecniche obiettive che mirano a quantificare e visualizzaredei fenomeni cognitivi, ma al contrario, aderiamo ad una versione“forte”, secondo la quale è il contesto globale e paradigmatico delleneuroscienze ad applicarsi a dei contesti particolari circoscrittidell’attività umana. In questo senso, il neuromarketing contribuiscealla raccolta di dati sulla conoscenza riguardo la relazione comporta-mento-cervello, conservando parallelamente una sua finalità praticanel mondo degli affari e della pubblicità.

A ciò fa seguito, nel capitolo III, una rassegna delle principali areedel sapere psicologico applicabili al marketing, in modo da fornire allettore una più adeguata comprensione di tutti i fattori che con forzasfociano in un determinato comportamento d’acquisto. A tal proposi-to, ci siamo concentrati sulle variabili affettive e motivazionali cheattengono all’individuo, sulle molteplici influenze semantiche, sociali,antropologiche, valoriali e, più in generale, culturali che, nell’insieme,connotano i processi d’acquisto. Sono successivamente introdotti, nelcapitolo IV, alcune teorie e modelli che pur trovando origine in altriambiti del sapere hanno successivamente trovato collocazione nelleteorie di marketing. Infine, nel capitolo V, viene riassunto il quadro e-pistemologico e metodologico di riferimento nell’ambito del quale sipone la teoria della decisione, ovvero quell’area del sapere che ha peroggetto lo studio scientifico di come si prendano le decisioni, di comesi possa cercare di renderle ottimali o per lo meno soddisfacenti e diquali fattori possono influire su di esse. Viene delineato, inoltre, attra-verso la trattazione di alcuni concetti della “teoria dei giochi”, come ivissuti emotivi e le dinamiche strategiche di interazione sottoforma di

Introduzione10

cooperazione e conflitto possano influire sul processo decisionale in-dividuale.

Questo libro è stato la tappa di un viaggio di conoscenza, di verifi-ca e di confronto, durante il quale tante persone mi hanno accompa-gnato ed aiutato. In particolar modo dato l’ineguagliabile sostegnoche, in questi anni, ha dato al mio lavoro tengo a ringraziare PietroPerconti che ha avuto anche la pazienza di leggere e commentarel’intero manoscritto. Ringrazio, inoltre, Ninni Pennisi e Franco Lo Pi-paro per l’influenza che hanno avuto sul mio pensiero con i loro con-tributi e le loro critiche. Devo rivolgere altresì il mio ringraziamento aiprofessori Francesco Parisi, Andrea Velardi, Alessandra Falzone, Da-niele Schilirò, Valentina Cardella, Alessio Plebe, per avermi fornitopreziosi commenti e utili stimoli culturali. Ho inoltre beneficiato delladiscussione sui temi qui affrontati con molteplici colleghi-amici, tracui: Elvira Bruni, Piero Drago, Domenica Bruni, Caterina Scianna,Sebastiano Nucera, Maria Primo, Emiliano La Licata, Cristina Puleo.Un debito ugualmente profondo ho con la mia famiglia per avermisopportato e sostenuto nei momenti difficili.

11

I. Scienze cognitive e neuroeconomia

1.1. Cosa sono le Scienze cognitive Quando si parla di scienza cognitiva s’intende quella confluenza di ri-cerche multidisciplinari aventi come oggetto di studio i processi co-gnitivi. Nella scienza cognitiva confluiscono studiosi provenienti da diversi ambiti quali, ad esempio, filosofia, neuroscienze, psicologia, linguistica, intelligenza artificiale, per citare solo gli ambiti disciplina-ri che hanno fornito i maggiori apporti. I settori sono, dunque, molti ed eterogenei, tanto che si è ritenuto opportuno, probabilmente a ra-gione, parlare di scienze cognitive, al plurale.

Infatti, da un lato, i vari studiosi pur provenendo da settori diversi hanno in comune l’interesse per l’analisi della cognizione; dall’altro, a seconda della provenienza di ogni singolo studioso, tale analisi viene affrontata con metodi talvolta molto differenti. Questo pluralismo me-todologico viene visto da alcuni studiosi come un fattore positivo di scambio, dialogo e incontro; di contro, secondo altri questo fantomati-co pluralismo non è altro che motivo di confusione e di preoccupazio-ne. Cercheremo di affrontare alcune di queste difficoltà epistemologi-che ed in particolare ci soffermeremo sull’idea che più di ogni altra è stata al centro di discussione: cioè l’ipotesi per cui sarebbe possibile mettere in relazione specifiche regioni del cervello con particolari a-spetti del comportamento cognitivo.

Alcuni studiosi, partendo dall’osservazione di sintomi estrema-mente selettivi a seguito di lesioni cerebrali, hanno postulato che alcu-ne capacità potessero essere realizzate da un insieme complesso di meccanismi, operanti in modo relativamente autonomo e tali da risul-tare separabili e singolarmente lesionabili. In questo senso, lo studio della cognizione e dei suoi rapporti con il cervello si è venuto progres-sivamente a configurare da un lato come un tentativo di scomporre il comportamento nei suoi meccanismi più elementari (componente fun-zionale), dall’altro come un tentativo di individuare regioni distinte sotto il profilo anatomo-fisiologico nell’organizzazione del cervello

Capitolo I 12

(componente neurale), nella speranza di poter individuare omologie fra gli uni e gli altri.

La rilevanza di questo genere di questioni emerge soprattutto nei confronti dei nuovi paradigmi sperimentali di cui si avvalgono le neu-roscienze cognitive per correlare comportamento e cervello, in primis le metodologie di brain imaging, considerate da gran parte degli stu-diosi come una delle strategie più promettenti per cercare di restringe-re reciprocamente l’architettura funzionale dei processi cognitivi e l’anatomia funzionale del cervello umano. Le ipotesi tradizionali, e-merse dai paradigmi sperimentali classici, circa la corrispondenza fra componenti funzionali ed aree di elaborazione nel cervello, hanno tro-vato nei metodi di brain imaging un efficace strumento di conferma e di eventuale revisione. 1.1.1.La neuropsicologia classica

La neuropsicologia, ovvero lo studio dei rapporti fra lesioni cerebrali e disfunzioni comportamentali, ha rappresentato, a partire dal XIX seco-lo, il terreno più fertile per lo studio dell’organizzazione funzionale del cervello umano. Alle origini del paradigma neuropsicologico stava l’idea che lesioni di particolari regioni della corteccia cerebrale gene-ravano deficit specifici di particolari capacità. La possibilità, quindi, di identificare delle disfunzioni selettive che lasciavano inalterato l’insieme delle rimanenti facoltà, ha dato origine alla concezione del cervello come sistema costituito da organi autonomi specializzati nella realizzazione di diverse funzioni.

La neuropsicologia si avvaleva, pertanto, di due classi di fenome-ni: da un lato anomalie specifiche ricorrenti in un soggetto nell’atto di svolgere alcune attività (come il nominar un oggetto percepito, il ripe-tere parole ascoltate, il leggere ad alta voce sequenze scritte di caratte-ri), dall’altro la presenza nello stesso soggetto di una lesione circo-scritta di una determinata area cerebrale. Il primo requisito dell’indagine neuropsicologica era quello di capire come il deficit os-servato fosse interpretabile in maniera significativa rispetto al compor-tamento normale. La sindrome patologica isolata non dice, infatti, nul-la se non in rapporto ad una teoria del funzionamento normale della capacità considerata. Si richiedeva come prima cosa, pertanto, un mo-

Scienze cognitive e neuroeconomia

13

dello del funzionamento normale di una determinata capacità: soltanto rispetto ad essa il sintomo poteva essere interpretato come disfunzione circoscritta di una specifica struttura funzionale. È questo il principio noto come “assunzione di trasparenza”. Questo principio stabilisce che schemi comportamentali deficitarii possano essere interpretati so-lo a patto che rimangano inalterate le restanti capacità cognitive [Ca-ramazza, 1986]. Questa assunzione, in altre parole, richiede che il si-stema cognitivo di un paziente che presenta una lesione cerebrale sia essenzialmente lo stesso di quello di un soggetto normale, eccezion fatta per una modifica locale del sistema. Viene cioè respinta la possi-bilità che una lesione cerebrale comporti la creazione di nuove opera-zioni cognitive, tali da dare luogo nel soggetto ad un diverso sistema cognitivo che abbia una relazione non trasparente con il sistema origi-nario. Schemi di risposta devianti sarebbero di scarso valore teorico se fossero privi di restrizioni, se cioè fossero devianti su tutte le funzioni interessate. L’assunzione di trasparenza postula, quindi, che una lesio-ne cerebrale non alteri complessivamente l’organizzazione dei sistemi cognitivi, fornendo in tal modo una cornice teorica per la classifica-zione dei disturbi nonché per la previsione di deficit non ancora osser-vati. Per meglio esplicitare questa problematica riportiamo, a titolo di esempio, il modello classico di Ludwig Lichtheim [Lichteim, 1885] teso a ricostruire l’architettura della facoltà del linguaggio e le proce-dure legate alla comprensione ed alla riproduzione degli stimoli lin-guistici:

Figura 1. Modello dell’architettura della facoltà del linguaggio [Lichtheim, 1885]

Capitolo I 14

Questo modello individua l’insieme delle operazioni e delle procedure richieste dai diversi tipi di compiti linguistici che siamo abituati a compiere, quali ripetere ad alta voce parole udite, trascriverle e via di-cendo. Lo schema di sinistra, infatti, descrive i “centri di elaborazio-ne” del linguaggio e i percorsi dell’informazione di essi (a descrive l’input sensoriale, m l’output motorio dell’elocuzione verbale, A per il centro delle rappresentazioni motorie delle parole, O per il centro delle rappresentazioni visive, B per il centro semantico, E per il centro d’innervazione degli organi deputati della scrittura). Lo schema di de-stra, viceversa, riporta i vari punti in cui il sistema è suscettibile di le-sioni tali da produrre deficit comportamentali. Come scrive Andrè Ombredane [Ombredane, 1951], questo modello ha consentito la pri-ma descrizione unitaria delle diverse sindromi descritte nella letteratu-ra afasiologica (ad esempio, da una lesione che colpisce il centro dell’articolazione motoria M discende la sindrome afasica descritta da Broca o- secondo la definizione di Wernicke -afasia motoria, tale che viene abolita la parola spontanea -BMm-, la ripetizione di parole -aAm-, la lettura ad alta voce OABMm-).

Il modello di Lichtheim risulta particolarmente interessante per il nostro studio poiché stabilisce una diretta corrispondenza fra capacità deficitarie e lesioni selettive di componenti funzionali: l’autore evi-denzia, infatti, le connessioni dirette tra i vari centri sottostanti al pro-cesso linguistico, ritenendo pertanto che questo fosse il risultato della loro azione congiunta, e che le diverse forme di afasia fossero in tal modo causate sia dalla distruzione dei centri, sia dall’interruzione del-le vie di connessione tra i vari centri. Naturalmente il modello è stato oggetto di numerose critiche. John Morton [Morton, 1984], ad esem-pio, ne dà una sommaria rassegna, a partire da Freud e Head, circa l’inadeguatezza strutturale dei suoi modelli di spiegazione delle afasie. In realtà, osserva Morton, il valore dell’opera di Lichtheim sta nel suo tentativo di separare descrizioni della funzione da descrizione dell’anatomia, nella sua intenzione di isolare un dominio indipendente di ricerca, teso a studiare la pura articolazione funzionale dei processi linguistici alterati in seguito a lesioni. La mistificazione operata dai denigratori di Lichtheim deriverebbe, sempre secondo Morton, dall’aver quindi interpretato l’associazione lesione-sindrome come un’associazione lesione-componente funzionale, dall’aver, pertanto,

Scienze cognitive e neuroeconomia

15

caricato di valenze “localizzazioniste” ipotesi che non erano affatto nell’intenzione dell’autore.

Ciò che comunque questo modello evidentemente non contempla è la possibilità di spiegazioni molteplici dello stesso deficit. Tim Shal-lice [Shallice, 1988] osserva, a tal proposito, il fatto che pur essendo possibile che alcuni componenti funzionali possa operare in modo normale, questo non ci impedisce di postulare che il modo in cui essi interagiscono non lo sia: che non lo sia cioè l’insieme delle procedure attraverso cui i vari componenti realizzano dati compiti. Shallice sug-gerisce, quindi, di individuare dei criteri più stringenti per identificare singoli componenti deficitarii ed evitare in questo modo la costruzione di modelli artefatti: criteri individuati da Shallice nella strategia delle “doppie dissociazioni”.

Figura 2. Schema esplicativo del fenomeno della doppia dissociazione [Shallice, 1988]

Capitolo I 16

Ciò che questo modello mette in evidenza è il fatto che il riscontro, ri-spettivamente, in due soggetti che riportano una lesione cerebrale di (1) una capacità A deficitaria di fronte a una capacità B illesa e (2) della stessa capacità A illesa accanto alla capacità B deficitaria, possa assumersi generalmente sufficiente a garantire l’indipendenza dei due sistemi responsabili dei deficit osservati. Come risultato degli studi fatti con il metodo delle doppie dissociazioni, la neuropsicologia co-gnitiva potrebbe essere descritta come un esercizio di scomposizione di una funzione cognitiva nelle sue componenti essenziali.

Come sottolinea sempre Shallice, le difficoltà cognitive riscontrate nei pazienti neurologici devono essere interpretati in termini di un normale sistema dell’informazione con alcuni sottosistemi isolati o vie di trasmissione che operano in modo sbagliato. Pertanto questi model-li, non più strettamente legati al substrato anatomico, sono considerati come caratteristiche schematiche o formalizzate del normale processo di elaborazione cognitiva dell’uomo, e risultano estremamente utili per lo studio di pazienti che hanno subito deficit cognitivi a causa di un danno cerebrale.

La strategia delle doppie dissociazioni ha goduto di tanta stima negli studi neuropsicologici, rappresentando lo strumento teorico più comune per la costruzione di modelli normativi di date capacità cogni-tive. Tuttavia il problema centrale del modello di Shallice, così come di tutti i modelli che mirano a spiegare capacità complesse, è che se pur costruito in maniera tale da dar ragione del funzionamento in ter-mini astratti di una data capacità e dei suoi potenziali deficit, sembra necessitare di un ulteriore requisito e cioè che i processi descritti a li-vello di architettura funzionale siano ad un certo livello di analisi con-frontabili con i processi effettivamente realizzati nel cervello. La neu-ropsicologia classica per rispondere a questo requisito assumeva che dovesse esistere almeno una regione cerebrale che fosse la realizza-zione fisica di ogni singolo componente funzionale specificato in un modello e che le regioni fossero tra loro connesse in modo tale da im-plementare i processi descritti dal modello; questa concezione che proiettava il tutto sull’anatomia cerebrale è stata oggetto di aspre criti-che. In seguito a queste considerazioni anche la moderna neuropsico-logia deve continuare a porsi il problema dell’adeguatezza implemen-tazionale dei propri modelli? Un filone consistente di studiosi dichia-

Scienze cognitive e neuroeconomia

17

ra, infatti, di non volersi sbilanciare in attesa di conoscenze più precise da parte neurologica sulle strutture che realizzano i processi cognitivi. Esamineremo a tal proposito come le ipotesi fin qui esaminate abbiano trovato nei metodi di brain imaging un efficace strumento di conferma o di eventuale revisione. 1.1.2. Le tecniche di visualizzazione cerebrale I progressi compiuti nella comprensione delle strutture cerebrali si so-no fatti significativamente più rapidi a partire dagli anni Settanta, at-traverso l’introduzione delle sofisticate tecniche di imagery cerebrale. L’impiego, infatti, di metodi non invasivi per la visualizzazione dell’attività cerebrale, quali in primis PET (Positron Emission Tomo-graphi) e fMRI (Functional Magnetic Resonance Imaging ), ha per-messo di osservare la sede e l’estensione dei danni cerebrali nonché la visualizzazione delle modifiche dell’attività cerebrale in seguito allo svolgersi dei diversi compiti mentali.

La PET (Tomografia per emissione di positroni), è uno strumento di registrazione indiretta dell’attività cerebrale (mentre le tecniche come, ad esempio, EEG e MEG, così come le altre tecniche elettrofi-siologiche sono definite dirette in quanto misurano direttamente il se-gnale elettrico o un segnale ad esso riconducibile come quello magne-tico), che rivela variazioni di un indice dell’attività cerebrale, nella fat-tispecie del debito sanguigno dei tessuti neurali. La validità del meto-do riposa, sull’assunzione che variazioni dell’attività cerebrale siano accompagnate costantemente da variazioni dell’irrogazione sanguigna dei tessuti. Utilizzando un tracciante radioattivo a decadimento rapido, preliminarmente iniettato nel paziente, è possibile individuare le aree in cui il debito sanguigno aumenta conseguentemente ad una aumento di un’attività cognitiva; localizzando, in seguito, le zone in cui il trac-ciante decade, la PET permette di identificare le aree in cui si è svi-luppato il debito sanguigno in seguito ad un’attività neurale.

Il sistema di rilevazione della PET è costituito da una serie di sen-sori disposti a corona attorno alla testa del soggetto: dal momento che il decadimento dell’isotopo radioattivo è accompagnato dall’emissione simultanea di due fotoni in direzione opposte, il rilevamento del loro incontro simultaneo con i rilevatori permette di risalire alla traiettoria

Capitolo I 18

della loro emissione (rilevamento per coincidenza). Dall’intersezione delle diverse traiettorie individuate in corrispondenza di altrettante coppie di fotoni è possibile risalire ulteriormente alle regioni da cui esse provengono. Una elaborazione digitale di questi dati permette in-fine di visualizzare tridimensionalmente le regioni d’emissione e di correggere le eventuali distorsioni dovute all’assorbimento dei tessuti. La risoluzione spaziale della PET è dell’ordine del millimetro: più che sufficiente, quindi, a rilevare fenomeni di attivazioni cerebrali di larga scala. Sotto il profilo temporale, di contro, la PET risulta essere una tecnica piuttosto povera, dal momento che i tempi necessari per l’acquisizione delle immagini risultano notevolmente più lunghi della durata dei processi che essi intendono misurare: l’attività in cui il sog-getto è impegnato deve di conseguenza essere mantenuta o ripetuta per tutta la durata temporale richiesta dagli strumenti ai fini dell’acquisizione dei dati. Il limite maggiore consiste però nel fatto che la PET richiedendo l’impiego di traccianti radioattivi risulta essere una tecnica molto invasiva, con la conseguenza che il numero di espe-rimenti reiterabili per soggetto è notevolmente limitato.

L’fMRI (Risonanza Magnetica Nucleare funzionale) è, invece, basata sul fenomeno della risonanza magnetica nucleare, che sfrutta le proprietà nucleari di certi atomi in presenza di campi magnetici. La tecnica è entrata in uso negli anni Settanta allo scopo di ottenere im-magini dettagliate dell’anatomia cerebrale. Attraverso tecniche di rile-vamento ultrarapido dei dati, è divenuta possibile l’acquisizione di immagini in tempi talmente ridotti (dell’ordine del centesimo di se-condo) da permettere di seguire nel loro svolgimento alcuni aspetti del metabolismo. Applicato alla fisiologia del cervello, l’fMRI ha permes-so di visualizzare su una scala temporale estremamente fine le varia-zioni dell’ossigenazione delle regioni corticali, variazioni che si con-siderano siano in stretta relazione con il grado di attività delle regioni stesse. Si sono sfruttate a questo scopo le proprietà magnetiche di cui godono le molecole di emoglobina, proprietà che differiscono legger-mente a seconda che questa sia legata o meno all’ossigeno. Si regi-strano dunque immagini che si ipotizza rappresentino fedelmente le variazioni dell’attività neurale regionale laddove si evidenzia un con-trasto fra regioni ricche in ossiemoglobina, in cui cioè il flusso san-guigno risulta accresciuto, e regioni dal flusso sanguigno normale.

Scienze cognitive e neuroeconomia

19

Se il segnale, rispetto alla PET, rilevato è più debole, minore la sensibilità e peggiore di conseguenza il rapporto segnale/rumore, i vantaggi rispetto a quest’ultima sono molteplici. Oltre alla risoluzione temporale accresciuta, va sottolineato in primo luogo che l’fMRI si basa su un segnale intrinseco che non richiede alcun tipo di tracciante. Inoltre, rispetto alla PET, le misurazioni ottenute per fMRI dell’attività legate al compito svolto dal soggetto in sede sperimentale possono essere rapportate direttamente alle immagini anatomiche tri-dimensionali del soggetto ricavate con la stessa tecnica. L’insieme di queste tecniche, unitamente a quelle di analisi microstrutturale e agli studi di lesione, ha aperto uno spazio di indagine estremamente ampio per studiare l’organizzazione ed il funzionamento del cervello: è oggi possibile misurare tramite tecniche diverse l’attività neurale dal livello sinaptico fino a quello convoluzionare, così come studiare fenomeni che si collocano sotto il profilo temporale intorno a una durata dell’ordine del millisecondo (le interazioni tra neuroni) fino a feno-meni relativamente lenti, come quelli dell’apprendimento.

1.1.3. I limiti delle tecniche

Con l’introduzione di queste sofisticate tecniche, i modelli della neu-ropsicologia si sono dovuti confrontare con le varie mappe anatomo-funzionali del cervello, divenendo così possibile un raffronto fra teo-rie, conferme o confutazioni delle stesse. Come le altre metodologie che mirano a spiegare i complessi rapporti fra cervello e comporta-mento, anche il brain imaging annovera, all’interno del suo apparato teorico, una serie di metodi atti a rendere più trasparenti possibile i da-ti osservativi e a contenere la possibile proliferazione di spiegazioni dei fenomeni esaminati. A dire il vero nel caso in questione ciò si pre-senta di fondamentale importanza per il semplice fatto che vengono applicati modelli comportamentali all’interpretazione di dati di natura neurofisiologica. La metodologia più accettata in sede neuroscientifica è quella nota con il nome di “sottrazione cognitiva”. Per capire il ruolo dei metodi sottrattivi bisogna fare un passo indietro nella storia delle scienze cognitive fino agli studi di Frans Cornelis Donders di psicolo-gia sperimentale e dei tempi di reazione dei processi mentali. In questi studi Donders aveva sviluppato una rudimentale tecnica sottrattiva che

Capitolo I 20

nelle intenzioni dell’autore avrebbe permesso di isolare le differenti operazioni compiute da un soggetto nel corso di una determinata atti-vità cognitiva.

La logica di base del metodo di Donders consisteva nell’idea che la durata di una fase di elaborazione può essere misurata mettendo a confronto il tempo necessario per risolvere una versione di un partico-lare compito (ad esempio premere un pulsante dopo il riconoscimento di un particolare stimolo visivo), con una seconda versione del compi-to che differisce dal primo solo perché viene omessa la fase di elabo-razione (la pura reazione allo stimolo visivo). La differenza nel tempo necessario per risolvere le due versioni rappresentano il tempo che è stato speso nello stadio di elaborazione preso in considerazione. Il me-todo sottrattivo di Donders fu ripreso e perfezionato un secolo più tar-di da Saul Stenberg con il metodo dei “fattori additivi”. Stenberg [Stenberg, 1969], infatti, dimostrò che i tempi di reazione dei processi mentali erano suscettibili di variazioni a seguito di manipolazioni di alcune variabili: ad esempio, nel caso del tempo necessario ad un sog-getto per stabilire se un numero appartenga ad una lista preliminar-mente scelta, variabili influenti possono essere la chiarezza con cui il numero viene presentato visivamente (quindi la chiarezza del segnale), la ricerca nella memoria attiva della lunghezza della lista memorizza-ta, l’attivazione della risposta dalla sua compatibilità, ecc.

Quindi assumendo che un task richieda una sequenza di operazio-ni, è possibile valutare, sostiene Stenberg, in che misura, manipolando le variabili, ne risenta la durata delle singole operazioni. L’importazione del metodo sottrattivo di Donders e dei fattori additivi di Sternberg negli studi di brain imaging è dovuta alla collaborazione fra il neurologo Marcus E. Raichle e lo psicologo Michael Posner [Po-sner e Raichle, 1994]. Negli studi dei due autori la sottrazione viene impiegata nella ricostruzione dei fattori che generano l’attività neurale rilevata: il principio adottato da Posner ricalca, infatti, quello di Don-ders e di Stenberg e consiste nel sottrarre, nelle mappe di attivazione rilevate dalla PET, i valori relativi allo stato di controllo da quelli rela-tivi allo stato attivato.

Ad esempio, sottraendo dai valori ottenuti chiedendo ad un sog-getto di fissare uno stimolo visivo, i valori di controllo registrati nello stesso soggetto mentre tiene gli occhi chiusi, si può ipotizzare, secon-

Scienze cognitive e neuroeconomia

21

do Posner, di poter isolare l’attività cerebrale correlata alla sola fissa-zione passiva dello stimolo visivo. Quello che vogliamo pertanto af-fermare è che non si deve ritenere che lo studio della fisiologia o dell’anatomia funzionale fornisce dati per così dire indipendenti ri-spetto, ad esempio, ai modelli psicologici di partenza sull’architettura dei processi cognitivi: in altre parole si vuole avanzare ben più che il semplice sospetto che gli esperimenti scientifici partano con un mo-dello neuropsicologico ben chiaro.

In complesso, si è riconosciuto che la grande innovazione apporta-ta dall’impiego di tecniche come la PET e l’fMRI, rispetto ad esempio alle tecniche classiche, consiste nel fatto che, pur non fornendo che una misurazione indiretta dell’attività cerebrale, esse hanno permesso di visualizzare in modo tridimensionale e con una notevole definizio-ne spaziale il flusso sanguigno cerebrale, indicatore della variazione locale dell’attività del cervello. In particolare, le tecniche di brain i-maging hanno rappresentato il primo potente strumento non invasivo per la localizzazione di funzioni cognitive nel cervello umano e sono state, di conseguenza, un ponte teorico fra gli studi dettagliati sugli a-nimali e le eterogenee informazioni neuropsicologiche sulla specializ-zazione funzionale del cervello dell’uomo. Le forti aspettative che molti studiosi nel campo delle scienze cognitive hanno mostrato nei confronti del brain imaging sono intimamente legate all’idea che esso potesse per la prima volta fornire una misura integrata dell’attività globale del cervello umano in relazione a un determinato compito o, in altre parole, una visualizzazione precisa delle diverse aree cerebrali coinvolte nella realizzazione di un compito. Al tempo stesso le grandi riserve sono dovute all’argomento che avanza più di un dubbio sull’idea avanzata da alcuni studiosi per cui ad ogni procedura cogni-tiva (modulo funzionale) corrisponda un centro localizzato nel cervel-lo (modulo anatomico).

L’importanza di questa distinzione sta a nostro avviso nel fatto che una definizione architettonica di modulo deve essere scevra da in-gerenze relative alla sua realizzazione neurale: da questa distinzione dipende il rigore di ipotesi di correlazione e la possibilità di applicare vincoli comportamentali all’identificazione di aree cerebrali e vicever-sa. D’altronde, le conoscenze complessive di come le strutture macro-scopiche del cervello siano in relazione con gli aspetti del comporta-

Capitolo I 22

mento cognitivo, sono ancora ad uno stadio embrionale. A questo pro-posito, le scienze cognitive non dispongono che di informazioni locali provenienti da diversi paradigmi sperimentali: dati circa la risposta di particolari regioni cerebrali a classi di stimoli sensoriali (evidenza e-lettrofisiologia), nozioni relative ai percorsi principali all’interno della corteccia (studi anatomo-fisiologici sulla connettività), evidenza clini-ca e comportamentale relativa a disfunzioni selettive indotte da lesioni localizzate (evidenza neuropsicologica), conoscenze comparative sull’organizzazione cerebrale di specie filogeneticamente affini all’uomo (studi su primati) oppure informazioni globali sul coinvol-gimento di varie regioni e sulle variazioni di parametri metabolici in corrispondenza di determinati compiti (studi elettrofisiologici su larga scala e metodologie di brain imaging).

Il problema cardine della modellizazione dei sistemi cerebrali su larga scala è quello di come impiegare contestualmente e confrontare reciprocamente questa massa eterogenea di dati sperimentali. Infatti, lo scarto che intercorre nel rapporto teoria/osservazione fra la neuro-psicologia e le neuroscienze non comporta difficoltà rilevanti finché si resta ad un livello strettamente intrametodologico. Nel momento stes-so in cui, però, si passa ad un livello di confronto interdisciplinare in mancanza di un tessuto teorico comune, diventa fondamentale l’individuazione di criteri espliciti per il confronto fra teorie ed osser-vazioni di natura eterogenea. In realtà, se lasciamo cadere alcune delle assunzioni che governano i singoli metodi di indagine, assunzioni non sempre universalmente accettate (si pensi, ad esempio, all’assunzione di trasparenza nel caso della neuropsicologia, o alla pura additività nel caso del brain imaging), vengono automaticamente a cadere quei vin-coli da cui, singolarmente presi, essi dipendono.

1.1.4. La modularità

L’ipotesi che il cervello sia costituito da sistemi operanti in maniera autonoma e indipendente gli uni dagli altri ha assunto vigore negli ul-timi anni del Novecento non solo sotto la spinta delle indagini neuro-scientifiche (e quindi dei metodi sottrattivi), ma argomenti a sostegno sono stati avanzati anche dall’indagine psicologica. Di questi tentativi, il più rappresentativo è certamente quello di Jerry Fodor [Fodor, 1983]

Scienze cognitive e neuroeconomia

23

che ha esposto le caratteristiche in virtù delle quali alcune proprietà architettoniche riescano a determinare sottosistemi isolati all’interno di facoltà più ampie (ad esempio, la facoltà della visione o la facoltà del linguaggio). Fodor [Fodor, 1985] definisce come “modulo” un componente di un sistema più complesso caratterizzato da una serie di proprietà. Tra queste proprietà la più importante è la specificità di do-minio, vale a dire quella caratteristica che intende valutare la destina-zione di un sistema nella elaborazione dell’informazione proveniente da una sola modalità sensoriale. Questa caratteristica esclude, pertan-to, che lo stesso componente funzionale possa trattare input diversi dal dominio per cui è designato.

Strettamente legata alla specificità di dominio vi è anche una altra proprietà, l’idea di Fodor più forte della nozione di modulo, e cioè l’icapsulatezza o “ impenetrabilità cognitiva”. Un sistema si definisce “ incapsulato” se non riceve informazioni da altri sistemi, ovverosia se i processi che svolge non sono modulati dall’insieme di informazioni di cui l’organismo dispone, ma dipendono bensì soltanto dall’informazione di livello più basso (i cosiddetti transducers) o dall’informazione contenuta nel sistema stesso. L’esempio riportato dallo stesso autore è quello della visione, in cui si può cercare di stabi-lire in che misura gli stadi iniziali della percezione visiva non siano in-teressate da conoscenze preacquisite, ma svolgono autonomamente la loro elaborazione degli stimoli. In altre parole, le operazioni di un modulo si avvalgono unicamente di informazioni altamente specifiche contenute al suo interno, senza mai ricorrere a conoscenze di tipo più generale disponibili al resto del sistema cognitivo. Il modulo fodoria-no è pertanto computazionalmente autonomo, vale a dire riesce a por-tare a termine il processo di cui è responsabile in modo completamen-te autonomo, senza condividere cioè risorse con altri componenti o meccanismi neurali. Oltre alla specificità di dominio, l’accessibilità limitata e l’incapsulamento informativo, altre proprietà definiscono un modulo fodoriano: ad esempio, i moduli sono veloci (cioè non subi-scono interferenze da altri sistemi tali da rallentare il processo), sono obbligati (cioè che non è possibile, ad esempio, percepire una frase come una pura sequenza di suoni), mostrano disfunzioni peculiari (ca-ratteristica legata alla specificità di dominio e di fondamentale impor-

Capitolo I 24

tanza per l’indagine psicologica), e seguono nel loro sviluppo un ritmo e una sequenza caratteristica.

Queste caratteristiche sono una conseguenza diretta del modo in cui i moduli sono concepiti, cioè come meccanismi di elaborazione di in-formazione puramente sintattica, tarati, quindi, sul particolare formato dei propri dati e non sul contenuto. Impostando in questo modo il con-cetto di modularità, rimangono fuori dalla spiegazione di Fodor stati mentali complessi (come, ad esempio, credenze e desideri) che non possono essere ricondotti facilmente ad una singola funzione mentale, ma che sono invece emergenti, attribuibili olisticamente alla mente nella sua interezza e non a un suo sottosistema: in opposizione alle ca-pacità implementate localmente dai moduli mentali, Fodor tratta que-sti stati come globali. La sensibilità di essi al contenuto, oltre che alla forma, lo spinge a vederli come non implementabili all’interno di un modulo e, quindi, non trattabili da un punto di vista computazionale.

Contro questa ipotesi si sono schierati i sostenitori dell’interpretazione massiva del modularismo mentale, secondo i quali la cognizione può essere spiegata facendo appello all’idea di un fun-zionamento coordinato dei numerosi moduli specializzati, deputati ciascuno di essi a trattare problemi di un dominio specifico, mentre le proprietà della cognizione generale sarebbero da ricondursi all’interazione tra i moduli [Pinker, 1997; Sperber, 1994].

Entrambe le interpretazioni del modularismo sostengono, quindi, che le informazioni sono elaborate dai moduli da un punto di vista pu-ramente sintattico, secondo dei processi perfettamente replicabili da una macchina di Turing. Per Fodor e per i sostenitori della teoria mo-dulare classica della mente, tuttavia, i dati da elaborare ricalcano le en-tità teoriche della psicologia del senso comune e sono codificati in un linguaggio interno (il mentalese) simile ad un linguaggio naturale, in maniera tale che la base di conoscenze a fondamento dei moduli rical-ca in senso forte un processo logico-deduttivo di calcolo. Secondo i teorici della modularità massiva, al contrario, le informazioni sono presenti nei moduli in un formato subsimbolico [Smolensky, 1988], dando in questo modo la possibilità ai moduli di interagire strettamen-te tra loro: infatti, sebbene essi trattino forme di informazioni altamen-te specifiche, la codifica di queste nei circuiti neurali può dar vita a dei

Scienze cognitive e neuroeconomia

25

meccanismi di corrispondenza e di associazione che ignorano la speci-ficità dei dati e del loro formato di rappresentazione.

Steven Pinker, a questo proposito, scrive: “i moduli mentali non hanno bisogno di essere rigidamente isolati l’uno dall’altro, di comu-nicare solo tramite poche e strette condutture..[…] la metafora del modulo mentale è insomma un pò approssimativa; una migliore è quella di Chomsky, di organo mentale che è una struttura fatta su mi-sura per svolgere una particolare funzione” [Pinker, 1997: 9]. Da que-sto deriva che non è necessario ipotizzare, in maniera alquanto inge-nua, l’esistenza di moduli per ogni argomento che gli uomini possono trattare, ma, al contrario, qualsiasi fenomeno di distribuzione sociale dell’informazione può utilizzare i preesistenti moduli.

Argomentazioni a favore della modularità massiva della mente provengono dallo studio delle patologie psicologiche: l’autismo, per citare un solo caso, è stato recentemente interpretato come un danneg-giamento locale dei moduli deputati all’interpretazione degli stati mentali altrui (e propri) in termini di credenze e desideri e all’attribuzione di questi stati ad altri (e a se stessi) che, tuttavia, lascia intatti altri tipi di abilità cognitive [Baron-Cohen e Swettenham, 1997]. Più dubbio è il discorso riguardo all’evidenza sperimentale: l’ipotesi della modularità è in effetti confermata da analisi dell’attivazione neurale per quanto riguarda alcune attività cognitive, quali la percezione [Zeki, 2000], ma per le attività generalmente defi-nite come “centrali”, l’interpretazione dei dati empirici è più contro-versa [Carruthers, 2003]. Infatti, sebbene, per una definizione minima, i moduli devono essere pensati come distinti e specializzati, la loro funzione dipende in larga misura dalla posizione rispetto a sistemi di moduli più ampi e infine al macrosistema rappresentato dal cervello umano, la cui complessa topografia siamo ben lontani dal conoscere con sicurezza. 1.1.5. Il cervello automatico Per molto tempo si è pensato, in modo implicito, che gli esseri umani avessero capacità cognitive generali e che queste potessero essere ap-plicate a qualsiasi tipo di problema. Inoltre si assumeva che le persone si comportavano in maniera equivalente nei confronti dei problemi

Capitolo I 26

che si presentavano loro con le stesse caratteristiche. L’automaticità del cervello, evidenziata da alcuni studi neuroscientifici, suggerisce, al contrario, che il modo di agire delle persone dipenderà, in maniera critica, da come può essere valutato un particolare problema da un modulo neuronale specializzato e che ben si adatta a quel tipo di ana-lisi. Pertanto, quando esiste un modulo neuronale specializzato a ri-solvere un particolare compito, l’elaborazione avviene rapidamente ed il compito viene svolto relativamente senza sforzi (è quanto avviene, ad esempio, per i processi automatici implicati nella visione). Sapere, quindi, fino a che punto i nostri giudizi, le nostre decisioni o i nostri comportamenti sono sotto il controllo del pensiero cosciente o se sono frutto di processi automatici è tra le questioni al centro di un acceso dibattito. Inizialmente era dibattuta l’esistenza stessa di questi partico-lari processi. Oggi, invece, la discussione si focalizza sulle circostanze nelle quali l’uno o l’altro di questi processi (controllati o automatici) sono attivi.

I “processi controllati” vengono definiti come stati di atti mentali che vengono iniziati volontariamente, che necessitano pertanto di uno “sforzo” e che si possono controllare. Definire, invece, i “processi au-tomatici” è più arduo. In una accezione minima essi sono i contrari dei processi controllati, operano in parallelo alla coscienza, non necessita-no di alcuno “sforzo intenzionale” e sono abitualmente vissuti come percezioni [Lieberman, 2003]. Bargh e Chartrand [Bargh e Chartrand, 1999] distinguono due forme di processi mentali “non coscienti”. En-trambi operano senza sforzo ma il primo sistema necessita del coman-do della coscienza per iniziare la sua azione (ad esempio, guidare una automobile per la centesima volta), mentre l’altro evolve completa-mente in parallelo. Il modo di operare dei processi controllati e auto-matici è chiaramente interattivo anche se, naturalmente, i processi au-tomatici essendo più rapidi fanno sempre valere la loro “opinione”, occupando in tal modo larga parte delle basi del comportamento [Ca-merer et al., 2003]. Di fronte ad un compito o un problema da risolve-re, i due processi possono arrivare ad una diversa soluzione. Ciò è sta-to dimostrato da Stevan Sloman [Sloman, 1996], il quale evoca delle forme di credenza che possono essere simultaneamente contraddittorie come viene provato dall’illusione visiva e l’errore di giudizio delle due linee dell’illusione ottica di Muller-Lyer.

Scienze cognitive e neuroeconomia

27

Figura 3. L’illusione di Muller-Lyer Pur essendo le linee della stessa lunghezza (cambia solo il senso) la percezione visiva e la comprensione astratta forniscono due risposte differenti. Solo la conoscenza astratta delle regole della geometrica ci permettono di comprendere che la percezione visiva induce all’errore. Un altro errore di giudizio che ci permette di illustrare la coesistenza di processi controllati e automatici è conosciuto con il nome di “errore di congiunzione” [Tversky e Kahneman, 1983] e si rifà al più noto e semplice tra i principi statistici, ovvero quello che la probabilità di una congiunzione è inferiore alla probabilità del verificarsi di ciascuna del-le sue componenti ( la formula è: P (A e B) < P (A) e P (a e B) < P (B)).

Tversky e Kahneman presentando l’esperimento ai partecipanti premettono loro che: Linda ha 31 anni, è molto intelligente ed ha ottenuto una laurea in fi-losofia. Inoltre, è impegnata socialmente contro le discriminazioni ed ha partecipato a delle dimostrazioni anti-nucleari. In seguito i due studiosi domandarono ai partecipanti di classificare in ordine di probabilità alcune opzioni di risposte, tra cui: 1) Linda è attiva nel movimento femminista (A) 2) Linda è cassiera in una banca (B) 3) Linda è cassiera in una banca ed è attiva nel movimento femminista (A e B).

La stragrande maggioranza dei partecipanti, anche quelli che a-vevano delle ottime conoscenze dei principi statistici, violò la regola di congiunzione: essi non la applicarono semplicemente perchè si tro-vavano fuori da un contesto di un corso normale di statistica. La coe-

Capitolo I 28

sistenza di queste due forme di valutazione è, secondo gli autori, la prova dell’esistenza di due processi, uno di deliberazione attentiva e l’altra fatta su base associativa.

Studi neuroscientifici, nei quali si è utilizzato l’fMRI, hanno per-messo di identificare alcuni corollari cerebrali dei processi controllati e automatici. Il neuroscienziato Philip Lieberman classifica i processi in due categorie: il “sistema C” ed il “sistema X”. Il “sistema C” è composto da tre regioni cerebrali: la corteccia cingolata anteriore, la corteccia prefrontale ed il lobo temporale mediale (incluso l’ippocampo). Il lobo temporale mediale permette la memoria coscien-te. La corteccia prefrontale (chiamata anche regione esecutiva) utilizza le informazioni provenienti dalle altre zone del cervello per formulare obiettivi a breve e lungo termine, pianificando le azioni conformemen-te a questi obiettivi [Lieberman, 2003; Shallice e Burgess, 1998; Ca-mererer et al., 2003]. La corteccia cingolata anteriore si attiva per di-versi conflitti cognitivi [Eisenberger et al., 2003]. Questa regione può “allertare” la corteccia prefrontale quando i processi automatici non raggiungono il loro obiettivo [Botvinick et al., 1999]. Benché queste regioni fanno parte dei processi controllati non si può classificarli troppo rigidamente poiché alcuni processi automatici hanno ugual-mente corso in queste strutture cerebrali. Per quanto riguarda il “si-stema X”, Lieberman, individua tre strutture neuronali: l’amigdala, il giro centrale (gangli della base) e la corteccia laterale temporale. L’amigdala reagisce spontaneamente a degli stimoli di differenti for-me (espressioni di paura o presenza, ad esempio, di animali che incu-tono timore, ecc.) dando vita a movimenti motori di avvicinamento o di fuga. Il giro centrale risponde a differenti forme di ricompensa anti-cipata, mentre la corteccia temporale laterale permette il riconosci-mento dell’identità, attributi e comportamenti di oggetti sociali e non sociali.

1.2. La neuroeconomia Gli economisti sono stati i primi, proponendo il termine neuroecono-mia, a cogliere l’esigenza di comprendere i processi di decisione degli agenti economici rifacendosi agli approcci della psicologia cognitiva e

Scienze cognitive e neuroeconomia

29

delle neuroscienze [Tversky e Kanheman, 1974]. La neuroeconomia è una branca dell’economia comportamentale (behavioral economics) che cerca di indagare il ruolo dei meccanismi psicologici dell’analisi economica senza, tuttavia, rigettare di colpo il paradigma neoclassico, che fornisce una cornice teorica basata sulla massimalizzazione dell’utilità, degli equilibri e dell’efficienza [Camerer e Loewenstein, 2002]. Questi concetti sono stati rimpiazzati, comunque, da altre ipo-tesi giudicate più realiste, al fine di tenere conto dei limiti umani in materia di capacità di calcolo, volontà, egoismo. È in questo contesto che la neuroeconomia è stata definita come lo stato in cui l’utilizzazione dei processi cerebrali permette di trovare dei nuovi fondamenti per le teorie economiche [Camerer, 2004]. L’economia sperimentale, la psicologia e le neuroscienze possono, pertanto, con-validando o falsificando il modello dell’utilità, permettere d’arricchire la comprensione del comportamento economico. Nel modello dell’utilità, si suppone che la scelta presa abbia una più grande utilità rispetto le sue alternative concorrenti. L’utilità può, dunque, essere concepita come un sistema mentale in cui si effettua una valutazione soggettiva, delle differenti alternative, con l’ipotesi della massimizza-zione. Per Jeremy Bentham, è la dimensione edonistica dell’utilità, il cuore della presa di decisione. La scelta tende ad orientarsi verso la ri-cerca del piacere e l’evitabilità del dispiacere. Di recente, sono stati at-tivati dagli studiosi di neuroscienze nuovi campi di studio. Queste ri-cerche, collegate alla memoria, ai processi di decisione e di risoluzio-ne dei problemi, fanno appello ad alcuni concetti proposti dall’economia, in primis l’utilità [Camerer e Loewenstein, 2002]. L’utilizzazione del concetto di utilità per spiegare le scelte ed i com-portamenti complessi ha quindi permesso di stabilire alcuni ponti tra neuroscienza ed economia.

L’ipotesi standard di una funzione d’utilità consiste nell’idea che l’utilità sia marginale e decrescente, vale a dire che U<0 e U>0. Un esperimento di Platt e Glimcher [Platt e Glimcher, 1999] fatto su delle scimmie, ha permesso di illustrare come il cervello possa realmente codificare questo genere di funzione. Infatti, vi è una certa similitudi-ne tra come le scienze economiche intendono questo concetto di base e i dati che sono state registrati a partire dal cervello delle scimmie. Lo studio sperimentale di Platt e Glimcher [Platt e Glimcher, 1999] ha

Capitolo I 30

permesso, utilizzando il concetto di speranza dell’utilità e la tecnica di misurazione di un solo neurone, di dimostrare che la regione laterale intraparietale del cervello delle scimmie, possa allo stesso tempo codi-ficare sia le probabilità sia il valore associato ad una ricompensa. L’esperimento consisteva nell’insegnare alle scimmie a scegliere tra due punti luminosi (che apparivano su degli schermi piazzati a destra o a sinistra rispetto al punto di osservazione in cui si trovavano le scimmie). Quando, con un movimento della testa, le scimmie effettua-vano la scelta giusta, ottenevano una ricompensa (del cibo). Per rende-re massima la sua utilità, una scimmia doveva ricordare le probabilità anteriori associate alla sua scelta ed ovviamente anche il valore della ricompensa. Il compito sperimentale, veniva eseguito su blocchi di 100 compiti. In alcuni di questi blocchi, la probabilità del movimento verso la parte destra si stabilivano all’ 80% ed al 20% verso la sinistra. In altri blocchi, queste probabilità erano invertite. In questo modo, le probabilità anteriori e posteriori, a ognuno di questi blocchi dovevano essere continuamente stimate dal cervello della scimmia e non essere, quindi, concordanti.

Figura 4. L’esperimento di Platt e Glimcher [Platt e Glimcher, 1999] L’obiettivo era quello di variare le probabilità di ricompensa mante-nendo costanti gli stimoli visivi e i movimenti motori, in maniera tale, da verificare se l’attivazione dei neuroni della regione laterale intrapa-

Scienze cognitive e neuroeconomia

31

rietale era correlata, in un modo o in un altro, con le probabilità ante-riori o posteriori. Mantenendo costanti gli stimoli e i movimenti delle scimmie, gli autori constatarono che le probabilità di ricompensa ed i loro cambiamenti erano correlati all’attivazione neuronale. Quindi, il cervello delle scimmie, codificava un segnale non sensoriale e non motore. Platt e Glimcher interpretarono questo segnale come prova che le scimmie cercano innanzitutto di massimizzare le loro probabili-tà di guadagno.

Dopo aver mostrato che il cervello della scimmia può codificare le probabilità associate ad una ricompensa, un secondo momento dell’esperimento era dedicato a verificare se la scimmia è capace di fa-re altrettanto con il valore della ricompensa. Gli autori, quindi, man-tennero costanti i movimenti, gli stimoli e le probabilità di ricompensa (che furono fissate al 50%) e variarono, da un blocco di compiti all’altro, solo le quantità di ricompense (in alcuni blocchi, le quantità di cibo ottenuto erano 0,2 ml guardando a sinistra e di 0,1 ml guar-dando a destra; in altri blocchi, le quantità erano invertite). I risultati misero in luce come anche i valori del guadagno, quando gli elementi sensori-motori erano mantenuti costanti, venissero codificati dai neu-roni; in pratica, i neuroni erano più attivi quando la speranza di gua-dagno era elevata. Il fatto che, il cervello delle scimmie, fosse in gra-do, allo stesso tempo, di codificare tanto l’ampiezza delle ricompense quanto la loro probabilità, dimostra due cose. In primo luogo, che il concetto di speranza dell’utilità, sembra avere trovato un corollario neurologico. In secondo luogo, che alcuni concetti la cui base si trova nella teoria economica possano trovare spazio nel quadro d’analisi delle neuroscienze. L’economia e le neuroscienze possono, quindi, beneficiare l’una dell’altra, cosa che del resto è stata già sottolineata da Knutson e Peterson [Knutson e Peterson, 2005]. 1.2.1. Utilità e substrato cerebrale umano

Comprendere meglio i meccanismi grazie ai quali il cervello valuta e confronta delle alternative e delle forme variabili di ricompense ci può permettere di risalire alle determinazioni delle nostre scelte e dei no-stri comportamenti. Nel cervello, ogni alternativa deve essere incorpo-rata e confrontata in modo automatico o delimitata, a partire da dei ve-

Capitolo I 32

ri domini di informazione. Queste alternative devono dunque essere trasformati dal cervello in unità comparabili. Per esempio, l’attivazione della corteccia parietale posteriore è correlata all’ampiezza del guadagno monetario [Paulus et al., 2001] tanto che la sua anticipazione sarà positivamente correlata con l’attivazione della regione dello striato ventrale [Knutson e Peterson, 2005]. Due osser-vazioni importanti sono state fatte da Knutson e Peterson. In primo luogo, lo striato ventrale è attivato solo dall’anticipazione di un gua-dagno monetario; un guadagno, una perdita, o l’anticipazione di una perdita monetario non hanno, apparentemente, effetto su questa regio-ne.

Il quadro d’interpretazione di questi autori (che diverge parzial-mente da quello di Platt e Glimcher) si inserisce nell’ottica della teoria prospettiva di Kahneman e Tversky [Kahneman e Tversky, 1984], va-le a dire che la prospettiva di guadagno e di perdita sono supposte non essere trattate dagli stessi algoritmi e dagli stessi meccanismi neurali. Una seconda osservazione di Knutson e Peterson concerne la regione mediana della corteccia prefrontale. Secondo loro, questa regione re-gistra il guadagno monetario, disattivandosi quando il guadagno mo-netario è nullo. Fatto importante è che questa non è attiva né per quel che concerne le anticipazioni (perdita o guadagno), né le perdite. La corteccia prefrontale non è, quindi, funzionale all’anticipazione di una ricompensa inizialmente appresa. La corteccia prefrontale può tuttavia dare dei feedback quando le condizioni ambientali cambiano. Brian Kuntson ed i suoi colleghi [Knutson et al., 2001] fanno la seguente omologia: in pratica paragonano lo striato ventrale ad un pedale, men-tre la regione mediana della corteccia prefrontale ad un volante che può orientare le scelte, verso la direzione appropriata, quando cambia-no le condizioni. I risultati ottenuti, oltre a convalidare l’esistenza di due diversi tipi di processi mentali della presa di decisione (i processi controllati dalla corteccia prefrontale ed i processi automatici dello striato), danno forza al concetto che Daniel Kahneman [Kahneman, 1994] ha suggerito per l’utilità; cioè che le differenti forme d’utilità trovano, rispettivamente, la loro fonte da differenti regioni del cervel-lo. Secondo Knutson e Peterson, lo striato ventrale è legato al concetto d’utilità anticipato, mentre la regione mediana della corteccia prefron-tale è legata al concetto di utilità istantaneo. I loro risultati sono, inol-

Scienze cognitive e neuroeconomia

33

tre, ugualmente compatibili con la distinzione fatta da Berridge e Ro-binson [Bernheim e Rangel, 2002] secondo i quali esistono due distin-ti processi neurali attivi per quello che si ama (liking) e quello che si vuole o si desidera (wanting).

È possibile, inoltre, stabilire alcuni parallelismi tra il modello dell’utilità e la dopamina (composto chimico che dà origine alla nora-drenalina; la dopamina è uno dei neuromediatori e la sua ridotta pre-senza, in alcuni nuclei del cervello, è messa in relazione al morbo di Parkinson). Numerose ricerche, infatti, hanno dimostrato il ruolo pri-mordiale giocato dalla dopamina nella selezione degli obiettivi. Le prime evidenze del ruolo giocato dalla dopamina, nella presa di deci-sione, associano quest’ultima alla sensazione di piacere [Olds e Mil-ner, 1954]; gli studi, infatti, mostrano l’aumento della dopamina in certe regioni del cervello dei topi, quando questi venivano coinvolti in delle attività gratificanti. Da questo sembra evidente il legame tra la dopamina ed il piacere edonistico. Riassumendo, possiamo asserire che, per assicurarsi la sopravvivenza, tutte le specie devono potere compiere delle funzioni vitali diverse come cibarsi, reagire alle ag-gressioni e riprodursi. I circuiti cerebrali della ricompensa permettono di ottenere questi obiettivi. L’area ventrale (ATV), un gruppo di neu-roni situati nel pieno centro del cervello, è particolarmente importante nel funzionamento di questo circuito. Questa riceve degli imputs da diverse altre aree del cervello che la informano del livello di soddisfa-zione dei bisogni fondamentali (o più specificatamente umani). All’arrivo di un segnale che annuncia una ricompensa, si riscontra un aumento dell’attività della ATV. Questa regione trasmette, quindi, queste informazioni grazie ad un messaggio chimico particolare, la dopamina appunto, che viene emessa dalla corteccia prefrontale e dall’amigdala, attivando in questo modo sia l’attività motoria sia l’attenzione selettiva.

Dunque, è questa secrezione di dopamina ad ottenere l’effetto di rafforzare determinati comportamenti, permettendo la soddisfazione di bisogni fondamentali. Di conseguenza, possiamo affermare che il cir-cuito della ricompensa, così come quello della punizione, forniscono la motivazione necessarie alla maggioranza dei nostri comportamenti. La secrezione della dopamina può essere causata dall’ambiente asso-ciato alla ricompensa e non dalla ricompensa stessa. Per esempio, la

Capitolo I 34

semplice vista di un bicchiere di vodka può generare un impulsivo de-siderio (non cosciente) di fumare una sigaretta ad una persona che, in passato, aveva preso l’abitudine di consumare insieme queste due so-stanze. La dopamina sarà allora responsabile di un’insieme di compor-tamenti, fra cui anche l’acquisto economico [Laibson, 2001; Bernheim e Rangel, 2002], destinati ad attendere diverse forme di ricompensa.