neuroscienze I supersensi del cervello -...

2
64 Le Scienze 535 Marzo 2013 www.lescienze.it Le Scienze 65 Victoria Ling I supersensi del cervello NEUROSCIENZE I nostri cinque sensi collaborano assai più di quanto credevamo. Ciò che udiamo dipende pertanto anche dalle cose che vediamo o che percepiamo con gli altri sensi di Lawrence D. Rosenblum I neuroscienziati hanno considerato a lungo il cervello come una specie di coltellino svizzero, in cui le differenti regioni erano dedicate alle diverse percezioni sensoriali, come la vista, l’udito, l’olfatto, il gusto, il tatto. Tuttavia negli ultimi trent’anni la psicologia e le neuroscienze hanno rivelato che il cervello è un organo profondamente multesensoriale, che mescola di continuo le informazioni dai diversi sensi. La rivoluzione multisensoriale, oltre a cambiare il modo in cui viene studiato il cervello, suggerisce nuove strade per aiutare le persone cieche e quelle sorde, suggerendo inoltre perfezionamenti ai software di riconoscimento verbale. IN BREVE A lla fine degli anni settanta, l’FBI arruo- lò Sue Thomas e altre sette persone non udenti come lei perché analizzassero il disegno delle impronte digitali. L’ente federale era convinto che svolgendo que- sto compito notoriamente minuzioso le persone sorde sarebbero rimaste concen- trate più a lungo. Ma Sue trovò l’operazione terribilmente mono- tona, lamentandosene più volte con i superiori e chiedendo di ri- nunciare all’incarico. Il suo responsabile la convocò, ma non per licenziarla. Anzi, in un certo senso fu promossa. Le mostrò un vi- deo muto di due presunti criminali intenti a conversare e le chie- se di decifrare il labiale. Sue interpretò facilmente le parole dei sospettati, che facevano parte di una rete di gioco d’azzardo clan- destino. E così cominciò la carriera di Sue, la prima esperta lettri- ce labiale in forza all’FBI. Le sue abilità si erano affinate grazie a una vita passata a co- municare leggendo le labbra. Eppure è un talento che abbiamo tutti, e più spiccato di quanto crediamo. In effetti, la nostra ca- pacità di capire le parole diminuisce se non possiamo vedere le labbra dell’interlocutore, per esempio negli ambienti rumorosi o quando la persona ha un marcato accento estraneo. Imparare a percepire le parole con gli occhi, oltre che con le orecchie, è im- portante per uno sviluppo normale del linguaggio. Per questa ra-

Transcript of neuroscienze I supersensi del cervello -...

64 Le Scienze 535 Marzo 2013 www.lescienze.it Le Scienze 65

Vict

oria

Lin

g

I supersensi del cervello

neuroscienze

I nostri cinque sensi collaborano assai più di quanto credevamo. Ciò che udiamo dipende pertanto

anche dalle cose che vediamo o che percepiamo con gli altri sensi

di Lawrence D. Rosenblum

I neuroscienziati hanno considerato a lungo il cervello come una specie di coltellino svizzero, in cui le differenti regioni erano dedicate alle diverse percezioni

sensoriali, come la vista, l’udito, l’olfatto, il gusto, il tatto.Tuttavia negli ultimi trent’anni la psicologia e le neuroscienze hanno rivelato che il cervello è un organo

profondamente multesensoriale, che mescola di continuo le informazioni dai diversi sensi.La rivoluzione multisensoriale, oltre a cambiare il modo in cui viene

studiato il cervello, suggerisce nuove strade per aiutare le persone cieche e quelle sorde, suggerendo inoltre perfezionamenti ai software di riconoscimento verbale.

I n b r e v e

A lla fine degli anni settanta, l’FBI arruo-lò Sue Thomas e altre sette persone non udenti come lei perché analizzassero il disegno delle impronte digitali. L’ente federale era convinto che svolgendo que-sto compito notoriamente minuzioso le persone sorde sarebbero rimaste concen-

trate più a lungo. Ma Sue trovò l’operazione terribilmente mono-tona, lamentandosene più volte con i superiori e chiedendo di ri-nunciare all’incarico. Il suo responsabile la convocò, ma non per licenziarla. Anzi, in un certo senso fu promossa. Le mostrò un vi-deo muto di due presunti criminali intenti a conversare e le chie-

se di decifrare il labiale. Sue interpretò facilmente le parole dei sospettati, che facevano parte di una rete di gioco d’azzardo clan-destino. E così cominciò la carriera di Sue, la prima esperta lettri-ce labiale in forza all’FBI.

Le sue abilità si erano affinate grazie a una vita passata a co-municare leggendo le labbra. Eppure è un talento che abbiamo tutti, e più spiccato di quanto crediamo. In effetti, la nostra ca-pacità di capire le parole diminuisce se non possiamo vedere le labbra dell’interlocutore, per esempio negli ambienti rumorosi o quando la persona ha un marcato accento estraneo. Imparare a percepire le parole con gli occhi, oltre che con le orecchie, è im-portante per uno sviluppo normale del linguaggio. Per questa ra-

www.lescienze.it Le Scienze 6766 Le Scienze 535 marzo 2013

Font

e: Is

neo

corte

x es

sent

ially

mul

tisen

sory

? di

Asi

f A. G

haza

nfar

e C

harle

s E.

Sch

roed

er, i

n Tr

ends

in «

Cogn

itive

Sci

ence

s», V

ol. 1

0,

No.

6; g

iugn

o 20

06 (s

chem

a em

erge

nte)

; agg

iorn

ato

per L

awre

nce

D. R

osen

blum

, Aar

on R

. Sei

tz e

Kha

leel

A. R

azak

Lawrence D. Rosenblum è docente di psicologia all’Università della California a Riverside, e autore di Lo straordinario potere dei nostri sensi, Bollati Boringhieri, Torino, 2011.

Speech Perception as a Multimodal Phenomenon. Rosenblum L.D., in «Current Directions in Psychological Science», Vol. 17, 2008.

The New Handbook of Multisensory Processing. Stein E.B., (a cura), MIT Press, 2012.

p e r a p p r o f o n d I r e

Uditivo

SomatosensorialeVisivo

gione i bambini ciechi dalla nascita spesso impiegano più tempo per imparare alcuni aspetti del linguaggio. In sostanza, non pos-siamo fare a meno di integrare le parole che vediamo sulle labbra altrui con le parole che ascoltiamo. Negli ultimi decenni la ricerca sulla percezione multisensoriale del linguaggio ha rivoluzionato le nostre idee su come il cervello organizza le informazioni sensoriali.

Neuroscienziati e gli psicologi hanno abbandonato l’idea tradi-zionale che il cervello sia una specie di coltellino svizzero, in cui regioni diverse si occupano ciascuna di uno dei cinque sensi. Og-gi si ritiene invece che l’evoluzione del cervello abbia privilegia-to il dialogo tra i sensi, e che le regioni sensoriali del cervello sia-no quindi fisicamente collegate fra loro.

I nostri sensi si sorvegliano reciprocamente in continuazione, occupandosi l’uno degli affari degli altri. La corteccia visiva, per esempio, pur occupandosi in primo luogo della visione, è perfet-tamente in grado di interpretare altre informazioni sensoriali. Do-po essere stata bendata per 90 minuti, una persona vedente diven-ta ipersensibile al tatto proprio attraverso la corteccia visiva. Allo stesso modo le scansioni cerebrali dimostrano che la corteccia vi-siva dei non vedenti riorganizza i propri circuiti a favore della per-cezione uditiva. Masticando una patatina fritta, sentire un suono croccante determina in parte sua gradevolezza, al punto che è pos-sibile alterare in laboratorio i risultati dei test sul gusto modulan-do il rumore percepito dai soggetti. Ancora, la direzione verso cui guardiamo stando in piedi e ciò che vediamo determinano la no-stra postura. In sintesi, le ricerche degli ultimi 15 anni dimostra-no che nessuno dei nostri sensi è un’isola. Questa rivoluzione mul-tisensoriale sta inoltre suggerendo nuovi modi per migliorare gli ausili per le persone cieche o sorde, come gli impianti cocleari.

Sillabe silenzioseUno dei primi e più solidi esempi conosciuti di percezione mul-

tisensoriale è l’effetto McGurk, osservato per la prima volta nel 1976 da Harry McGurk e John MacDonald. Se guardate il video di una persona che pronuncia ripetutamente in silenzio la sillaba «ga» e contemporaneamente udite l’audio in cui quella stessa per-sona pronuncia la sillaba «ba», sentirete la sillaba «da». La sillaba silenziosa «ga» cambia la vostra percezione della sillaba percepi-bile «ba» perché il cervello integra quanto il vostro corpo ha udi-to e visto. L’effetto McGurk funziona in tutte le lingue e continua a funzionare anche dopo 25 anni che lo si studia…

La parola che udiamo è influenzata anche dal parlato percepito sotto le nostre dita. Nel 1991 Carol Fowler, all’epoca al Darmouth College, ha chiesto ad alcuni volontari di provare la tecnica Tado-ma, che consiste nell’interpretare il discorso di una persona che ci sta parlando mettendo le nostre dita sulle sue labbra, sulle guance e sul collo. Era una tecnica a cui si affidavano molte persone sor-do-cieche prima che esistessero gli impianti cocleari, tra cui Helen Keller, la celebre scrittrice, attivista e insegnante statunitense, vis-suta tra il 1880 e il 1968, sorda e cieca dall’età di 19 mesi. Dall’e-sperimento è emerso che le sillabe percepite con il tatto dai volon-tari cambiavano la loro interpretazione di altre sillabe provenienti dai vicini altoparlanti.

Nel 1997 Gemma Calvert, allora all’Università di Oxford, indi-viduò le aree del cervello più attive durante la lettura labiale. Vo-lontari inesperti in questa forma lettura leggevano le labbra di un volto silenzioso che scandivano lentamente i numeri da uno a no-ve. Calvert e colleghi riscontrarono che la lettura del labiale atti-vava sia la corteccia uditiva – la regione cerebrale specializzata nei suoni – sia le regioni cerebrali correlate che, come sappiamo,

si attivano quando le parole le sentiamo pronunciare. Fu una del-le prime dimostrazioni di influssi incrociati tra sensi in un’area del cervello considerata fino a quel momento specializzata in un uni-co senso. Studi più recenti hanno aggiunto prove a favore della sintesi sensoriale. Per esempio oggi sappiamo che la parte uditi-va del tronco cerebrale risponde ad aspetti della parola percepi-ta con gli occhi, mentre prima si credeva che quell’area si occu-passe esclusivamente dell’elaborazione più rudimentale dei suoni. Gli studi di neuroimaging hanno dimostrato che durante l’effetto McGurk – udire «da» anche se il suono registrato è «ba» – il cervel-lo si comporta come se la sillaba «da» stesse cadendo sulle orec-chie dell’ascoltatore.

Questi risultati suggeriscono che il cervello darebbe sempre lo stesso peso alla parola, che sia raccolta dalle orecchie, dagli occhi o addirittura dalla pelle. Ciò non significa che queste distinte mo-dalità sensoriali contribuiscano con una quantità di informazione equivalente. È chiaro, l’udito coglie più dettagli linguistici rispetto alla vista o al tatto. Piuttosto, il cervello si impegna a prendere in considerazione e combinare le differenti informazioni verbali ri-cevute, a prescindere dalla modalità sensoriale.

Un volto da leggereIn altri casi, i sensi collaborano per elaborare lo stesso tipo di

informazione. Il modo specifico di parlare di una persona, per esempio, ci fa capire chi è, sia che la vediamo parlare oppure la udiamo. Con i miei colleghi filmiamo alcune persone mentre par-lano, poi manipoliamo i video eliminando ogni tratto riconoscibi-le dei volti, che si trasformano così in pattern di puntini lumine-scenti che sfrecciano e ballonzolano dove c’erano guance e labbra. Quando proiettiamo i filmati, i volontari sanno leggere questi aggregati di puntini senza faccia e distinguere gli amici.

Anche semplici suoni derivati dalla parola ci indicano l’iden-tità di una persona. Robert Remez e i colleghi della Columbia University riducono le normali registrazioni verbali a onde sinui-sodali, simili ai sibili e ai bip del robottino C1P8 di Guerre Stellari. Benché siano privi delle caratteristiche che distinguono le voci – come il timbro e la tonalità – questi pattern sinusoidali conserva-no l’informazione dello stile del parlato, e gli ascoltatori riescono a riconoscere gli amici. Il fatto ancora più sorprendente è che i vo-lontari riescono ad accoppiare queste onde sinusoidali con i video a puntini luminosi della stessa persona che parla.

Il fatto che versioni ridotte al minimo di un discorso sentito, e visto, conservino un’informazione simile sullo stile verbale indica che queste distinte modalità percettive si intrecciano nel cervel-lo, un collegamento confermato dalle neuroimmagini: ascoltare la voce di una persona familiare attiva il giro fusiforme, l’area del cervello umano che si occupa del riconoscimento dei volti.

Questi risultati hanno ispirato una previsione ancora più biz-zarra. Se queste forme di percezione sono mescolate, allora im-parare a leggere le labbra di una persona dovrebbe migliorare simultaneamente la capacità di ascoltarne le parole mentre le pro-nuncia. Abbiamo chiesto a volontari inesperti di lettura labiale di esercitarsi nella lettura di video muti di una persona che parlava

per un’ora. Dopo di che ascoltavano un insieme di frasi pronun-ciate sullo sfondo di un rumore casuale; a loro insaputa, metà di loro ascoltava le frasi pronunciate dalla persona di cui avevano appena letto le labbra, e l’altra metà leggeva invece le frasi di una persona differente. È risultato che chi ascoltava la stessa persona di cui aveva letto le labbra era più bravo a estrapolarne le frasi in mezzo al rumore.

Percezioni che si accavallanoLe ricerche sulla percezione multisensoriale del linguaggio

hanno stimolato lo studio dei più vari generi di interazione tra i sensi. Per esempio, quasi tutti sappiamo che l’olfatto è una com-ponente decisiva del gusto. Alcune ricerche dimostrano, però, che la vista e i suoni modificano a loro volta i sapori. In un esem-pio a dir poco curioso si è scoperto che una bevanda al sapore di arancia acquista un sapore di ciliegia se è tinta di rosso, e vice-versa. Nel 2005 Massimiliano Zampini e colleghi dell’Università di Trento hanno dimostrato che alterando il timbro di un rumore croccante emesso mentre si mangiano patatine altera la percezio-ne della loro croccantezza e freschezza. Guardare una trama visi-va che scende in modo continuo – una cascata – induce le perso-ne a credere che le superfici che stanno toccando stiano salendo. Ed è stato anche dimostrato che gli stimoli multisensoriali modifi-cano inconsciamente il nostro comportamento. Tom Stoffregen e colleghi dell’Università del Minnesota hanno chiesto a volontarie di stare in piedi e spostare lo sguardo da un bersaglio vicino a uno distante. Ebbene, la semplice variazione del fuoco visivo ha indot-to cambiamenti lievi, ma sistematici, della loro postura.

Risultati simili sono ormai così frequenti che oggi molti ri-cercatori ritengono che le regioni sensoriali del cervello siano intrinsecamente multisensoriali. Questo modello riveduto del

cervello va ad aggiungersi alle confer-me della sua incredibile plasticità, che, nel caso di una deprivazione sensoria-le a breve termine, modifica addirittu-ra la funzione di una regione sensoriale primaria. Per esempio, negli ultimi quat-tro anni gli studi con le neuroimmagini hanno confermato che bendare una per-sona per almeno un’ora e mezzo prepara la sua corteccia visiva a rispondere al tat-to: in effetti il coinvolgimento della cor-teccia visiva acuisce la sensibilità al tatto. In un esempio correlato, spesso una mio-pia temporanea accresce le abilità uditi-ve e spaziali, anche se i soggetti indossano occhiali (che offuscano buona parte della periferia visiva). A quanto pare, quindi, in generale la compensazione multisensoria-le è assai più diffusa del previsto.

La rivoluzione multisensoriale sta già aiutando le persone che hanno perdu-to uno dei sensi primari. Si è dimostrato, al riguardo, che gli impianti cocleari so-no meno efficaci se il cervello ha avuto troppo tempo a disposizione per conver-tire la corteccia uditiva menomata ad al-tre forme di percezione, come la visione o il tatto. Per questo è raccomandabile che i bambini sordi dalla nascita ricevano gli

impianti cocleari il prima possibile. Ricerche simili hanno inco-raggiato la prassi di far vedere ai bambini sordi e dotati di un im-pianto cocleare i video di persone che parlano. Impareranno co-sì a integrare la parola vista sulle labbra con la parola ascoltata.

Anche i progettisti di dispositivi e programmi per il riconosci-mento dei volti o del linguaggio sfruttano i risultati delle ricerche sulla percezione multisensoriale. I sistemi di riconoscimento del-la parola hanno quasi sempre prestazioni scarse se sono immer-si in livelli anche modesti di rumore di fondo. Insegnare a quei si-stemi ad analizzare spezzoni video della bocca di una persona ne aumenta decisamente l’accuratezza, una strategia efficace persino nelle videocamere installate nei telefonini e nei computer portatili.

Per alcuni versi l’idea di percezione multisensoriale sembra contraddire la nostra esperienza quotidiana. Per istinto, organiz-ziamo i sensi in tipi, perché ciascuno di essi sembra cogliere un aspetto molto differente del mondo: usiamo gli occhi per vedere i nostri simili e le orecchie per ascoltarli; sentiamo la consistenza di una mela con le mani, ma la gustiamo con la lingua.

Tuttavia, quando l’informazione sensoriale raggiunge il cervel-lo, questa rigida classificazione si sgretola, perché il cervello non colloca l’informazione visiva dagli occhi in un contenitore neura-le e l’informazione uditiva dalle orecchie in un altro, come se met-tesse in ordine delle monete. Al contrario, estrae un significato dal mondo nei modi più svariati, mescolando le diverse forme di per-cezione sensoriale. n

p e r c e z I o n e

Nessun senso è un’isolaDa qualche decennio gli scienziati sanno che alcune regioni cere-brali integrano le informazioni provenienti dai diversi sensi. Una re-gione mescola, magari, l’informazione visiva con la percezione so-matosensoriale tattile oppure termica. E risulta che la percezione multisensoriale è un aspetto dell’architettura neurale del cervello più diffuso di quanto si credesse. Sembra dunque che si sia evolu-to per favorire questo dialogo incrociato tra i sensi.

Illustrazioni parzialmente estrapolate da dati sui cervelli dei primati. Sono mostrate solo le aree principali

Schema tradizionale Schema emergente