Laura Sparaci, Due livelli esplicativi: modularismo e...

28
L’architettura della mente Saggi sulla teoria della modularità A cura di Francesco Ferretti e Massimo Marraffa Indice Introduzione. Modularità: una guida per il lettore di Francesco Ferretti e Massimo Marraffa Parte I La teoria della modularità: stretta e massiva Capitolo 1 Incapsulamento informativo e contenuto non concettuale di Davide Di Tommaso Capitolo 2 Fodor contro Fodor (ambiguità nella teoria modulare della mente) di Daniela Ferrari Capitolo 3 Specificità di dominio e teorie ingenue di Federica Pesce Capitolo 4 La teoria della teoria modularista di Jamila Mascat Capitolo 5 Il linguaggio tra i moduli di Valentina Martina Capitolo 6 Cultura e modularità di Giulia Andrighetto Capitolo 7 Antropologia cognitiva e modularità della mente: il caso della folk biology di Alberto Acerbi Capitolo 8 Psicopatologia e modularità di Elisabetta Sirgiovanni Parte II Oltre la modularità? Capitolo 9 Il connessionismo e il problema dell’olismo cognitivo di Francesca Martino 1

Transcript of Laura Sparaci, Due livelli esplicativi: modularismo e...

Page 1: Laura Sparaci, Due livelli esplicativi: modularismo e …host.uniroma3.it/.../Marraffa_ferretti-introduzione-def.doc · Web viewSaggi sulla teoria della modularità A cura di Francesco

L’architettura della menteSaggi sulla teoria della modularità

A cura di

Francesco Ferretti e Massimo Marraffa

Indice

Introduzione. Modularità: una guida per il lettore di Francesco Ferretti e Massimo Marraffa

Parte I – La teoria della modularità: stretta e massiva

Capitolo 1 Incapsulamento informativo e contenuto non concettuale di Davide Di Tommaso

Capitolo 2 Fodor contro Fodor (ambiguità nella teoria modulare della mente) di Daniela Ferrari

Capitolo 3 Specificità di dominio e teorie ingenue di Federica Pesce

Capitolo 4 La teoria della teoria modularista di Jamila Mascat

Capitolo 5 Il linguaggio tra i moduli di Valentina Martina

Capitolo 6 Cultura e modularità di Giulia Andrighetto

Capitolo 7 Antropologia cognitiva e modularità della mente: il caso della folk biology di Alberto Acerbi

Capitolo 8 Psicopatologia e modularitàdi Elisabetta Sirgiovanni

Parte II – Oltre la modularità?

Capitolo 9 Il connessionismo e il problema dell’olismo cognitivo di Francesca Martino

Capitolo 10 Due modelli di spiegazione in scienza cognitiva: modularismo e dinamicismo di Laura Sparaci

Capitolo 11 Il problema dell’individualismo: dalla modularità alle istanze dinamicista di Giulia Piredda

Riferimenti bibliografici

1

Page 2: Laura Sparaci, Due livelli esplicativi: modularismo e …host.uniroma3.it/.../Marraffa_ferretti-introduzione-def.doc · Web viewSaggi sulla teoria della modularità A cura di Francesco

Introduzione. Modularità: una guida per il lettore

di Francesco Ferretti e Massimo Marraffa

Il testo raccoglie una serie di saggi che esplorano uno dei temi più importanti della scienza cognitiva: la concezione modularistica della struttura della mente. Portata in primo piano da Noam Chomsky e Jerry Fodor all’inizio degli anni Ottanta del secolo appena trascorso, questa visione dell’organizzazione della mente è tuttora al centro di un intenso dibattito.

Lo scopo della raccolta è duplice. Innanzitutto, esaminare criticamente le due fondamentali versioni di questa concezione: quella ‘stretta’ proposta da Fodor e quella ‘massiva’ proposta da Dan Sperber alla metà degli anni Novanta. In secondo luogo, verificare la tenuta della teoria della modularità a confronto con alcune prospettive alternative che sono state elaborate negli ultimi anni.

In questa introduzione ci proponiamo di fornire il quadro di riferimento necessario per la piena comprensione dei contributi al volume.

1. La spiegazione psicologica e la struttura della mente

Il programma computazionale in psicologia1 è inscindibilmente legato a una visione modularistica dell’architettura cognitiva, seconda la quale la psiche non è – come pure siamo propensi a credere alla luce dell’introspezione – un’entità unitaria, bensì un insieme di sottosistemi distinti, che eseguono funzioni molto specifiche indipendentemente gli uni dagli altri. Questa concezione dell’organizzazione della mente è il frutto di una prassi esplicativa meccanicistica che apparenta la psicologia alla biologia e alla neuroscienza.

1.1 La spiegazione meccanicistica

Negli anni Cinquanta del secolo scorso il paradigma dell’elaborazione di informazioni portò al rifiuto del modello nomologico-deduttivo della spiegazione adottato dal comportamentismo2:

Un aspetto importante della prospettiva dell’elaborazione di informazioni adottata dalla scienza cognitiva è stato il tentativo di specificare i meccanismi soggiacenti la cognizione. Ogni operazione condotta sulle informazioni rappresentava un processo che aveva luogo all’interno del sistema cognitivo. I comportamentisti e gli psicologi matematici non avevano tentato di identificare tali meccanismi. Pertanto la ribellione dei cognitivisti contro il comportamentismo e i modelli matematici dell’apprendimento richiese di accogliere una concezione della spiegazione differente, in cui non era sufficiente identificare leggi o regolarità matematiche nel comportamento ma bisognava individuare anche i meccanismi soggiacenti (Bechtel, Abrahamsen e Graham 2004, p. 157).

Un meccanismo è un sistema stabile che svolge regolarmente un determinata attività. Esso è composto da parti che eseguono ognuna una propria operazione (funzione) e che interagiscono fra loro in modo da realizzare l’attività complessiva del sistema. L’identificazione delle parti di un 1 La psicologia computazionale è il nucleo centrale della scienza cognitiva cosiddetta ‘classica’. Con questo aggettivo si qualifica l’assetto intellettuale e istituzionale che la scienza cognitiva ha raggiunto intorno alla metà degli anni Ottanta del secolo scorso. Successivamente questo assetto si è espanso verso il cervello e verso l’ambiente sotto la spinta della neuroscienza cognitiva, della modellistica cognitiva connessionista e dinamicista, della robotica situata, della ‘vita artificiale’ e di altri programmi di ricerca che vengono spesso rubricati sotto l’etichetta ‘scienza cognitiva non- o post-classica’. Vedi sotto, Capp. 9-11.2 Secondo il modello nomologico-deduttivo della spiegazione scientifica elaborato dai neopositivisti logici, spiegare un fenomeno naturale (explanandum) significa dedurlo da un explanans composto da leggi universali e condizioni iniziali.

2

Page 3: Laura Sparaci, Due livelli esplicativi: modularismo e …host.uniroma3.it/.../Marraffa_ferretti-introduzione-def.doc · Web viewSaggi sulla teoria della modularità A cura di Francesco

sistema, la determinazione delle loro operazioni e la comprensione del modo in cui sono organizzate in modo da produrre l’attività complessiva del sistema è una spiegazione meccanicistica (cfr. Wright e Bechtel 2005).

La storia delle scienze biologiche e psicologiche mostra che lo sviluppo di una spiegazione meccanicistica è il frutto dell’applicazione di due strategie euristiche. La prima è la scomposizione di un meccanismo nelle parti o nelle operazioni che lo compongono3. La seconda è la localizzazione, vale a dire la messa in corrispondenza delle parti con le operazioni che costituiscono il meccanismo (Bechtel e Richardson 1993).

Solitamente, il primo passo nella scomposizione di un meccanismo è l’approccio della localizzazione semplice: all’interno del meccanismo viene identificata una componente che è vista come unica responsabile dell’attività del meccanismo stesso. Ad esempio, alla fine del XIX secolo alcuni ricercatori proposero che una reazione ossidativa, la fermentazione, fosse causata da un singolo enzima. O, per fare un esempio neuropsicologico, nel 1861 Paul Broca, avendo constatato che un deficit di produzione del linguaggio (‘afasia motoria’) era correlato con una lesione nella terza circonvoluzione frontale dell’emisfero sinistro, ipotizzò che quest’area cerebrale fosse la sede del linguaggio articolato.

Una localizzazione semplice è solo un abbozzo di spiegazione meccanicistica: immancabilmente, infatti, emergono prove che, denunciando i difetti di questo tipo di localizzazioni, tracciano le direttrici lungo le quali va condotta la loro revisione. Si passa così a una localizzazione complessa, vale a dire alla scoperta che anche altre componenti del meccanismo sono responsabili della sua attività.

Esemplifichiamo questo punto tornando alla neuropsicologia dell’afasia. Dopo che Broca ebbe attribuito la facoltà di produzione del linguaggio a una regione del lobo frontale, Karl Wernicke individuò una seconda regione, situata nel lobo temporale, che dava luogo a un deficit di comprensione del linguaggio denominato ‘afasia corticale sensoriale’. Ciò lo condusse a formulare un modello anatomo-funzionale in cui la funzione linguistica era suddivisa in due componenti distinte, connesse fra loro, con differenti correlati anatomici: un centro di immagini acustiche verbali nella parte posteriore dell’insula e della prima circonvoluzione temporale; un centro di immagini motorie verbali nella parte inferiore del lobo frontale. Al modello di Wernicke, Lichtheim aggiunse una terza componente, il centro dei concetti collegato agli altri due centri per rendere possibile l’emissione di messaggi verbali capaci di comunicare idee. I vari tipi di afasia risultavano dalla lesione delle fibre che collegavano questi centri.

Il modello di Wernicke-Lichtheim è dunque un meccanismo organizzato in modo lineare, vale a dire in modo tale che ogni sua parte esegue un’operazione in piena autonomia, generando un output che funge da input per la parte successiva. Seguendo Simon (1969), definiamo un sistema di questo tipo semiscomponibile: un certo numero di sottosistemi operano in serie lineare, ognuno realizzando autonomamente un passo dell’attività complessiva. Fatta eccezione per il fatto che i sottosistemi posteriori assumono l’input da quelli anteriori, essi sono indipendenti ed è possibile analizzare il loro contributo in isolamento.

Negli stadi iniziali della costruzione di un modello meccanicistico si tende spontaneamente a ipotizzare che il sistema indagato sia un sistema di elaborazione lineare. Tuttavia, qualora risulti impossibile sviluppare un modello lineare adeguato ai fenomeni, il modello viene modificato introducendo circuiti di retroazione e altre non-linearità. Il risultato è ciò che Bechtel e Richardson (1993) hanno denominato sistemi integrati. In un sistema integrato le componenti dipendono strettamente l’una dall’altra. Ne consegue che è molto difficile determinare il contributo che ciascuna componente apporta al comportamento complessivo del sistema dal momento che una componente si comporterà in modo differente a seconda che sia integrata nel sistema oppure isolata da esso.

3 Di conseguenza la nozione di scomposizione può essere intesa in senso strutturale (scomposizione in parti) o in senso funzionale (scomposizione in operazioni).

3

Page 4: Laura Sparaci, Due livelli esplicativi: modularismo e …host.uniroma3.it/.../Marraffa_ferretti-introduzione-def.doc · Web viewSaggi sulla teoria della modularità A cura di Francesco

Si delinea allora un continuum. A un estremo dello spettro abbiamo sistemi semiscomponibili, composti da «sottosistemi relativamente semplici che possono essere isolati artificialmente e che si comportano, in isolamento, in modo abbastanza simile a come funzionano in situ» (Fodor 1983, p. 128) – in tal caso, per spiegare i fenomeni a livello sistemico è sufficiente ricorrere alle proprietà di un piccolo numero di sottosistemi. Con il crescere della complessità dell’interazione fra le parti, l’onere della spiegazione si sposta gradualmente dalle parti all’organizzazione (al modo in cui le parti sono composte assieme). Si giunge così all’altro estremo dello spettro, in cui abbiamo sistemi olistici (le componenti sono funzionalmente identiche e dunque interscambiabili). In posizione intermedia si situano i sistemi integrati, in cui – a differenza dei sistemi olistici – è possibile isolare parti distinte che – a differenza delle parti dei sistemi semiscomponibili – danno luogo a un complesso insieme di interazioni non lineari.

Stabilire dove, in questo continuum, vada collocato il nostro sistema cognitivo è un problema empirico aperto in effetti, il problema centrale di questo libro.

1.2 Il funzionalismo homunculare

Gli eredi dei modelli anatomo-clinici della neuropsicologia ottocentesca sono i diagrammi composti da ‘scatole’ (i processi cognitivi) e ‘frecce’ (il flusso di informazione) che i cognitivisti sono andati elaborando a partire dagli anni Sessanta, segnando così la nascita della neuropsicologia cognitiva. Qui l’approccio meccanicistico diviene tutt’uno con il funzionalismo computazionale: spiegare la mente significa allora scomporla in un insieme di sottosistemi funzionali (moduli) relativamente indipendenti fra loro, in cui hanno luogo computazioni inconsce guidate dalla sintassi. È quello che Marr chiama il principio dell’architettura modulare: «Ogni ampia computazione deve essere suddivisa in una serie di piccoli sottoprocessi specializzati e semi-indipendenti» (1982, p. 325).

Una delle più celebri applicazioni del principio dell’architettura modulare è la teoria della visione dello stesso Marr. Come vedremo (Capp. 1, §2 e 10, §3), per questo studioso i moduli che costituiscono il sistema deputato all’elaborazione visiva primaria operano in serie lineare, ognuno realizzando un passo dell’attività complessiva. Fatta eccezione per il fatto che i moduli posteriori assumono l’input dai moduli anteriori, essi sono indipendenti ed è possibile analizzare il loro contributo in isolamento. L’organizzazione del sistema è semiscomponibile (Fig. 1).

Figura 1

In filosofia della mente questa sintesi tra funzionalismo computazionale e spiegazione meccanicistica, elegantemente esemplificata dalla teoria della visione di Marr, è stata denominata funzionalismo homunculare ed è stata utilizzata per rispondere a una classica obiezione antimentalista, il problema dell’homunculus.

Il problema è questo: a prima vista ogni spiegazione dell’agire intelligente in termini di elaborazione di informazioni presuppone una ‘piccola persona’ dentro la testa (un ‘homunculus’, appunto), e conseguentemente incorre in una petizione di principio. Infatti: chi è che comprende le informazioni da elaborare? Ad esempio, in che modo un agente può utilizzare le credenze pertinenti

4

Page 5: Laura Sparaci, Due livelli esplicativi: modularismo e …host.uniroma3.it/.../Marraffa_ferretti-introduzione-def.doc · Web viewSaggi sulla teoria della modularità A cura di Francesco

per raggiungere uno scopo senza che vi sia una qualche sorta di interprete interno che comprende tali credenze? Tuttavia avere un simile interprete dentro la testa presuppone precisamente l’intelligenza che ci si era proposti di spiegare4.

La soluzione fornita dal funzionalismo homunculare si articola in due idee fondamentali.La prima idea è il vincolo di formalità: le computazioni sono procedure che generano nuove

rappresentazioni a partire da rappresentazioni che il sistema (biologico o artificiale) si è formato in precedenza. Tali procedure sono sensibili esclusivamente alla forma delle rappresentazioni, ossia alle loro proprietà sintattiche, mentre sono indifferenti alle proprietà semantiche. In altri termini, le operazioni computazionali sono specificate indipendentemente dai significati delle formule su cui operano. Il calcolo proposizionale fornisce un semplice esempio di come ciò può avvenire. La regola del sillogismo disgiuntivo, ad esempio, specifica una transizione che si compie a partire da qualsiasi formula dotata di una particolare organizzazione interna. È possibile passare da qualsiasi formula della forma ‘non-P & (P o Q)’ a ‘Q’. Questa trasformazione è specificata indipendentemente dal significato dei simboli P e Q. Un meccanismo potrebbe applicare una regola come questa ignorando completamente questi significati. Non si incorre in petizioni di principio quando si costruiscono teorie che fanno dipendere le operazioni cognitive da proprietà strutturali di questo tipo.

La seconda idea è l’analisi homunculare, il nome con cui alcuni filosofi della mente (Dennett 1978; Lycan 1981) denominano l’operazione di scomposizione funzionale. In questa prospettiva le capacità complesse sono insiemi strutturati di capacità molto più semplici. Ossia: la mente è modulare, essendo composta da un insieme di sottosistemi funzionali che operano come unità distinte e con un grado più o meno elevato di autonomia. L’intelligenza generale e flessibile che caratterizza l’essere umano è la risultante dell’interazione fra intelligenze sempre più specializzate: «homunculi ottusi perché monomaniaci cooperano fra loro per costituire quelli più brillanti» (Sterelny 1990, p. 13). Fuor di metafora, funzioni come la visione vengono scomposte in funzioni via via più elementari, che interagiscono fra loro per realizzare il compito complessivo.

Tale scomposizione va applicata in modo ricorsivo, ossia ogni homunculus è a sua volta visto come un complesso di homunculi più specializzati e dunque progressivamente più semplici. Idealmente, la scomposizione continua finché non si raggiunge un livello in cui i compiti che gli homunculi devono realizzare sono talmente elementari da poter essere giudicati psicologicamente primitivi. Ad esempio, nella teoria di Marr un’operazione primitiva è la rilevazione dei contorni delle forme nell’immagine retinica: per spiegarla dobbiamo far ricorso non già alla psicologia ma alla neurobiologia. E a quel punto, finalmente, gli homunculi sono stati – per dirla con Dennett (1978, p. 81) – «scaricati».

Prese assieme, condizione di formalità e funzionalismo homunculare garantiscono che una teoria computazionale della cognizione non incorra in una petizione di principio. La teoria non presuppone l’agire intelligente, ma lo spiega. Infatti la condizione di formalità garantisce che le operazioni elementari di una teoria computazionale non presuppongono l’intelligenza; mentre il funzionalismo homunculare garantisce che tutte le funzioni cognitive sono, in ultima analisi, spiegabili in base a queste operazioni elementari.

2. Modularità epistemica e modularità fodoriana

Abbiamo dunque visto che nella psicologia scientifica la prassi esplicativa meccanicistica presuppone una concezione modularistica dell’architettura cognitiva, secondo la quale la psiche è

4 Secondo Dennett tale problema è l’obiezione più importante che il comportamentista Skinner ha rivolto all’impiego delle spiegazioni mentalistiche in psicologia: «Poiché il compito della psicologia è spiegare l’intelligenza umana, essa non può assolvere tale compito se in qualche punto della spiegazione presuppone intelligenza o razionalità. Ora, introdurre un homunculus significa proprio questo, e Skinner lo riconosce esplicitamente in Behaviorism at Fifty» (Dennett 1978, p. 58).

5

Page 6: Laura Sparaci, Due livelli esplicativi: modularismo e …host.uniroma3.it/.../Marraffa_ferretti-introduzione-def.doc · Web viewSaggi sulla teoria della modularità A cura di Francesco

non già un blocco olistico ma un insieme di sottosistemi distinti, che eseguono funzioni in relativa autonomia gli uni dagli altri. Esamineremo adesso due differenti sensi in cui gli scienziati cognitivi intendono la nozione di modularità.

2.1 Modularità epistemica

Nella teoria della visione di Marr un modulo è un meccanismo identificato funzionalmente – più precisamente, un insieme di algoritmi per l’elaborazione delle informazioni visive –, caratterizzato da un grado di interazione minimo con altri meccanismi. In scienza cognitiva questa nozione di modulo come meccanismo coesiste con un’altra concezione secondo cui un modulo è un sistema caratterizzato da una base di conoscenze rappresentate internamente, specifico di dominio, che guida l’esecuzione di una determinata capacità cognitiva. Definiamo specifica di dominio una struttura psicologica specializzata nella risoluzione di una classe limitata di problemi in un dominio chiaramente delimitato. Invece, una struttura psicologica utilizzabile in un’ampia gamma di domini differenti è definita generale per dominio o aspecifica (general purpose)5.

In questa accezione, costituiscono esempi di moduli i sistemi soggiacenti la produzione e la comprensione di frasi di una lingua naturale, la previsione del comportamento di oggetti fisici di medie dimensioni, l’interpretazione intenzionale del comportamento dei nostri conspecifici, e così via. Questa caratterizzazione viene spesso completata sostenendo che queste conoscenze sono innate e (parzialmente o integralmente) inaccessibili alla coscienza. D’ora in poi ci riferiremo a questo tipo di strutture psicologiche con l’espressione modulo epistemico6.

Chomsky (1980a) è stato il primo a elaborare una nozione di modularità epistemica. Alla prospettiva empiristica, che attribuisce alla mente umana un piccolo numero di componenti innate relativamente semplici e neutrali rispetto al dominio, Chomsky oppone la tesi razionalistica secondo cui la mente è altamente differenziata, contenente un gran numero di componenti innate, tra cui figurano:

sistemi di conoscenze specifici di dominio, come la conoscenza del linguaggio, la conoscenza degli oggetti fisici e la conoscenza del numero. Ogni sistema di conoscenze si applica a un insieme distinto di entità e di fenomeni. Ad esempio, la conoscenza del linguaggio si applica alle frasi e ai loro costituenti; la conoscenza degli oggetti fisici si applica ai corpi materiali macroscopici e al loro comportamento; la conoscenza del numero si applica agli insiemi e a operazioni matematiche come l’addizione. A un livello più profondo, ogni sistema di conoscenze è organizzato intorno a un corpo distinto di principi fondamentali (Carey e Spelke 1994, p. 169).

Nel dominio del linguaggio, sostiene Chomsky, questo corpo di principi fondamentali è la Grammatica Universale. Questa possiede tutte le proprietà definitorie di un modulo epistemico, essendo un sistema di conoscenze rappresentate internamente, specifiche al dominio del linguaggio, innate e tacite. In effetti, la Grammatica Universale è il paradigma di un modulo epistemico.

La teoria chomskiana dell’acquisizione del linguaggio ha avuto un enorme impatto sulla psicologia dello sviluppo, facendo oscillare il pendolo da una prospettiva empiristica a una razionalistica. La più sofisticata teoria empiristica dello sviluppo cognitivo è senza dubbio il costruttivismo epigenetico piagetiano. Secondo Piaget (cfr. ad es. 1967), nello stato iniziale dello sviluppo cognitivo la struttura della mente è estremamente povera: a partire da un insieme di riflessi innati (succhiare, osservare, afferrare ecc.), tre meccanismi (assimilazione, accomodamento ed equilibrazione) danno luogo al progressivo potenziamento della capacità di risolvere problemi in qualsivoglia dominio: fisica, psicologia, matematica e così via. Contro questa prospettiva, molte recenti ricerche hanno dimostrato che lo sviluppo cognitivo è un processo che segue traiettorie distinte in domini differenti, traiettorie corrispondenti ai diversi ritmi di sviluppo dei moduli epistemici che strutturano questi domini.

Ognuno di questi moduli epistemici rappresenta solo un piccolo sottoinsieme delle entità che il bambino percepisce. Esempi di queste entità sono gli oggetti manipolabili e i loro movimenti 5 Per una definizione più rigorosa, vedi Marraffa e Meini (2005, Cap. 3).6 Altre proposte terminologiche sono moduli intenzionali (Segal 1996) e moduli chomskiani (Samuels 1998b, 2000).

6

Page 7: Laura Sparaci, Due livelli esplicativi: modularismo e …host.uniroma3.it/.../Marraffa_ferretti-introduzione-def.doc · Web viewSaggi sulla teoria della modularità A cura di Francesco

(fisica ingenua), gli agenti conspecifici e le loro azioni (psicologia ingenua), i luoghi nel continuo spaziale e le loro relazioni geometriche euclidee (cognizione spaziale), la numerosità e i rapporti numerici (matematica ingenua). Questi moduli servono a costruire rappresentazioni di frasi, oggetti, agenti, luoghi e numerosità che incorporano proprietà e relazioni estremamente astratte, come la permanenza di oggetti occlusi e gli scopi di atti percepibili. Tali rappresentazioni vengono poi utilizzate per rispondere a questioni specifiche sul mondo: ad esempio, ‘chi è?’ (riconoscimento delle facce), ‘a che cosa serve?’ (categorizzazione dei manufatti), ‘dove sono?’ (orientamento spaziale) e ‘quanti sono?’ (enumerazione) (Spelke 2000; Hauser e Spelke 2004).

I Capp. 3-8 del presente volume discutono alcuni filoni di ricerca che hanno ipotizzato l’esistenza di moduli epistemici per la fisica, la biologia e la psicologia ingenue.

2.2 Modularità fodoriana

Un modulo epistemico è una struttura ‘inerte’, nel senso che produce un comportamento solo se viene manipolata da un meccanismo computazionale. Nel caso in cui anche questo meccanismo sia specifico per dominio, come avviene nella nozione di modularità delineata da Marr, si ottiene un modulo computazionale, un meccanismo specializzato nell’elaborare esclusivamente una classe ristretta di informazioni. Ad esempio, i sistemi computazionali che eseguono l’analisi fonetica sono attivati esclusivamente da segnali acustici che vengono considerati emissioni verbali e si differenziano dai meccanismi percettivi che analizzano i suoni non linguistici: «Lo stesso segnale che è udito come l’inizio di una consonante quando il contesto specifica che si tratta di uno stimolo linguistico, viene udito come un ‘fischio’ o un ‘sibilo’ quando è isolato dal flusso del discorso» (Fodor 1983, p. 49).

In alcuni domini i moduli computazionali ed epistemici possono comporre un unico meccanismo. Ad esempio, è assai plausibile che l’elaboratore sintattico (parser) sia un modulo costituito da un sistema computazionale che assume in ingresso rappresentazioni sensoriali (ad esempio, acustiche) di proferimenti linguistici e, in virtù di una base di conoscenze specifiche per il dominio del linguaggio, genera in uscita rappresentazioni di tipi di frasi (descrizioni strutturali linguistiche). È importante notare, però, che in altri domini potrebbero essere algoritmi generali anziché specifici di dominio a utilizzare basi di conoscenze specifiche di dominio (cfr. Samuels 1998b).

Un modulo fodoriano è un modulo computazionale dedicato al trattamento di un modulo epistemico, caratterizzato da una serie di proprietà che si aggiungono alla specificità di dominio (Fodor 1983, 2000). Tra queste la più importante è la proprietà dell’isolamento informativo, che va intesa in almeno due sensi.

L’accessibilità di un modulo fodoriano è limitata. Ciò vuol dire che i sistemi cognitivi centrali, i quali mediano le risposte coscienti, possono accedere esclusivamente alle rappresentazioni fornite in uscita dai cosiddetti macromoduli (moduli costituiti da micromoduli deputati a processi computazionali più specializzati7). Pertanto le rappresentazioni intermedie prodotte da questi micromoduli risultano inaccessibili alla cognizione centrale (e dunque all’introspezione).

L’altro senso in cui i moduli sono informativamente isolati dal resto del sistema cognitivo è questo: le operazioni di un modulo si avvalgono unicamente di informazioni altamente specifiche contenute al suo interno, senza mai ricorrere a conoscenze di tipo più generale disponibili al resto del sistema cognitivo. In altre parole, un modulo ha accesso esclusivamente a informazioni appartenenti alla propria base di dati. In questo caso si parla di incapsulamento informativo o di impenetrabilità cognitiva. Come esempi di incapsulamento Fodor (1983, p. 66) menziona l’illusione

7 Per esempio, il macromodulo della visione è composto da micromoduli dedicati, ad esempio, al rilevamento di contorni o spigoli (edges), all’analisi della forma e alla percezione del colore. Il macromodulo del linguaggio è costituito da micromoduli dedicati, ad esempio, al riconoscimento dell’affisso, all’analisi grammaticale e all’assegnazione delle relazioni tematiche.

7

Page 8: Laura Sparaci, Due livelli esplicativi: modularismo e …host.uniroma3.it/.../Marraffa_ferretti-introduzione-def.doc · Web viewSaggi sulla teoria della modularità A cura di Francesco

di Müller-Lyer (vedi sotto, Cap. 1), la camera di Ames e il fenomeno phi nella visione; la reintegrazione del fonema e gli effetti di dislocazione dei click nel linguaggio.

Oltre alla specificità di dominio, l’accessibilità limitata e l’incapsulamento informativo, altre proprietà definiscono un modulo fodoriano. Esso assume in input informazioni da trasduttori dedicati per poi generare un output superficiale (ossia ‘non concettuale’ – lo schizzo 2½-D, ad esempio, non è ancora una rappresentazione concettuale vera e propria). Il suo funzionamento è obbligato: quando un modulo è in presenza del tipo specifico di input che è deputato ad analizzare, non può fare a meno di entrare in azione (ad esempio, non si può evitare di udire una frase proferita nella propria lingua, né di percepire ciò su cui si posa la propria mano come la superficie di un oggetto). La sua elaborazione è molto più rapida di quella dei sistemi non modulari: ciò è riconducibile all’incapsulamento (i moduli hanno bisogno di consultare soltanto la propria base di dati) e all’obbligatorietà (i moduli non si soffermano a decidere se elaborare o meno un input). È un sistema selezionato geneticamente, il che rende plausibile la sua realizzazione in un circuito neuronale fisso. È danneggiabile in modo selettivo, vale a dire un danno circoscritto a un gruppo di circuiti neuronali colpisce esclusivamente le funzioni eseguite dal modulo corrispondente a tali circuiti, lasciando intatte le altre funzioni del sistema: ciò è riconducibile all’incapsulamento e alla realizzazione in una struttura neuronale fissa. Infine, il suo sviluppo segue uno schema specifico, determinato in modo endogeno, sotto l’influsso di stimoli (releasers) ambientali.

Per riassumere, un modulo fodoriano è un meccanismo computazionale specifico di dominio che opera su una base di dati dedicata, è isolato informativamente, entra obbligatoriamente in azione, elabora l’informazione in modo estremamente rapido e produce un output superficiale che sarà successivamente elaborato da altri meccanismi. Inoltre la sua realizzazione neuronale è fissa, è selettivamente danneggiabile e si sviluppa attraverso un processo di maturazione endogena8.

3. Il problema della cognizione centrale

Alla modularità dei sistemi periferici di input e output, Fodor contrappone la non-modularità dei sistemi centrali, i quali presiedono a processi cognitivi quali la categorizzazione, il ragionamento, la risoluzione dei problemi, la fissazione delle credenze e la presa di decisione. Questo studioso insomma ci presenta la cognizione centrale come «un grande blocco olistico, in cui è impossibile ritagliare articolazioni» (Sperber 1996, p. 125 della trad. it.).

Qui sorge un problema profondo. Fodor ritiene che solo i processi modulari siano esplicabili con l’apparato della psicologia computazionale, e per la seguente ragione. Come abbiamo detto, le computazioni mentali sono sottoposte al vincolo di formalità, vale a dire le regole che governano le transizioni di stato di un sistema cognitivo sono sensibili esclusivamente alla forma delle rappresentazioni, ossia alle loro proprietà sintattiche, mentre sono indifferenti alle proprietà semantiche. Qui vale l’analogia con un calcolo logico: la forma della proposizione p&q si riduce all’identità e all’organizzazione dei suoi costituenti elementari; e questo è tutto quello che si deve sapere per poter inferire che la proposizione è vera se e solo se p e q sono entrambi veri – vale a dire non è necessario sapere alcunché né sul significato di p o di q, né sul mondo non linguistico. Pertanto le proprietà sintattiche sono proprietà locali delle rappresentazioni, ossia sono interamente determinate dalle parti di una rappresentazione e dal modo in cui queste parti sono organizzate: «Non devi, per così dire, guardare “fuori” da un enunciato per vedere qual è la sua struttura sintattica, non più di quanto devi guardare fuori da una parola per vedere come è scritta» (Fodor 2000, p. 20). In altri termini, dal vincolo di formalità, che impone alle computazioni di essere sensibili esclusivamente alla forma della rappresentazione, segue il principio di località, secondo cui le computazioni operano esclusivamente su proprietà locali di una rappresentazione (cfr. Marraffa e Meini 2005, Cap. 3).

8 Per un’analisi critica di questa nozione di modulo, vedi sotto, Cap. 2.

8

Page 9: Laura Sparaci, Due livelli esplicativi: modularismo e …host.uniroma3.it/.../Marraffa_ferretti-introduzione-def.doc · Web viewSaggi sulla teoria della modularità A cura di Francesco

Ora, nel caso dei processi modulari il rispetto del principio di località è garantito dall’incapsulamento: le computazioni di un modulo incapsulato devono infatti accedere soltanto alle informazioni contenute nella propria base di dati. Il problema è che per Fodor soltanto i processi periferici hanno carattere modulare, e di conseguenza la psicologia computazionale non può essere altro che «un frammento di una psicologia cognitiva completa e soddisfacente» (2000, p. 1). Non vi può essere una psicologia computazionale della cognizione centrale. I processi centrali hanno infatti un carattere non locale o globale od olistico, dal momento che possono accedere a qualsiasi informazione resa disponibile in qualunque parte del sistema cognitivo. Qui Fodor istituisce un’analogia tra la cognizione centrale e la conferma scientifica. Quest’ultima è isotropica nel senso che ogni conoscenza potenziale o effettiva, proveniente da qualsiasi parte del sistema di credenze, può, in talune circostanze, essere pertinente ai fini della conferma di una data ipotesi: «ogni cosa che lo scienziato sa è, in linea di principio, pertinente ai fini della determinazione di cos’altro deve credere. In linea di principio, la botanica vincolerebbe la nostra astronomia, se solo riuscissimo a immaginare modi in cui collegarle» (1983, p. 105).

Secondo Fodor, poiché la fissazione delle credenze è il prodotto di inferenze a partire dalle informazioni fornite dai sistemi di input e da quelle immagazzinate in memoria, anche questo processo è isotropico. Consideriamo un esempio proposto da Sterelny (1990, pp. 76-77). Supponiamo che il macromodulo della visione mi fornisca una rappresentazione dello stato del soffitto della mia camera da letto durante le prime ore del mattino. Come sappiamo, il modulo esegue questo compito accedendo a un corpo di informazioni estremamente limitato: essenzialmente, alcune informazioni concernenti la struttura della luce che impressiona la retina e alcune conoscenze generali sul mondo (per esempio, alcuni principi di ottica geometrica). Non può invece accedere alle informazioni riguardanti il normale stato del soffitto della mia camera. Tuttavia io, al fine di stabilire se quella forma molto simile a una zanzara spiaccicata che il sistema visivo sta presentando al sistema della cognizione centrale, è veramente una zanzara spiaccicata sul soffitto, e non magari un’illusione prodotta dalle prime luci dell’alba, posso accedere a una gamma praticamente infinita di conoscenze: siamo nella stagione delle zanzare? Ricordo di averne spiaccicata una sul soffitto? E così via.

Oltre a essere isotropica, la conferma scientifica è quineiana, nel senso che il grado di conferma che possiamo attribuire a una certa ipotesi dipende non solo dalle sue caratteristiche intrinseche, ma anche dalla sua relazione con tutte le altre credenze del sistema. In tal modo, la conferma dipende da considerazioni olistiche concernenti quelli che Fodor definisce gli «scheletri nell’armadio di Turing» (2000, p. 84 della trad. it.): la semplicità, la centralità, il conservativismo, tutte proprietà determinate dalla struttura globale del sistema di credenze.

Anche in questo caso Fodor compie il passaggio dall’olismo della conferma all’olismo della cognizione centrale: «Qui come altrove, la psicologia cognitiva può ben rivelarsi essere la filosofia della scienza scritta in caratteri minuscoli» (1987, p. 63). Per esempio, al pari della conferma, la fissazione delle credenze è un processo conservativo. Le credenze, una volta che si sono formate, manifestano una certa inerzia. Di conseguenza, allorché i dati empirici premono per una revisione del sistema di credenze, le modifiche che vengono apportate sono quelle che riducono al minimo la ristrutturazione del sistema. Si tende dunque a respingere le ipotesi incoerenti con molte credenze preesistenti, specialmente quando questi impegni epistemici godono di una forte centralità in seno alla rete delle nostre credenze. Per esempio, sarebbe molto difficile per me imputare l’efferato delitto di un killer seriale alla possessione demoniaca piuttosto che a qualche gravissima patologia psichica, dal momento che postulare l’esistenza di uno spirito demoniaco comporterebbe un’imponente ristrutturazione della mia ontologia. In tal modo, Fodor applica alla psicologia della credenza l’idea di Quine che i differenti costituenti di una teoria hanno differenti gradi di centralità.

Ora, per Fodor il conservativismo e la centralità sono proprietà che dipendono dalle relazioni formali, semantiche e probative fra tutte le credenze di un sistema. Per essere sensibile a tali proprietà, un sistema computazionale dovrebbe in qualche modo passare in rassegna l’intero repertorio di credenze in modo da identificare le loro innumerevoli interconnessioni, e quindi

9

Page 10: Laura Sparaci, Due livelli esplicativi: modularismo e …host.uniroma3.it/.../Marraffa_ferretti-introduzione-def.doc · Web viewSaggi sulla teoria della modularità A cura di Francesco

derivare da queste caratteristiche locali una misura del conservatismo complessivo. Tuttavia, secondo Fodor, non disponiamo di alcun formalismo computazionale con cui realizzare una simile operazione. Di qui la prima legge dell’inesistenza della scienza cognitiva: «quanto più globale è un processo cognitivo, tanto meno lo si comprende» (ivi, p. 107).

Dunque, se Fodor ha ragione nel sostenere che la maggior parte delle funzioni psicologiche sono non modulari, ci troviamo di fronte a un’enorme crepa nei fondamenti della psicologia computazionale classica.

Una possibile strategia di risposta all’argomento di Fodor circa i limiti della psicologia computazionale consiste nel capovolgere il suo ragionamento, sottoscrivendo l’idea di un legame inscindibile tra la natura computazionale della mente e l’architettura modulare, ma cercando di dimostrare che anche la cognizione centrale è modulare. Tale strategia assume la forma di un argomento metodologico in favore della teoria della modularità:

1) I processi cognitivi hanno una natura computazionale.

2) Tali processi devono essere locali (nel senso di avere un accesso limitato alla conoscenza di sfondo quando eseguono gli algoritmi) altrimenti non sarebbero trattabili, dando luogo a un’esplosione computazionale. I processi non modulari od olistici sono computazionalmente intrattabili.

3) L’unico modo di impedire a tali processi di accedere alle conoscenze di sfondo è incapsulandoli. Pertanto la possibilità della psicologia computazionale richiede necessariamente che la mente sia composta da una ingente quantità di meccanismi modulari.

Se si accetta questo ragionamento secondo cui è l’incapsulamento informativo a garantire la trattabilità computazionale, la scienza cognitiva è inscindibilmente legata alla nozione di modularità fodoriana. Di qui due recenti programmi di ricerca in scienza cognitiva. Primo, il progetto di estendere la modularità alla cognizione centrale battezzato da Sperber (1994) ‘ipotesi della modularità massiva’, divenuto l’asse portante della psicologia evoluzionistica e fatto oggetto di violenti attacchi da parte di Fodor (2000) (vedi sotto, Capp. 2-8). Secondo, il tentativo di impiegare le risorse della modellistica cognitiva connessionista oppure della matematica dei sistemi dinamici per catturare le proprietà olistiche della cognizione centrale (vedi sotto, Capp. 9-11).

4. Ragioni evolutive

Il modello sin qui descritto presenta per sommi capi i tratti costitutivi della teoria modulare della mente. Tale teoria, ovviamente, non è l’unica ipotesi in campo dell’architettura cognitiva umana. Che motivi abbiamo per sostenere che questa teoria è quella che vale la pena sottoscrivere? La teoria modulare della mente ha da sempre provocato critiche accese. Alcune di queste, quelle che muovono dall’interno della scienza cognitiva, verranno prese in esame nei capitoli che seguono. Alla mente modulare, tuttavia, vengono mosse anche un altro tipo di critiche, quelle che muovono dall’esterno della scienza cognitiva. Tali critiche sono più importanti in questa introduzione perché mettono in risalto una differente opinione su un tema su cui c’è oggi (di nuovo) grande fermento: la questione della natura umana. Ed è su queste critiche che concentreremo qui la nostra attenzione.

Il dibattito sulla modularità è spesso alimentato da pregiudizi di carattere ideologico. Contro tali pregiudizi la nostra idea è che discutere della modularità o non modularità della mente significa discutere una tesi empirica. È ai dati sperimentali dunque che bisogna guardare per capire come stanno realmente le cose. Ora, cosa testimoniano tali dati a proposito della modularità? Perché dovremmo preferire modelli interpretativi che fanno riferimento ad abilità specifiche invece che a forme di intelligenza di tipo generale? Il risultato più convincente prodotto dalla ricerca empirica è

10

Page 11: Laura Sparaci, Due livelli esplicativi: modularismo e …host.uniroma3.it/.../Marraffa_ferretti-introduzione-def.doc · Web viewSaggi sulla teoria della modularità A cura di Francesco

che la concezione modularista è esplicativamente più forte delle teorie alternative. La tesi dell’intelligenza generale, a quanto pare, non regge alla prova dei fatti.

Il primo passo in questa direzione è stato compiuto da John Garcia e dai suoi collaboratori nella metà degli anni Sessanta. In particolare Garcia è riuscito a mettere in discussione alcuni assunti di base del comportamentismo: l’idea che ad essere innata fosse soltanto una generica capacità ad apprendere (attraverso il meccanismo del rinforzo); il «principio di equipotenzialità», secondo cui i meccanismi di apprendimento sono gli stessi indipendentemente dal tipo di stimoli, risposte e rinforzi; il «principio di contiguità», secondo cui il rinforzo è più potente quando è più vicino nello spazio e nel tempo alla risposta comportamentale che deve essere rinforzata. Garcia e collaboratori (1966) hanno criticato tali assunti portando dati sperimentali a conforto della loro ipotesi. Qualche ora dopo aver dato del cibo ad alcune cavie, gli sperimentatori hanno sottoposto a radiazioni gli animali causando loro nausea e dolore. Bastava soltanto un ciclo di apprendimento, perché le cavie imparassero ad evitare il cibo che associavano al malessere. Quando tuttavia Garcia associava la nausea a un segnale acustico o a un flash di luce, egli non riusciva a fare in modo che le cavie evitassero il cibo. Sia il principio di contiguità (le radiazioni venivano somministrate diverse ore dopo l’assunzione di cibo), sia il principio di equipotenzialità (alcune associazioni si dimostravano molto più facili da apprendere di altre) venivano violati dagli esperimenti di Garcia. Ciò che questi esperimenti mettono in luce, come sottolinea Buss (1999), è che «le cavie sono in qualche modo “predisposte” ad apprendere alcune cose più facilmente e con maggiore rapidità mentre non sono affatto predisposte ad apprenderne altre» (ivi, p. 28). Questo fatto sembra rispondere a esigenze adattive: secondo Brown (1991), infatti, la strutturazione del cervello di un determinato organismo rispetto alla soluzione di problemi specifici è il prodotto adattivo della selezione naturale – un sistema capace di rispondere prontamente all’associazione tra nausea e cibo è di grande valore per la sopravvivenza dell’organismo che lo possiede.

Generalizzando il punto e spostando la questione a un livello più astratto di analisi questi risultati possono rivelarsi utili per verificare la tesi dell’intelligenza generale negli esseri umani. Poiché, infatti, gli umani (come ogni altro organismo, d’altra parte) hanno sempre a che fare con problemi specifici, mai con problemi generici e indeterminati, l’idea di Brown è che «non dovremmo aspettarci l’evoluzione di organi mentali general-purpose più di quanto dovremmo aspettarci l’evoluzione di organi fisiologici o anatomici general-purpose» (ivi, p. 85). Pinker è ancora più incisivo su questo punto. La sua ipotesi è che «un factotum non è esperto in niente, e questo vale per i nostri organi mentali come per i nostri organi fisici» (1999, trad. it. p. 32). Ma se la mente non è un factotum, allora deve essere composta di parti specializzate funzionali alla soluzione di problemi specifici: «soltanto un angelo potrebbe essere un risolutore di problemi in generale; noi mortali non possiamo che trarre conclusioni fallibili da informazioni frammentarie» (ivi p. 35). La modularità della mente sembra l’ipotesi maggiormente conforme alla tesi evoluzionista.

Tooby e Cosmides (1992) sostengono che l’ipotesi dell’intelligenza generale rimanda a un vecchio modo di pensare la mente: quello del Metodo Standard delle Scienze Sociali (MSSS), una tradizione di pensiero che, considerando gli esseri umani come il prodotto esclusivo della cultura e della società, ha promosso una concezione astratta e ideologica del mentale che non trova alcun riscontro nell’analisi dei processi psichici effettivi. Il principio guida di questa tradizione è l’idea dell’uomo come un sistema plastico e indeterminato. Quando, messe da parte le ideologie, si cerca di capire come la mente funziona di fatto, tale idea si dimostra troppo debole sul piano esplicativo. La questione dell’«esplosione combinatoria» ne è il caso emblematico. Aprendo la black-box (avvalendosi anche della possibilità di costruire sistemi intelligenti artificiali) emerge con chiarezza che considerare la mente come un sistema plastico e indeterminato genera più problemi di quanti in realtà non ne risolva: l’esplosione combinatoria, in effetti, attacca ogni sistema chiamato a confrontarsi con scelte alternative «il che significa con ogni sistema che è flessibile in risposta o ha decisioni da prendere (…). Quanto più è flessibile il sistema, tanto più grande è il problema» (ivi, p. 103). Si prenda ad esempio il gioco degli scacchi. Immaginiamo che il numero medio possibile di

11

Page 12: Laura Sparaci, Due livelli esplicativi: modularismo e …host.uniroma3.it/.../Marraffa_ferretti-introduzione-def.doc · Web viewSaggi sulla teoria della modularità A cura di Francesco

mosse sia tra le 30 e le 35 possibilità. Non è difficile che uno scacchista sia capace di individuarle tutte; né è difficile progettare una macchina che sia capace di fare la stessa cosa. Come sostiene Haugeland (1978) la cosa difficile da fare è stabilire quale mossa fare e questa è anche la parte più difficile da programmare in un sistema artificiale. Il punto è che anche se i computer odierni sono sistemi di elaborazione estremamente veloci (capaci, in linea di principio di calcolare tutte le possibilità aperte da ogni singola mossa), nella pratica effettiva computazioni di questo tipo sono irraggiungibili: in effetti assumendo una media di 31,6 opzioni per ogni mossa si otterrebbe un migliaio (31,6 x 31,6) di combinazioni possibili per ogni singola mossa, mentre guardare in avanti per cinque mosse implicherebbe un quadrilione (1015) di possibilità, e così via all’aumentare del numero delle mosse. Come sottolinea Haugeland, in effetti, questi numeri sono imbarazzanti per qualsiasi computer fisico reale: essi «diventano così grandi perché il numero delle possibilità ad ogni mossa successiva moltiplica il numero totale delle combinazioni possibili fino a quel momento. Per ragioni comprensibili, ciò è chiamata l’esplosione combinatoria; e affligge la progettazione del controllo per tutti i casi, eccetto che per i problemi più semplici» (Haugeland, 1978; trad. it. pp. 22-3). Ora, neppure il giocatore umano fa tutti questi calcoli durante una partita di scacchi: egli si limita a prendere in considerazione soltanto le mosse pertinenti. Il vero problema è dunque: come si individuano le mosse pertinenti?

L’ipotesi dell’intelligenza generale è poco plausibile dal punto di vista evolutivo: essa non dà conto della capacità degli umani di prendere decisioni appropriate e ogni sistema incapace di prendere decisioni appropriate «non si riprodurrà e sarà eliminato dalla popolazione nella generazione successiva» (Tooby e Cosmides, 1992, p. 103). Detto questo, tuttavia, gli umani sono sistemi fisici che riescono a superare il problema dell’esplosione combinatoria. Come fanno? E, soprattutto, come hanno potuto evolversi sistemi fisici di questo tipo? La risposta dei due autori fa riferimento al fatto che la complessità del sistema di elaborazione interno su cui opera la selezione naturale deve essere relativo a un dominio specifico di conoscenze:

La soluzione del frame problem e dell’esplosione combinatoria è la medesima sia che si parli di un organismo prodotto dall’evoluzione sia che si parli di un sistema intelligente artificiale. Quando l’informazione disponibile sul mondo non è sufficiente a permettere l’apprendimento o la soluzione di un problema, si deve supplire con qualcos’altro. Poiché il mondo non può fornire il sistema di ciò di cui il sistema ha bisogno per apprendere dal mondo, i fondamenti essenziali per il framing specifico per contenuto devono essere forniti originariamente dall’architettura. In un sistema artificiale, è il programmatore a rifornire il sistema. Negli organismi, tuttavia, solo la selezione naturale può creare architetture equipaggiate con le strutture giuste (…) necessarie alla soluzione dei problemi adattivi con cui le specie si confrontano durante la storia evolutiva (ivi, p. 107).

Anche il problema dell’esplosione combinatoria trova dunque soluzione presupponendo l’esistenza di sistemi cognitivi specializzati nell’elaborazione di informazione relativa a domini specifici. Ora, se per i sistemi artificiali è il progettista che equipaggia il sistema con il giusto tipo di strutture e funzioni, per i sistemi naturali (umani inclusi, ovviamente) è l’evoluzione a condurre le danze.

5. Uno sfondo più generale di problemi

La soluzione del problema dell’esplosione combinatoria ai fini adattivi sembra un forte alleato della teoria modularista. A dispetto di questo risultato, tuttavia, la tesi dell’intelligenza generale continua ad essere ancora sostenuta. Per quali motivi? L’attrattiva che questa tesi continua ad esercitare in larga parte della filosofia e dell’antropologia dei nostri giorni è legata alla visione ancora prevalente che molti autori hanno della natura umana. In particolare, è legata all’idea che la flessibilità cognitiva degli umani dipenda in larga parte dalla plasmabilità e indeterminatezza della loro natura. Da questo punto di vista, la mente modulare appare un sistema di elaborazione troppo rigido per poter funzionare in modo appropriato. Ora, davvero la teoria modulare della mente è in contrasto con la flessibilità cognitiva degli esseri umani?

12

Page 13: Laura Sparaci, Due livelli esplicativi: modularismo e …host.uniroma3.it/.../Marraffa_ferretti-introduzione-def.doc · Web viewSaggi sulla teoria della modularità A cura di Francesco

Prima di rispondere a questa domanda, è necessario analizzare in modo più accurato il nesso tra flessibilità cognitiva e plasticità dell’essere umano. Due cose da sottolineare a tale riguardo. La prima riguarda l’idea per cui la flessibilità cognitiva degli umani dipende dalla plasticità (intesa come assenza di costituenti interni) che li caratterizza. Alcuni autori, utilizzando Herder, sostengono infatti che le caratteristiche di estrema duttilità della cognizione umana trovano fondamento in una condizione di carenza di vincoli interni o di «povertà istintuale» – prova ne sia il fatto che gli animali, ricchi di istinti, producono soltanto risposte comportamentali rigidamente determinate (Geertz, 1973; Gehlen 1940). La seconda riguarda l’idea degli esseri umani come sistemi biologici caratterizzati da un forte grado di «incompletezza». Solo la cultura può colmare il «vuoto biologico» degli individui. Scrive Geertz:

Tra quello che dice il nostro corpo e quello che dobbiamo sapere per funzionare c’è un vuoto che dobbiamo riempire noi stessi, e lo riempiamo con le informazioni (o disinformazioni) fornite dalla nostra cultura (…). Noi siamo animali incompleti o non finiti che si completano e si rifiniscono attraverso la cultura (Geertz, 1973, trad. it. p. 92).

L’idea che l’essere umano guadagni la sua natura costitutiva in un processo di «completamento» in cui la cultura «invade» e «riempie» le informazioni del sostrato biologico trova fondamento in una precisa idea circa la condizione degli umani come animali sociali. Una concezione di questo tipo si fonda su due ipotesi concettuali: il primato e l’autonomia dei fattori esterni all’individuo (la cultura e le relazioni sociali intese come sovrastrutture) e l’unidirezionalità del percorso di costituzione (dall’esterno verso l’interno) in cui si concretizza la tesi del completamento.

Durkheim (1895), uno dei padri della sociologia, ha fondato il suo programma di ricerca esaltando l’indipendenza delle scienze dello spirito dalle scienze della natura. Una tesi dualistica di questo tipo ha come corollario la natura plastica e indeterminata degli esseri umani. Secondo Durkheim, in effetti, «le nature individuali costituiscono soltanto la materia indeterminata che il fattore sociale determina e trasforma. Il loro contributo consiste esclusivamente in stati generalissimi, in predisposizioni vaghe e quindi plastiche» (ivi, trad. it. pp. 101-2). Questa concezione, inoltre, ha stretti legami con la tesi della unidirezionalità del percorso di costituzione. Tooby e Cosmides (1992), come abbiamo già detto, fanno riferimento a questa tesi come al Metodo Standard delle Scienze Sociali. Tale metodo si fonda sull’idea che il percorso di costituzione della natura umana sia direzionato in un unico senso (quello che procede dall’esterno verso l’interno): le entità culturali e sociali che formano l’individuo, infatti, «precedono l’individuo e sono esterne ad esso. La mente non le crea, esse creano la mente» (ivi, p. 26).

La tesi della flessibilità cognitiva degli umani fondata sulla plasticità e incompletezza della loro natura ha portato, nel secolo appena trascorso, a una vera e propria «dissoluzione» del problema della natura umana. Ora, se l’uomo è essenzialmente un produttore di cultura (se, in altre parole, gli umani sono ciò che sono in forza della storia e degli scambi sociali, non della biologia), allora come sostiene Marconi (2000), la sua natura si identifica con i prodotti della sua cultura:

se non ci sono oggetti naturali ma solo oggetti culturali, anche l’uomo è un oggetto culturale, nient’altro che la più brillante delle sue invenzioni; e anzi non un oggetto culturale, ma una miriade di oggetti culturali, tanti quanti sono i progetti di umanità elaborati dalle singole culture e all’interno di ciascuna di esse. Quindi la natura umana per un verso si moltiplica nelle forme di vita umana caratteristiche delle diverse culture, e per altro verso si svuota di contenuto, diventando una tabula rasa su cui disegnare ipotesi di umanità che hanno lo statuto di personaggi letterari (ivi, p. 126).

Una concezione della natura umana di questo tipo sembra perfettamente in grado di spiegare una delle caratteristiche più potenti delle capacità cognitive degli umani: la flessibilità adattiva. Quanto regge alla prova dei fatti una concezione di questo tipo? La flessibilità cognitiva degli umani è un fatto sotto gli occhi di tutti. Il punto è stabilire in base a quali condizioni naturali gli umani sono così adattivamente flessibili come risultano essere. Davvero la flessibilità è in contrasto con la tesi modularista? Davvero l’unico modo per dar conto della flessibilità cognitiva è di considerare gli umani come sistemi plastici e indeterminati?

13

Page 14: Laura Sparaci, Due livelli esplicativi: modularismo e …host.uniroma3.it/.../Marraffa_ferretti-introduzione-def.doc · Web viewSaggi sulla teoria della modularità A cura di Francesco

6. Condizioni per essere flessibili

Per quanto il modello dell’intelligenza generale sia esplicativamente molto meno potente di quello della specificità di dominio, resta un fatto che i sistemi cognitivi di cui dispongono gli umani siano caratterizzati da un alto grado di flessibilità. Ora, se i sistemi cognitivi umani non sono retti da una forma generale di intelligenza, la flessibilità che li caratterizza deve essere spiegata in riferimento a qualcos’altro.

La prima cosa da dire a tale riguardo è che la discussione sulla plasticità e indeterminatezza della mente umana si basa su un fraintendimento del termine flessibilità. Tooby e Cosmides (1992) sostengono che la posizione classica confonde e fa coincidere due tipi di flessibilità: la flessibilità intesa come assenza di vincoli nelle risposte; la flessibilità intesa come capacità di produrre risposte appropriate ai contesti. La difficoltà di questa confusione è ben messa in luce dai due autori. Quando i sostenitori del MSSS pensano a un sistema cognitivo flessibile essi di fatto aderiscono al primo senso di flessibilità e credono che per costruire un sistema cognitivo di questo tipo sia sufficiente rimuovere tutti i vincoli che possono limitarne il campo d’azione. Sistemi di questo tipo, tuttavia, non sono in grado di produrre comportamenti flessibili nel secondo senso di flessibilità (non agiscono in modo appropriato al variare dei contesti). Per avere la flessibilità del secondo tipo piuttosto che di un dispositivo libero da vincoli si ha bisogno di un sistema con un’architettura funzionale sofisticata e complessa. Il riferimento alla flessibilità in quanto tale può rivelarsi fallimentare da un punto di vista evolutivo:

Potenzialmente, gli esseri umani e gli altri animali possono agire secondo un numero illimitato di modi. La difficoltà sta nel fatto che la grandissima maggioranza delle sequenze comportamentali sarebbero letali nel giro di poche ore, giorni o settimane. La serie dei comportamenti che conducono alla sopravvivenza anche temporanea dell’individuo (…) costituiscono un sottoinsieme estremamente piccolo di tutte le sequenze comportamentali possibili. Così, la proprietà di variare il comportamento in ogni dimensione in modo libero e indipendente da condizioni non è vantaggiosa: è evolutivamente e individualmente disastrosa (Tooby e Cosmides, 1992, p. 101).

Sostenere che la flessibilità (non ulteriormente specificata) è potenzialmente dannosa non significa dover rinunciare a dar conto di una delle proprietà più caratteristiche della mente umana. La soluzione del problema passa per la soluzione di un apparente paradosso: da una parte gli esseri umani sono sistemi cognitivi estremamente flessibili; d’altra parte la loro capacità di risolvere problemi dipende dall’uso di dispositivi di elaborazione estremamente specializzati. Per risolvere il paradosso si ha bisogno di un modello della mente in grado di mantenere insieme l’efficacia in un contesto determinato e la capacità di far fronte a diversi contesti problematici. Tale modello non passa per la individuazione di un generico meccanismo di risoluzione di problemi. La «flessibilità adattiva» dipende infatti dall’aggregazione di un ampio numero di meccanismi specializzati. Paradossalmente allora la flessibilità è una proprietà che alcuni dispositivi hanno per il fatto di essere costituiti da un alto numero di sistemi dominio-specifici. Diversamente da quanto suggerito dal modello standard, in effetti, l’analisi delle peculiarità del sistema computazionale degli esseri umani suggerisce che

la flessibilità adattiva (…) è così grande a causa del numero dei meccanismi specifici per dominio a disposizione degli umani. (…) Questo va nella stessa direzione dell’argomento di William James secondo cui gli umani hanno più “istinti” degli altri animali, non meno (ivi, p. 113).

Il riferimento a una concezione alla tesi modularista è la condizione per una mente umana flessibile e efficace. La mente modulare, dunque, piuttosto che in contrasto con l’idea della flessibilità della natura umana, appare essere la sua unica spiegazione legittima. Questo primo risultato ha importanti ripercussioni sul tema più generale della natura umana. In particolare, mette

14

Page 15: Laura Sparaci, Due livelli esplicativi: modularismo e …host.uniroma3.it/.../Marraffa_ferretti-introduzione-def.doc · Web viewSaggi sulla teoria della modularità A cura di Francesco

in crisi la tesi che vede gli esseri umani unidirezionalmente caratterizzati dalla cultura e dagli scambi sociali (intesi come fattori esterni alle menti individuali).

Gran parte delle concezioni che guardano alla mente a partire dalla plasticità della natura umana fanno perno, come abbiamo visto, sulla distinzione tra scienze della natura e scienze dello spirito (sull’autonomia delle sovrastrutture sociali e culturali) e sulla unidirezionalità del percorso di costituzione (dai fattori esterni verso quelli interni). Ipotesi di questo tipo si reggono su un dualismo improponibile tra biologia e cultura. Per superare tale dualismo, non basta sostenere che gli esseri umani sono il portato congiungo della loro biologia e della loro cultura. Bisogna entrare nei dettagli: è necessario fornire modelli esplicativi di come la biologia degli individui (la costituzione innata del dispositivo mentale) funzioni da vincolo alla cultura e alle relazioni sociali. Quando si compie questo passo, ci si accorge che l’unidirezionalità del percorso di costituzione proposta dal modello standard lascia immediatamente il campo a un doppio percorso costitutivo (un percorso che tiene conto anche di come i fattori interni siano condizione di quelli esterni). Ed è qui che la mente modulare risulta particolarmente feconda sul piano esplicativo.

7. Menti sociali

Sostenere che gli esseri umani hanno una natura intrinsecamente sociale è sostenere che ciò che li caratterizza in proprio dipende dal tipo di relazioni che i membri del gruppo intrattengono tra di loro. Il punto decisivo è la questione di come intendere la natura di tali relazioni. Se gli scambi tra individui sono considerati determinati dalla cultura intesa come un’entità sovrastrutturale allora è possibile analizzare le relazioni sociali su un piano puramente astratto e indipendente dalla natura degli individui. Se si guarda invece alle relazioni sociali come agli scambi effettivi che uomini e donne in carne e ossa intrattengono tra di loro, ci si accorge di quanto tali scambi siano determinati dalla costituzione interna degli individui che entrano in relazione. Così intese, le relazioni sociali sono il prodotto dei sistemi cognitivi capaci di gestirle: gli scambi verbali, solo per fare un esempio, presuppongono sistemi cognitivi (ricchi e articolati) in grado di produrre e comprendere espressioni linguistiche. Sistemi di questo tipo rendono improponibile la tesi del percorso di costituzione unidirezionale dei fattori esterni su quelli interni.

Il motivo che ci spinge a considerare un doppio percorso di costituzione è che, dal punto di vista naturalistico adottato in questo volume, porre la cultura alla base delle relazioni sociali è una mossa inefficace sul piano esplicativo. Il riferimento alla cultura non può essere un assunto da cui partire nell’analisi perché l’avvento della cultura nel mondo della natura è qualcosa che deve essere giustificato. Senza tale giustificazione, considerare le relazioni sociali tra individui univocamente determinate dalla cultura equivale, come sostiene Dennett, a utilizzare un «gancio appeso al cielo»:

Nei suoi tratti essenziali, la storia è questa. Ho scoperto che alcune persone (…) amano pensare che siano la mente e la cultura dell’uomo a distinguerlo da tutti i “bruti irragionevoli” (come li chiamava Cartesio), ma non gradiscono l’idea di cercare una spiegazione evoluzionistica della creazione di questo importantissimo segno caratteristico. A mio avviso, commettono un grosso errore. Che cosa si aspettano, un miracolo? Che la cultura sia un dono divino? È un gancio appeso al cielo che cercano (…)? Perché? Vogliono che il modo di vivere dell’uomo sia radicalmente diverso da quello di ogni altro essere vivente, il che è vero, ma, come la vita stessa e ogni altra cosa magnifica, la cultura deve avere un’origine darwiniana. (…) Per la cultura è necessario il linguaggio, per esempio, ma prima il linguaggio deve evolvere per proprio conto; non basta osservare come tutto va bene una volta che ogni cosa è al proprio posto. Non si può presupporre la cooperazione; non si può presupporre l’intelligenza umana, non si può presupporre la tradizione – tutte queste cose devono essere costruite partendo da zero, proprio come i replicanti originari. Accettare come spiegazione qualcosa di meno equivale a una rinuncia (Dennett, 1995, trad. it. pp. 431-2).

Quando si sceglie di dar conto di un percorso di costituzione della natura umana che considera la cultura come il prodotto di un processo evolutivo si ha la possibilità di osservare sotto nuova luce i rapporti tra biologia e società. In questo quadro teorico, infatti, si apre la possibilità che la natura sociale e culturale degli esseri umani dipenda, oltre che dai fattori esterni, dai vincoli che i sistemi

15

Page 16: Laura Sparaci, Due livelli esplicativi: modularismo e …host.uniroma3.it/.../Marraffa_ferretti-introduzione-def.doc · Web viewSaggi sulla teoria della modularità A cura di Francesco

cognitivi impongono alle relazioni che caratterizzano l’appartenenza degli individui a un determinato gruppo. Per dirla in forma sintetica: la cultura e le relazioni sociali sono fattori costituenti della natura umana, ma perché la cultura e le relazioni sociali possano costituirsi come tali gli esseri umani devono (già) essere fatti in una certa maniera. Bene, come devono essere fatti? Analizzando diversi aspetti del problema, i capitoli che seguono rispondono esattamente a questa domanda. Non entriamo qui dunque nei particolari; solo un breve cenno per anticipare un tema che verrà analizzato estesamente nelle pagine che seguono e che tocca da vicino la questione della natura sociale degli esseri umani.

Quando si guarda alla socialità umana come all’insieme dei membri di un gruppo e al tipo specifico di relazioni che essi intrattengono tra di loro è una particolare facoltà cognitiva ad essere chiamata in causa. Alla base degli scambi interpersonali, in effetti, c’è il riconoscimento degli altri come individui, ovvero come agenti intenzionali. Riconoscere un individuo come un agente intenzionale è qualcosa di molto diverso dal riconoscere una sedia o un tavolo. A fare la differenza è il fatto che gli esseri umani si comportano agendo in conformità ai loro stati interni (credenze e desideri, in primo luogo). Da questo punto di vista, le relazioni interpersonali tra individui devono fondarsi su un dispositivo capace di comprendere, spiegare e anticipare il comportamento (proprio e altrui) nei termini degli stati mentali che lo determinano. Per far questo, gli esseri umani utilizzano uno specifico sistema di elaborazione: il «lettore della mente» o «mentalizzatore». All’analisi del lettore della mente è dedicato il capitolo 4 di questo libro. Qui ci preme sottolineare due cose: la prima è che senza un sistema di elaborazione di questo tipo gli esseri umani non sarebbero in grado di mettere in atto le relazioni sociali di cui sono capaci; la seconda, tesi più forte, è che senza un sistema di questo tipo il gruppo sociale stesso non potrebbe mai costituirsi come tale. Questa seconda tesi è di primaria importanza per comprendere perché il percorso univoco di costituzione (fondato sul primato dei fattori esterni) proposto dal MSSS è poco fecondo sul piano esplicativo: la natura umana deve essere affrontata nei termini di un doppio percorso di costituzione.

In conclusione ci sembra di poter dire che i presupposti teorici che hanno portato a tematizzare la «dissoluzione della natura umana» meritano una decisa revisione. La flessibilità e la natura culturale e sociale degli esseri umani non sono in contrasto con la concezione modulare della mente. Non lo sono, in particolare, perché tali proprietà, a quanto sembra, sono tali da poter essere giustificate soltanto presupponendo sistemi cognitivi ricchi e articolati. Il tema della natura umana è inestricabilmente connesso allo studio della mente modulare.

16