Problemi epistemologici delle scienze cognitive (II) La ... cognitive-2.pdf · psicologici sono...

42
Problemi epistemologici delle scienze cognitive (II) La crisi del funzionalismo e gli sviluppi successivi Alfredo Paternoster

Transcript of Problemi epistemologici delle scienze cognitive (II) La ... cognitive-2.pdf · psicologici sono...

Problemi epistemologici delle scienze cognitive (II) –

La crisi del funzionalismo e gli sviluppi successivi

Alfredo Paternoster

Problemi del funzionalismo (computazionale)

1) Critiche relative alla metafisica della relazione mente/corpo ESPANSIONE VERTICALE

2) Critiche relative alla spiegazione della relazione mente/mondo (intenzionalità) ESPANSIONE ORIZZONTALE

3) Critiche relative alla spiegazione della natura dell’esperienza (coscienza) NECESSITA’ DI AFFRONTARE IL PROBLEMA DELLA COSCIENZA

La scienza cognitiva post-classica

Tre “spinte” o esigenze:

1) Mente cervello: NO funzionalismo o, almeno, attenzione sistematica ai risultati delle neuroscienze

2) Mente corpo: le funzioni mentali non sono il prodotto dell’attività del solo cervello, ma dell’intero corpo.

3) Mente mondo: non si possono studiare i processi mentali fuori da qualsiasi contesto, come se questi processi avessero luogo esclusivamente in uno “spazio” interno.

2+3: La pietra angolare della cognizione è il sistema sensomotorio (considerato in modo integrato), che realizza “l’esserci-nel-mondo”

1. L’ESPANSIONE VERTICALE

Superamento del carattere antibiologico del funzionalismo:

RETI NEURALI

SVILUPPO DELLA NEUROSCIENZA COGNITIVA

TENTAZIONI ELIMINATIVISTE / NEORIDUZIONISTE

Eliminativismo/neoriduzionismo

I predicati della psicologia del senso comune non possono essere messi in corrispondenza con i predicati delle neuroscienze.

Una psicologia scientifica deve usare una cornice teorica integrabile con le neuroscienze gli stati psicologici sono stati o proprietà di reti neurali

Gli stati di una rete neurale sono riducibili a stati del cervello riduzione della psicologia alla neuroscienza

I modelli computazionali tradizionali (tipo LoT) sono inadeguati e vanno sostituiti con i modelli a rete neurale (“connessionismo”).

Reti neurali artificiali

Sono modelli matematici che simulano, a un considerevole

grado di astrazione, il comportamento di una rete di

neuroni reali.

Sono costituiti da un insieme di unità (“nodi”) interconnesse.

Ciascuna unità rappresenta un neurone e ciascuna

connessione una sinapsi.

Tanto alle unità quanto alle connessioni sono associati dei valori

numerici (numeri reali), che rappresentano rispettivamente

il livello di attivazione o eccitazione dell’unità e la forza con

cui la connessione trasmette l’attivazione all’altra unità.

Reti neurali artificiali

Ogni unità ha un valore di attivazione.

Ogni connessione ha un peso.

Le connessioni possono essere di natura eccitatoria (+) oppure

inibitoria (-).

L’influenza (= grado di attivazione) di una unità A su una unità B

è pari al prodotto del valore di attivazione di A per il peso

della connessione tra le due. Il valore di attivazione di

un’unità è direttamente proporzionale alla somma di tutte

le influenze (attivatorie o inibitorie) che riceve.

Df. Vettore di attivazione l’insieme dei valori di attivazione di

una certa porzione della rete.

Reti neurali

Topologia delle reti (= schema delle connessioni):

Ve ne sono di diversi tipi.

Es.

1) Percettrone: un insieme di unità di input (aventi sole connessioni in uscita) e un insieme di unità di output (aventi solo connessioni in ingresso). Ogni unità di input è collegata a tutte le unità di output.

2) Rete “feedforward”: unità di input, unità di output e unità nascoste. Connessioni monodirezionali (inputnascosteoutput).

Ma molte altre topologie sono possibili.

Reti neurali

Reti neurali: come funzionano

Data una situazione iniziale, cioè un’assegnazione di valori di attivazione alle unità di input e ai pesi delle connessioni, il vettore di attivazione totale (relativo cioè all’intera rete) evolve spontaneamente nel tempo, fino ad arrivare a un livello stabile.

Tale configurazione finale corrisponde al risultato finale (output), di un processo di elaborazione di informazioni. Ad esempio, il vettore di attivazione finale delle unità di output potrebbe replicare quello iniziale delle unità di input riconoscimento dell’input.

(ci deve essere una convenzione rappresentativa: ogni unità codifica una certa informazione, ma tipicamente non c’è trasparenza semantica)

Reti neurali: come funzionano

Una rete neurale non viene programmata per eseguire una certa attività, ma addestrata mediante una serie di esempi caratteristici del dominio dei problemi da risolvere. L’addestramento consiste nella correzione automatica dei valori dei pesi delle connessioni: ogni volta che un input viene sottoposto alla rete durante la fase di addestramento, si confronta l’output ottenuto con quello desiderato e (semplificando): a) si incrementano i valori dei pesi delle connessioni che vanno alle unità di output che devono essere attivate; b) si indeboliscono i valori dei pesi delle connessioni che vanno alle unità di output che non devono essere attivate. (in base a un’opportuna formula matematica)

Reti neurali: come rappresentano Rappresentazione locale: a ogni unità è associata

un’informazione semanticamente rilevante (un significato o concetto). È semanticamente trasparente.

Rappresentazione distribuita: l’informazione

semanticamente rilevante è distribuita (emerge) sull’intera rete, in forma di vettore di attivazione. La singola unità non ammette un’interpretazione semantica determinata (anche se può essere associata a tratti semantici).

Caratteristiche fondamentali delle reti neurali

- L’elaborazione è parallela e non sequenziale

- Non c’è programma memorizzato

- Non c’è distinzione tra programma (algoritmo) e strutture dati (rappresentazioni)

- Sistemi analogici e non digitali

- Rappresentazioni distribuite subsimboliche

No computazioni su rappresentazioni?

No funzionalismo (computazionale)?

Rappresentazioni con reti neurali: vantaggi

- Gradualità della categorizzazione (prototipi e metrica): il livello di attivazione delle unità può variare con continuità, quindi un pattern può essere riconosciuto come più o meno appartenente a una categoria (NO tutto o niente).

- Tolleranza all’errore e degrado graduale: se lesiono una porzione di rete, la rete non smette di funzionare, ma avrà soltanto un più o meno significativo peggioramento delle prestazioni.

- Apprendimento: non c’è bisogno di avere molta conoscenza prememorizzata.

Reti neurali: un bilancio epistemologico

- Rappresentazioni semanticamente non trasparenti sono nondimeno rappresentazioni

- Evoluzione di una rete nel tempo è ancora una computazione (= una trasformazione I/O Turing-calcolabile), anche se di tipo diverso “computazioni cerebriformi”.

- Funzionalismo?

SI, perché computazionalismo funzionalismo

NO, perché lo studio dei processi mentali non è indipendente dallo studio del cervello, MA: indipendenza dalla materia non è indipendenza dalla struttura funzionale del cervello

CONCLUSIONE: piena continuità con SC classica.

Neuroscienza cognitiva: funzione e struttura

Coevoluzione di psicologia e neuroscienza: il pluralismo esplicativo

- Pluralità di discipline a diversi livelli di spiegazione

- Integrazione piuttosto che riduzione ( influenza reciproca)

- No autonomia dei livelli esplicativi

- Non c’è un livello fondamentale di spiegazione

- Modello di spiegazione meccanicistica

La spiegazione meccanicistica - Non è una spiegazione nomologica, bensì sistemico- funzionale (risponde alla domanda “in che modo è prodotto un certo fenomeno?) analogia con analisi funzionale - Articolazione in livelli di descrizione/spiegazione. Le entità di livello X-1 costituiscono un’entità di livello X. - Non c’è un livello privilegiato di spiegazione: no riduzionismo - bidirezionalità delle relazioni esplicative: - Livello X+1 contestualizza livello X - Livello X-1 scompone livello X - Ogni entità ha una funzione e una struttura. coevoluzione tra psicologia e neuroscienza

Liv. X+1

Prospettiva contestuale

Liv. X

Prospettiva isolata

Prospettiva costitutiva

Liv. X-1

Un esempio di spiegazione meccanicista: la memoria spaziale

Livello 4: psicologia /etologia cognitiva (test comportamentali)

Livello 3: sistemi neuro-computazionali (test neuropsicologici: effetti comportamentali di lesioni)

Livello 2: attività elettro-chimiche di neuroni e sinapsi (potenziamento a lungo termine): stimoli a cellule

Livello 1: meccanismi molecolari (recettore NMDA): stimolazione/registrazione tramite elettrodi

* Ci potrebbe essere lo spazio per un livello intermedio, di tipo algoritmico, tra 4 e 3.

Scomposizione/localizzazione

La costruzione di una spiegazione meccanicistica avviene tramite due momenti “dialettici”: - Scomposizione del meccanismo in parti (scomposizione strutturale) e nelle relative operazioni (scomposizione funzionale). - Localizzazione, cioè assegnazione delle operazioni alle parti

Scomposizione e localizzazione si informano reciprocamente. Non c’è una direzione privilegiata (Zawidzki e Bechtel 2002; 2004)

Scomposizione/localizzazione

Nel caso mente-cervello, occorre evitare -sia un approccio puramente top-down, che, sulla base di un’immagine idealizzata iper-semplificata della relazione tra aree cerebrali e funzioni mentali, ipotizza “in astratto” un’articolazione funzionale e si aspetta di trovare un’area o circuito per ogni funzione così individuata (“l’evoluzione del vivente è cosa ben diversa dall’evoluzione tecnologica”); - sia un approccio puramente bottom-up, che individua parti sulla sola base di considerazioni neurofisiologiche, cercando funzioni “alla cieca”

Scomposizione/localizzazione

- L’assegnazione di una funzione cognitiva a una struttura neuronale è uno dei principali criteri della sua individuazione

- La cartografia cerebrale spesso mette capo a revisioni delle scomposizioni funzionali proposte in sede psicologica

la psicologia guida la neuroscienza e la neuroscienza corregge la psicologia

Neoriduzionismo, again? Argomento di Bechtel & Mundale (1999) La multirealizzabilità deriva dall’uso di “livelli di grana” (= risoluzione) differenti nell’individuazione di tipi a livelli descrittivi diversi; ma se si vogliono confrontare le proprietà psicologiche con quelle neurologiche bisogna mantenerne costante la granularità. In funzione del livello di grana scelto, si possono far rientrare gli stati psicologici sotto lo stesso tipo o sotto tipi diversi. Mantenendo costante tale livello i tipi psicologici possono essere posti in corrispondenza biunivoca con quelli neurologici. La coevoluzione tra psicologia e neuroscienza e la ricerca di omologie fra strutture cerebrali confermerebbero, sul piano metodolologico, questo punto di vista.

2. L’ESPANSIONE ORIZZONTALE

GLI ARGOMENTI ANTI-SINTATTICISTI/ANTI-INDIVIDUALISTI

LA ROBOTICA SITUATA

I SISTEMI DINAMICI NON LINEARI

IL PARADIGMA SENSOMOTORIO

LA MENTE ESTESA

L’argomento della stanza cinese

(Searle 1980)

Un programma di analisi automatica del linguaggio naturale è analogo a un parlante inglese (che conosce solo l’inglese) che, chiuso in una stanza, riceve delle domande scritte in cinese e delle istruzioni che gli spiegano quali simboli cinesi deve produrre in risposta alle domande.

Tanto l’uomo quanto il programma non hanno la

minima idea di che cosa significano i simboli che manipolano.

L’argomento della stanza cinese L’esperimento mentale mostra che i simboli

manipolati da un programma di analisi del linguaggio sono privi di significato.

Forma generale dell’argomento: P1) I programmi sono oggetti puramente sintattici (=

tutte le computazioni sono processi sintattici) P2) Non si può ottenere una semantica dalla pura

sintassi (= Nessun processo sintattico può dare luogo a “effetti” semantici o intenzionali)

C) I programmi non possono dare luogo a intenzionalità (= nessuna computazione può dare luogo a un processo intenzionale)

L’influenza della stanza cinese

L’argomento trae la sua indubbia forza intuitiva anche dai risultati abbastanza scoraggianti dell’IA nei compiti semantici: pregi e difetti dei sistemi artificiali mostrano che essi non sono affatto genuini agenti intenzionali. C’è qualcosa nel modo umano di “comprendere” il mondo e il linguaggio che sfugge completamente agli agenti artificiali.

Ma il problema è quello diagnosticato da

Searle?

Obiezioni a Searle

- System reply: l’intenzionalità non è da attribuire al programma ma all’intero sistema che lo ospita (siamo noi che comprendiamo, non i nostri processi computazionali)

- Robot reply: se i simboli sono proiettati sul mondo grazie a programmi percettivi e motori, i simboli acquistano intenzionalità

Risposta del sistema Il sistema costituito dall’uomo chiuso nella stanza, dai fogli e

dalla stanza stessa è un sistema che comprende il cinese.

Replica di Searle: inintelligibile. Inoltre si può immaginare

che l’uomo incorpori l’intero sistema. Anche in questo caso non comprenderebbe il significato dei simboli che manipola.

Controreplica. Immaginare che l’uomo incorpori l’intero sistema è fuorviante. E attribuendo intenzionalità al solo uomo chiuso nella stanza Searle commette un errore categoriale, confondendo due livelli di spiegazione (siamo noi che comprendiamo, non il nostro cervello).

Un problema della system reply: è compromessa col

comportamentismo.

Risposta del robot I simboli manipolati da un programma sono privi di

significato (per il computer), ma se il computer è connesso a un sistema sensomotorio, acquistano significato.

Searle: no, perché i programmi di controllo dell’apparato sensomotorio continuano a essere puramente sintattici.

Controreplica: che cosa hanno di diverso o di particolare i

nostri sistemi di controllo sensomotori? Un limite della scienza cognitiva classica è quello di

considerare i sistemi in modo solipsistico, come se il mondo non esistesse. Le menti devono essere incorporate e immerse (“embedded”) nel mondo.

Altre obiezioni alla stanza cinese

Obiezione alla prima premessa: distinzione tra programma e processo (programma in esecuzione). I processi hanno una semantica, almeno nel senso che producono effetti (semantica operazionale)

Obiezione alla seconda premessa: le relazioni inferenziali

tra espressioni linguistiche, che sono relazioni semantiche, potrebbero essere realizzate tramite connessioni puramente formali ( logica)

Il problema è semmai che queste relazioni puramente intralinguistiche non sono sufficienti per l’intenzionalità symbol grounding problem. Ma a questo si può ovviare con la connessione a un sistema sensomotorio.

Argomenti anti-computazionalisti “in the vicinity”

Non si può dare conto dell’intero comportamento in termini di regole (Dreyfus 1979).

Un conto è possedere una regola, un altro è saperla applicare nelle circostanze appropriate. Come riconoscere le circostanze appropriate? Non posso, pena regresso, ricorrere a regole per stabilirlo.

Frame problem: di quali cambiamenti un sistema deve tenere traccia?

Si può formalizzare la pertinenza? C’è un modulo della pertinenza?

Tutte queste considerazioni sembrano valere anche nella

prospettiva robotistica.

L’argomento di Block

Il funzionalismo non impone requisiti sufficientemente forti sul concetto di mente: basta soddisfare certe proprietà “di organizzazione” per essere una mente.

P. es. il sistema costituito dall’intera popolazione della Cina, dove a ciascun individuo è stato assegnato il compito di eseguire una singola istruzione di una MT che sta simulando un certo processo cognitivo. Grazie a un complesso sistema di segnali, si suppone che ciascun cinese conosca in quale stato si trova questa «macchina collettiva» e quale simbolo essa si accinge a leggere. Per il funzionalismo lo stato costituito da tutti questi individui, unitamente al sistema di segnali, è uno stato mentale, in quanto soddisfa il ruolo causale-funzionale previsto.

L’argomento di Block

Il problema messo in luce da Block può essere evitato se il sistema in questione ha degli scopi adattativi

teleo-funzionalismo: Qualcosa è uno stato mentale se e solo se svolge un certo ruolo causale ed è stato selezionato dall’evoluzione per un certo scopo.

(es. un desiderio ha lo scopo di indurre un agente a modificare la realtà in modo vantaggioso per lui).

Robotica situata

- L’elaborazione delle informazioni è sistematicamente

vincolata dall’ambiente

- Non c’è rappresentazione (immagazzinamento); l’informazione è sfruttata immediatamente per il controllo dell’azione

- L’organizzazione modulare è per attività (= comportamenti) e non per funzioni

- L’enfasi è posta sul sensomotorio

computazioni senza rappresentazioni?

Il paradigma sensomotorio

- La percezione è una forma di azione ed è indisgiungibile dall’azione

- La percezione è un’attività dell’organismo preso nella sua interezza

- Percepire è muoversi in modo competente nell’ambiente per recuperare informazioni; il movimento determina variazione dello stimolo e le variazioni dello stimolo provocano movimento

- Lo stimolo non è una coppia di immagini retiniche statiche ( Gibson 1979)

- Raramente è necessario costruire una rappresentazione completa dell’oggetto.

- Il ruolo delle rappresentazioni nella visione è molto sopravvalutato. Se le informazioni sono presenti nell’ambiente è inutile rappresentarle

Sistemi dinamici non lineari

- sono adatti a descrivere e prevedere fenomeni che evolvono nel tempo;

- danno conto dei fenomeni di auto-organizzazione ed emergenza;

- negano o tendono a negare l’esistenza di una frontiera chiara tra agente e ambiente;

- negano che il comportamento sia guidato da rappresentazioni.

Tipo di spiegazione: descrittivo-predittiva, non ricostruttiva

Auto-organizzazione ed emergenza

Manifestazione spontanea, a livello macroscopico, di un

comportamento ordinato. Si evidenziano certe regolarità e simmetrie a partire da una miriade di interazioni causali a livello microscopico.

I fenomeni di regolarità non sono predicibili dall’analisi

delle relazioni che sussistono tra le microcomponenti del sistema. L’emergenza è in questo senso una proprietà olistica di alto livello.

La mente estesa

La mente non è una funzione del solo cervello, né del solo organismo; diversi processi cognitivi sono estesi in quanto coinvolgono supporti esterni di vario genere.

Concetto di azione epistemica: è un tipo di azione il cui scopo è rendere più efficace un processo cognitivo

Esternismo attivo: l’ambiente concorre, coopera allo svolgimento del processo cognitivo

Esternismo del veicolo (vs. del contenuto): sono i veicoli stessi della cognizione ad essere esterni.

La mente si è estesa molto precocemente: il linguaggio è un’estensione della mente.

6 tesi caratteristiche delle nuove scienze cognitive

La cognizione è situata, cioè ha sempre luogo in un certo contesto ambientale

La cognizione è soggetta a vincoli real-time La cognizione si avvale in misura significativa di supporti

esterni La cognizione (la mente) è estesa: i supporti esterni sono

costitutivi della cognizione/mente La cognizione è al servizio dell’azione [ed è azione] La cognizione è incorporata

Conclusioni

- Il funzionalismo computazionale ha le risorse teoriche per rispondere a molte delle critiche che gli sono state mosse: è possibile “calare” (almeno in una certa misura) la mente nel cervello, nel corpo e nel mondo senza rinunciare alla tesi secondo cui i processi mentali sono computazioni su rappresentazioni.

- La relazione tra i diversi programmi di ricerca è allo stato attuale meglio inquadrabile nei termini di complementarità piuttosto che di opposizione.

- Tuttavia ci sono divergenze non secondarie tra i diversi programmi di ricerca, per esempio, sull’uso della modularità, sul ruolo degli assunti computazionali, sulla relazione tra percezione, cognizione e azione. Per questa ragione l’identità della scienza cognitiva, al singolare, si è notevolmente indebolita.

Conclusioni

- La scienza cognitiva post-classica è in larga misura in continuità col cognitivismo classico; altrimenti detto, i programmi di ricerca che ho presentato (verosimilmente con l’eccezione della teoria dei sistemi dinamici) sono ancora scienza cognitiva, nel senso che non devono rinunciare e di fatto non rinunciano al computazionalismo.

- Tuttavia, il tipo di computazionalismo oggi adottato in SC è notevolmente “liberalizzato”, lasciando spazio a un’ampia varietà di modelli.

- Le istanze della percettologia ecologista (oggi paradigma sensomotorio) e più in generale dell’embodiment e dell’embeddedness sono ormai parte integrante del mainstream della scienza cognitiva.

- Resta qualche dubbio sulla possibilità di integrare in modo coerente tutte queste istanze.