Due tratti comuni nelle ricerche cognitive · Tropismo negativo : il sistema aumenta la velocità...

Post on 15-Feb-2019

216 views 0 download

Transcript of Due tratti comuni nelle ricerche cognitive · Tropismo negativo : il sistema aumenta la velocità...

Due tratti comuni nelle ricerche cognitive ◦ Impostazione meccanicistica: «spiegare» una

capacità o un comportamento significa «identificare il meccanismo» che ne è responsabile

◦ Indipendenza dal supporto materiale: la spiegazione non fa riferimento essenziale al materiale di cui è fatto il sistema.

◦ Ciò che «conta» non è la natura materiale del sistema bensì l’organizzazione di tale materiale (= il meccanismo di funzionamento del sistema)

Meccanicismo + indipendenza dal supporto materiale controllo di teorie sul comportamento attraverso simulazioni ◦ Perché il sistema B genera il comportamento C?

◦ Ipotesi: il meccanismo che genera C è M

◦ Come controllare questa ipotesi?

◦ Si costruisce un altro sistema A (informatico o robotico) che esegue, implementa, simula il meccanismo M e si valuta se A riesce o meno a generare C

In caso affermativo si può corroborare l’ipotesi M

In caso contrario si può screditare M

Il comportamento degli animali non umani è generato meccanicamente: automatico come un «orologio composto solo di ruote e molle»

Non così quello degli esseri umani

«Si può senz’altro concepire una macchina costruita in modo da proferire delle parole, e addirittura da proferirne qualcuna a proposito di azioni fisiche che determinino qualche mutamento nei suoi organi: per esempio, toccandola in un punto può domandare che cosa gli si vuol dire; toccandola in un altro può gridare che le si fa male, e via di seguito»

Secondo Cartesio le macchine, tuttavia, possono reagire a un insieme limitato di circostanze

Gli esseri umani possiedono invece una ragione universale, che permette loro di reagire appropriatamente a qualsiasi circostanza si ponga loro

«non si può concepire che [la macchina di cui sopra] coordini le parole diversamente per rispondere al senso di tutto ciò che si dirà in sua presenza, come possono fare anche gli uomini più ottusi»

21 tipi diversi di tessuti biologici, ognuno caratterizzato da una particolare “proprietà vitale”

La materia vivente si mantiene tale nonostante le forze fisiche che tendono a distruggerla

In natura esistono forze non fisiche, che Dio ha infuso nei sistemi viventi

Xavier Bichat (1771-1802)

Spiegazione del comportamento dei sistemi viventi nei termini di entelechia – forza vitale non fisica, non spaziale, qualitativa

Hans Driesch (1867-1941)

Ineludibile riferimento a una qualche forma di

forza vitale per spiegare il

comportamento dei sistemi viventi

Il comportamento dei sistemi viventi può essere spiegato in termini puramente meccanici

Scoperte di natura concettuale: le macchine possono manifestare capacità prima ritenute di esclusiva pertinenza dei sistemi viventi Le macchine possono generare

comportamenti imprevedibili Le macchine possono apprendere Le macchine possono avere scopi

Scoperte di natura concettuale: le macchine possono manifestare capacità prima ritenute di esclusiva pertinenza dei sistemi viventi Le macchine possono generare

comportamenti imprevedibili Le macchine possono apprendere Le macchine possono avere scopi

Tropismo positivo: il sistema aumenta la velocità del lato opposto alla stimolazione sensoriale, avvicinandosi a esso

+ +

Tropismo negativo: il sistema aumenta la velocità del lato corrispondente alla stimolazione sensoriale, allontanandosi da esso

+ +

Loeb (1900): spiegazione del comportamento fototropico delle falene

Hammond and Meissner, 1912

«Mi sembra che l’effettiva costruzione di una macchina eliotropica non fornisca sostegno solo a una concezione meccanicistica delle azioni volontarie e istintive degli animali, ma anche alla mia teoria sull’eliotropismo, dato che la teoria ha fornito le basi per la costruzione della macchina.

(Loeb, 1918)

Possiamo sentirci a nostro agio nell’affermare che non vi è maggior ragione di attribuire le reazioni eliotropiche degli animali inferiori a particolari forme di sensazione, per esempio di intensità luminosa, di colore, di piacere, o di curiosità, di quanta non ve ne sia di attribuire le reazioni eliotropiche della macchina del Sig. Hammond a sensazioni di quel tipo»

(Loeb, 1918)

«L’instabilità delle forze vitali caratterizza tutti i fenomeni vitali con un’irregolarità che li distingue dai fenomeni fisici [che sono] peculiari per la loro uniformità»

(Bichat, 1805)

William James, «Are we automata?» (1879): opposizione tra automatismo e imprevedibilità «Possiamo costruire [un sistema nervoso] che

reagirà in modo infallibile e certo, ma che sarà per questo capace di reagire a un insieme molto ristretto di cambiamenti ambientali.

D’altra parte possiamo costruire un sistema nervoso potenzialmente adatto a rispondere a una varietà infinita di minute caratteristiche della situazione: ma la sua fallibilità sarà grande quanto le sue capacità di elaborazione»

I veicoli di Braitenberg

Roberto Cordeschi, The Discovery of the Artificial. Behavior, Mind and Machines Before and Beyond

Cybernetics, Kluwer Academic Publishers, Dordrecht (2002)

“So a two-element synthetic animal is enough to start with. The strange richness provided by this particular sort of permutation introduces right away one of the aspects of animal behavior – and human psychology – which M. speculatrix is designed to illustrate: the uncertainty, randomness, free will or independence so strikingly absent in most well-designed machines.

Walter, W. G. (1950). An imitation of life. Scientific American, 182(5), 42–45.

The fact that only a few richly interconnected elements can provide practically infinite modes of existence suggests that there is no logical or experimental necessity to invoke more than number to account for our subjective conviction of freedom of will and our objective awareness of personality in our fellow men”

Walter, W. G. (1950). An imitation of life. Scientific American, 182(5), 42–45.

L’imprevedibilità delle macchine «sta negli occhi di chi guarda»: ◦ Il comportamento di semplici meccanismi che

reagiscono a cambiamenti ambientali può essere imprevedibile se quei cambiamenti ambientali sono imprevedibili

◦ Il comportamento di macchine dotate di molti «tropismi» semplici sarà ancor più difficile da prevedere

Scoperte di natura concettuale: le macchine possono manifestare capacità prima ritenute di esclusiva pertinenza dei sistemi viventi Le macchine possono generare

comportamenti imprevedibili Le macchine possono apprendere Le macchine possono avere scopi

Secondo alcuni filosofi e fisiologi del tempo, la reazione di una macchina a certe condizioni (ambientali o interne) è determinata e immutabile

Le macchine non possono variare nel tempo la loro risposta alle stesse condizioni: non possono apprendere

Anche gli animali più «semplici» possono farlo, a vantaggio della propria sopravvivenza

Il bambino non tocca per la seconda volta il fuoco (James, 1890)

Come spiegare in termini puramente meccanici la capacità di variare la risposta agli

stessi stimoli? acquisire nuove

associazioni tra stimoli e risposte?

Riflesso condizionato Lo stimolo X (es: vista del cibo) evoca la risposta

R (es: salivazione) Lo stimolo X è presentato più volte assieme allo

stimolo Y (es: suono di una campanella) La presentazione di Y diventa progressivamente

in grado di evocare R anche senza la presentazione di X

Apparente acquisizione di una nuova associazione (tra Y e R): come spiegarla in termini meccanici?

X Y

R

nessuno stimolo nesssuna risposta

C1 C2

Z

Y

R

Y

stimolo X risposta R

X

C1 C2

Z

Y

R

Y

stimolo X risposta R stimolo Y: C1 si carica elettricamente

C1 C2 +++

---

X Z

Y

R

Y

stimolo Y risposta R

C1 C2 +++

---

X

C1 C2

Z

XY

R C1 C2

Z

C1 si scarica a ogni stimolo Y: il sistema «dimentica» l’associazione tra Y e R

XY

R C1 C2

Z

Cosa succederà se condizioniamo Z nello stesso modo di Y?

Cosa succederà se a volte accompagniamo la stimolazione Y (dopo il condizionamento) con la stimolazione Z?

Scoperte di natura concettuale: le macchine possono manifestare capacità prima ritenute di esclusiva pertinenza dei sistemi viventi Le macchine possono generare

comportamenti imprevedibili Le macchine possono apprendere Le macchine possono avere scopi

Una mosca sbatte per ore contro il vetro di una finestra. Perché?

Interpretazione finalistica:

La «causa» sta nel raggiungimento di una certa condizione futura (l’uscita dalla finestra, il raggiungimento di fonti di luce, …)

Un evento futuro causerebbe dunque un comportamento precedente a esso

Nessun meccanismo fisico può essere «mosso» da eventi futuri

Quindi, le macchine non possono essere dirette a uno scopo

Eppure la falena di Loeb e i robot di Grey Walter tendono al raggiungimento di condizioni future

◦ Sono «ostinati»: se li si allontana dall’obiettivo, tenderanno ad avvicinarsi di nuovo a esso

◦ Se li facciamo partire da posizioni diverse, tenderanno ad arrivare a destinazione seguendo percorsi diversi

meccanismi a retroazione negativa: in grado di ridurre continuamente la differenza tra lo stato di cose corrente e uno stato desiderato

Esempi: il regolatore di Watt la macchina

fototropica di Hammond e Miessner

i sistemi di puntamento per le armi contraeree della II guerra mondiale

«Qualsiasi forma di comportamento rivolto a uno scopo richiede retroazione negativa»

dall’obiettivo (es: fonte di luce) giunge al sistema un segnale che ne determina movimenti correttivi

Secondo RWB, se il sistema effettua movimenti di correzione esagerati, ne risulterà un comportamento oscillatorio simile a quello dei pazienti con danno cerebellare

«Abbiamo ristretto il senso dell’espressione ‘comportamento teleologico’ applicandola soltanto alle reazioni orientate a uno scopo che sono controllate dall’errore della reazione – ovvero, in ogni momento, dalla differenza tra lo stato del sistema e lo stato finale interpretato come obiettivo.

L’espressione ‘comportamento teleologico’ è dunque sinonima dell’espressione ‘comportamento controllato da retroazione negativa’, e attraverso una connotazione sufficientemente ristretta ne guadagna in precisione.

Sulla base di questa definizione limitata, la teleologia non si oppone al determinismo bensì alla non-teleologia. Sia i sistemi teleologici sia quelli non teleologici sono deterministici.

Principali obiezioni: ◦ I sistemi a retroazione negativa hanno sì un

obiettivo, ma è un obiettivo imposto dal progettista; al contrario, i sistemi viventi sono in grado di attribuirsi autonomamente obiettivi

◦ L’obiettivo è sensoriale. Un sistema di questo tipo non è in grado di perseguire obiettivi di carattere astratto o in assenza di segnali sensoriali.

Le macchine possono rappresentare internamente aspetti dell’ambiente

Esempio ante litteram: il robot di Christopher Longuet-Higgins (cit. in Johnson-Laird e in Cordeschi 2002) ◦ Robot mobile su ruote ◦ Dispone al suo interno di una tavoletta delle stesse

proporzioni dell’ambiente in cui si muove - es: un tavolo ◦ Durante il movimento, grazie a un semplice dispositivo

meccanico, un cursore scorre sulla tavoletta interna in una posizione corrispondente a quella del robot sul tavolo

◦ Quando il cursore arriva al bordo della tavoletta il sistema si ferma, evitando di cadere dal tavolo

La rappresentazione interna di una certa caratteristica dell’ambiente può svolgere il ruolo di segnale sensoriale interno

Il sistema può dunque reagire nel modo dei sistemi a retroazione negativa anche in assenza o in previsione di uno stimolo sensoriale esterno, in qualche senso «anticipandolo»

Es: il robot di Longuet-Higgins si ferma prima di cadere dal tavolo sulla base di un segnale sensoriale interno

Le capacità di rappresentazione del robot di Longuet-Higgins sono estremamente ridotte

Elementare circuito elettronico di memoria: il flip-flop

Applicando un breve stimolo a E1 il terminale A2 si attiva,

e rimane attivato anche dopo la fine dello stimolo, finché non viene stimolato E2

Il circuito «mantiene memoria» dello stimolo

Una sequenza di flip-flop può fornire al sistema la base per memorizzare numeri (in numerazione binaria)

memoria degli odierni calcolatori digitali

1 0 1 1 0

stato del flip-flop 1 stato del flip-flop 2

stato del flip-flop 3

I valori di memoria (numeri) possono essere interpretati come proposizioni, immagini, suoni, ...

I calcolatori odierni possono memorizzare testi (dunque insiemi di proposizioni) rimanendo essenzialmente sistemi numerici!

1 0 1 1 0

stato del flip-flop 1 stato del flip-flop 2

stato del flip-flop 3

Lo stimolo che attiva o disattiva una certa cella di memoria non deve necessariamente provenire da un sensore,

ma anche da altre parti interne del sistema

meccanismi di elaborazione di rappresentazioni in assenza di stimoli sensoriali

apprendimento nei calcolatori digitali

1

Riassumendo:

La memoria dei calcolatori digitali può rappresentare «cose» di vario tipo: letture sensoriali, proposizioni sul mondo esterno, immagini, suoni rappresentare varie forme di conoscenza

Gli stati della memoria del sistema possono essere modificati automaticamente da altre parti del sistema

Le rappresentazioni possono dunque essere elaborate in modo automatico nei calcolatori digitali

Esaminare “la congettura che ogni aspetto dell’apprendimento o qualsiasi altra caratteristica dell’intelligenza può in linea di principio essere specificata con precisione tale che diventi possibile costruire una macchina che la simuli”

“Quello che propongo è … di partire da attività più semplici, vale a dire da un ambiente che non sia né ostile (ma solamente indifferente) né complesso”, e di procedere “attraverso passi non problematici” verso la modellazione di “sistemi in grado di svolgere le più avanzate attività umane – dimostrare teoremi, comporre musica, o giocare a scacchi”

Metodologia: ◦ trovare meccanismi per la risoluzione automatica di

problemi “semplici” in “ambienti non ostili” ◦ e provare ad applicarli a problemi meno semplici, e

in ambienti meno ostili

Metodi per la soluzione di rompicapi “semplici” (la torre di Hanoi) e metodi per la soluzione di rompicapi meno semplici (giocare a scacchi, dimostrare teoremi, interagire con l’ambiente)

La torre di Hanoi Lupo-capra-cavolo

Manipolare rappresentazioni del problema

Raggiungere l’abitazione di un nostro amico

L’abitazione nostra e quella da raggiungere si trovano entrambe in corrispondenza di un incrocio

La città è fatta a isolati quadrati

Nord

Sud

Est Ovest

1 2 3 4

5 6 7 8

9 10 11 12

Stato iniziale Noi all’incrocio 12 Stato finale Noi all’incrocio 2

Noi all’incrocio 12

Un NODO è una rappresentazione di uno stato di cose

è possibile compiere al più quattro operazioni: N, S, E, O

Per ognuna di queste operazioni definiamo un operatore

Applicando l’operatore a uno stato di cose, ne otteniamo un altro ◦ N sullo stato 12 8

Noi allo stato 12

Noi allo stato 8

N

S1

S2

Consideriamo un insieme di stati S che inizialmente corrisponde al solo stato iniziale.

12 S = 12

Consideriamo un insieme di stati S che inizialmente corrisponde al solo stato iniziale.

Generiamo e annotiamo tutti gli stati che risultano dall’applicazione di tutte le operazioni ammissibili a partire da ogni stato appartenente all’insieme S, e chiediamoci se in questo insieme di stati risultanti vi sia quello finale.

12

8 11

N O S = 12

Abbiamo trovato lo stato finale? ◦ No? Allora stabiliamo che l’insieme S costituisce non più

quello definito al passo 1, bensì l’insieme di tutti gli stati generati al passo precedente; poi torniamo al punto 2.

◦ Sì? Allora annotiamo la sequenza di operazioni che, a partire dallo stato iniziale, hanno permesso di raggiungere lo stato finale. Questa sequenza di operazioni è la soluzione del problema.

12

8 11

N O S = 12 S = {8, 11}

12

8 11

N O

4 7 12

N O

S

3 8

O S

2 7 4

O S

E

… …

12

8 11

N O

4 7 12

N O

S

3 8

O S

2 7 4

O S

E

… …

Soluzione = NNOO

Logic Theorist (Newell, Shaw, Simon 1955-1956)

General Problem Solver (Newell, Shaw, Simon 1957)

Programmi che eseguivano ricerche in alberi di decisione per risolvere problemi di vario tipo ◦ Dimostrazioni in logica proposizionale o predicativa

◦ Elaborazione del linguaggio naturale

◦ Esplorazione dell’ambiente

IA: intelligenza e cognizione come manipolazione algoritmica di rappresentazioni ◦ Ricerche euristiche in alberi di decisione ◦ Ipotesi del sistema di simboli fisico (Newell e Simon)

Person: Pick up a big red block. Computer: OK. Person: Grasp the pyramid. Computer: I don't understand which pyramid you mean. Person (changing their mind): Find a block which is taller

than the one you are holding and put it into the box. Computer: By "it", I assume you mean the block which is

taller than the one I am holding. Computer: OK. Person: What does the box contain? Computer: The blue pyramid and the blue block. Person: What is the pyramid supported by? Computer: The box. Person: How many blocks are not in the box? Computer: Four of them. Person: Is at least one of them narrower than the

one which I told you to pick up? Computer: Yes, the red cube.

Turing (1950) considera la seguente tesi: “una macchina non può mai fare qualcosa di veramente nuovo”, ma solo ciò che le ordiniamo di fare

Una variante migliore dell’obiezione dice che una macchina non può mai ‘prenderci alla sprovvista’

Questa affermazione è una sfida più diretta e può essere controbattuta direttamente. Le macchine mi prendono alla sprovvista molto frequentemente”

“Com’è comprensibile, abbiamo forti reticenze ad attribuire la patente d’intelligenza a una macchina che ci sembra semplice. […]

Ci sono tuttavia delle situazioni in cui molte delle nostre reticenze ad attribuire intelligenza alle macchine vengono a cadere. Di tanto in tanto, una macchina ci sembra più capace e più efficace di quanto ci saremmo aspettati in base a un esame superficiale delle sue strutture.”

“Un simile evento ci stupisce e rimane impresso nella nostra mente, e la sorpresa e l’impressione rimangono in noi finché, mediante un’analisi o una ‘spiegazione’, il senso di meraviglia poi non scompaia. […]

Allo stesso modo, i giudizi con i quali attribuiamo la qualifica di intelligenza ad altri esseri umani dipendono spesso da una nostra insufficienza analitica, e variano al variare del nostro grado di comprensione.

Spesso scopriamo che un’attività che, svolta da altre persone, ci pareva altamente intelligente, ci sembra alquanto più banale quando noi stessi apprendiamo il “trucco” che permette di praticarla”

Scoprire dimostrazioni di teoremi matematici, comporre musica, progettare strutture meccaniche e giocare a scacchi sarebbero comunemente ritenute creative se il risultato fosse originale e di alta qualità. …

… nessuno negherebbe che Whitehead e Russell fossero creativi quando scrissero i Principia Mathematica. Il loro libro è uno dei prodotti intellettuali più significativi del ventesimo secolo.”

“Se era creativo per Witehead e Russell scrivere quei volumi, per il Logic Theorist può essere creativo reinventarne larghe parti del secondo capitolo, riscoprendo in molti casi proprio le stesse dimostrazioni originariamente scoperte da Whitehead e Russell. …

In almeno un caso, inoltre, il Logic Theorist ha scoperto una dimostrazione di un teorema del secondo capitolo che è più breve e più elegante di quella pubblicata da Whitehead e Russell”

Supporto a una «concezione meccanicistica della vita» ◦ macchina di Krueger

◦ robot di Grey Walter

Sostegno alla costruzione di teorie e al loro controllo sperimentale ◦ Il cane fototropico di Hammond e Miessner vs. la

teoria di Loeb

◦ Newell e Simon

Sistema fisico B sul quale vengono condotti esperimenti per controllare ipotesi scientifiche a proposito di un altro sistema fisico A

Modello

esperimenti su

Sistema A

conclusioni teoriche su

Simulazioni: macchine come modelli materiali su cui svolgere esperimenti per trarre conclusioni teoriche su un sistema vivente

Macchina

esperimenti su

Sistema vivente

conclusioni teoriche su

Sotto quali condizioni una macchina può essere un «buon modello» per lo studio del comportamento intelligente dei sistemi viventi?

Simulazione: macchina il cui funzionamento è fedelmente «basato» su una teoria meccanicistica proposta per spiegare il comportamento o una particolare capacità di un sistema vivente

Il comportamento della macchina (confrontato con quello del sistema vivente in esame) fornisce basi empiriche per valutare la plausibilità della teoria

descrizione di meccanismo MV

sistema vivente V

capacità CV esibita da V nelle

condizioni EV

sistema artificiale A

capacità CA esibita da A nelle

condizioni EA

descrizione di meccanismo MA

formulazione formulazione

spiegazione spiegazione

traduzione

istan

ziazio

ne

confronto

istanziazione

controllo/scoperta

La chemiotassi dell’aragosta

Le fonti di nutrimento degli astici (es. molluschi) rilasciano scie chimiche nell’acqua

Gli astici sono in grado di risalirle fino alla sorgente

In base a quale meccanismo? “our efforts represent the first

study of chemo-orientation in turbulence at the same spatial scale and indeed in the same exact task and conditions as the model animal.”

Chemiotassi dell’astice: capacità CV di raggiungere la sorgente chimica (= nutrimento)

Se l’antenna destra segnala maggior concentrazione chimica di quella sinistra, il crostaceo compie una piccola deviazione verso destra

Viceversa per il lato sinistro.

Se invece entrambe le antenne percepiscono identica concentrazione, allora l’animale prosegue dritto davanti a sé.

descrizione di meccanismo MV

sistema vivente V

capacità CV esibita da V nelle

condizioni EV

sistema artificiale A

capacità CA esibita da A nelle

condizioni EA

descrizione di meccanismo MA

formulazione formulazione

spiegazione spiegazione

traduzione

ista

nzia

zion

e

confronto

istanziazione

descrizione di meccanismo MV

sistema vivente V

capacità CV esibita da V nelle

condizioni EV

sistema artificiale A

capacità CA esibita da A nelle

condizioni EA

descrizione di meccanismo MA

formulazione formulazione

spiegazione spiegazione

traduzione

ista

nzia

zion

e

confronto

istanziazione

Rob

oLob

ster

descrizione di meccanismo MV

sistema vivente V

capacità CV esibita da V nelle

condizioni EV

sistema artificiale A

capacità CA esibita da A nelle

condizioni EA

descrizione di meccanismo MA

formulazione formulazione

spiegazione spiegazione

traduzione

ista

nzia

zion

e

confronto

istanziazione

OK

no 60 cm 100 cm

Distanza tra il punto di partenza e la sorgente

chimica:

destinazione partenza

60 cm

100 cm

Perchè RoboLobster non è riuscito a raggiungere la sorgente chimica da una distanza di 100 cm? ◦ A causa dell’orientazione iniziale? ◦ A causa della distanza tra i sensori? no

no

Il gradiente di concentrazione non fornisce informazioni sufficienti per guidare il

comportamento dell’aragosta

Il comportamento dell’aragosta non può essere spiegato sulla

base del meccanismo ipotizzato

descrizione di meccanismo MV

sistema vivente V

capacità CV esibita da V nelle

condizioni EV

sistema artificiale A

capacità CA esibita da A nelle

condizioni EA

descrizione di meccanismo MA

formulazione formulazione

spiegazione spiegazione

traduzione

ista

nzia

zion

e

confronto

istanziazione

indipendenza dal supporto materiale: nessuna ragione di principio per negare che sistemi distinti (viventi/non viventi) implementino lo stesso meccanismo

Quali criteri per valutare se due sistemi particolari A e V implementano lo stesso meccanismo?

Dettagli implementativi: caratteristiche del sistema artificiale che non sono vincolate dall’ipotesi teorica

… ma che ciò nonostante hanno un impatto sul comportamento del sistema

Esempio: distanza tra le antenne di RoboLobster

Quali sono le caratteristiche di una “buona spiegazione” nelle scienze cognitive? descrizione di

meccanismo MV

capacità CVesibita da V nelle

condizioni EV

spiegazione

Astrazione e circostanze al contorno ◦ Ambientali

Altri stimoli chimici?

Turbolenza dell’acqua?

◦ Fisiologiche

Assunzione di modularità: sistema “isolato” rispetto all’influsso di altre parti del sistema nervoso

Astrazione e circostanze al contorno in Intelligenza Artificiale

◦ “Quello che propongo è di partire da attività più semplici, vale a dire da un ambiente che non sia né ostile (ma solamente indifferente) né complesso” (Dartmouth 1956)

Descrizioni di oggetti ◦ es: la descrizione del meccanismo neurale che

permette ai ratti di orientarsi nei labirinti

Ruolo prevalentemente esplicativo e predittivo

I modelli incorporano quote di astrazione e idealizzazione rispetto all’oggetto descritto

In che senso un modello teorico astratto può contribuire a spiegare il comportamento di un sistema “concreto”?

Astrazione e circostanze al contorno ambientali, fisiologiche, …

Anche l’explanandum è idealizzato! ◦ Explanandum: “Perché gli astici riescono

così efficientemente a raggiungere la sorgente della scia chimica?” ◦ Troppo “semplicistico”: nemmeno gli astici

veri riescono sempre a raggiungere le sorgenti chimiche!

Explanans idealizzato per explanandum idealizzato

Astrazione e scelta di un particolare livello di analisi ◦ Ipotesi: relazione tra stimoli sensoriali e

risposte motorie

◦ Grana molto “larga”: nessun riferimento ai componenti intermedi che assicurano il collegamento tra stimolazioni sensoriali e risposte motorie. Es:

Meccanismi di controllo delle zampe dell’animale?

Meccanismi chimici che assicurano il buon funzionamento dei circuiti neurali?