Inferenze Ampliative
-
Upload
baronescurobert -
Category
Documents
-
view
46 -
download
1
description
Transcript of Inferenze Ampliative
Emiliano Ippoliti
Inferenze Ampliative
Visualizzazione, analogia e rappresentazioni multiple
Emiliano Ippoliti Inferenze ampliative
Visualizzazione, analogia e rappresentazioni multiple © 2008 Emiliano Ippoliti
Copertina: progetto grafico Studio Ippoliti
ISBN:
978-1-4092-0101-4
Finito di stampare nel mese di Marzo 2008 Stampato e distribuito da:
Lulu Press, Inc. 860 Aviation Parkway, Suite 300 Morrisville, North Carolina 27560
U.S.A.
http://www.lulu.com
Proprietà letteraria riservata. È vietata la riproduzione, anche parziale, con qualsiasi mezzo effettuata, compresa la fotocopia, anche a uso interno o didattico, senza l’esplicita autorizzazione dell’Autore.
Indice del volume
Introduzione 7 Capitolo 1. Le inferenze ampliative 11
1. Premessa 11 2. Definizione 12 3. Non-monotonicità 13 4. Probabilità 15
5. Sensibilità alla rappresentazione 17 Capitolo 2. Visualizzazione e ampliatività 21
1. Premessa 21 2. Rappresentazioni visuali ampliative 26 2.1. Visualizzazione di polinomi di secondo grado a valori
interi 31
2.2. Una prima congettura 35 2.3. Visualizzazione di serie intere pari e dispari 36 2.4. Una seconda congettura 40 3. Osservazioni conclusive 42 Capitolo 3. Rappresentazioni multiple e ampliatività 45
1. Premessa 45 2. Molteplicità di rappresentazioni 46 2.1. Rappresentazioni multiple e topologia algebrica 49 2.2. Rappresentazioni multiple e teoria dei nodi 51 2.3. Rappresentazioni multiple e teoria delle trecce 59 3. Rappresentazione e oggetti matematici 65
Indice del volume
6
Capitolo 4. Analogia e ampliatività 67
1. Premessa 67 2. Definizione 69 3. Probabilità e analogia 72 4. Analogia, rappresentazione e scoperta 76 5. Analogie multiple 83 6. La concezione euristica dell’analogia 87
Capitolo 5. Ampliatività e verità 99
1. Il problema della verità 99 2. Plausibilità e ampliatività 101 2.1. Caratterizzazione della plausibilità 102 2.2. Caratterizzazione dell’inferenza 104 3. Ampliatività e conoscenza 107 Bibliografia 117
Introduzione
Questo volume fornisce un’analisi delle inferenze ampliative e un
percorso tra i metodi di ampliamento della conoscenza. Esso di-
scute sia le proprietà generali di questa forma di ragionamento (v.
Cap. 1) sia tre sue significative articolazioni, con un particolare
riferimento alla matematica. Il testo analizza inoltre alcuni aspetti
epistemologici sollevati dalla natura di queste inferenze in rela-
zione alla verità (v. Cap. 5).
Il volume è il risultato sia di una rielaborazione e di un appro-
fondimento di contributi che sono apparsi in sedi diverse (v. Cap.
2 e Cap. 4), sia di contributi originali (v. Cap. 1 e Cap. 3), i quali
sono legati da una comune linea di congiunzione: lo studio dei
metodi e dei processi mediante i quali produrre davvero nuova
conoscenza. Il testo affronta dunque il problema della scoperta
scientifica, ossia della costruzione e del raffinamento di metodi
mediante cui porre e risolvere problemi e indagare le proprietà
degli oggetti matematici.
La tesi sostenuta in questo testo è che la conoscenza matema-
tica avanza, si amplia, mediante una moltiplicazione di punti di
vista intorno all’oggetto indagato. Per l’esattezza sostengo che
esiste una relazione feconda tra la nozione di rappresentazione e
quella di ampliatività, in quanto il processo di continua moltipli-
cazione dei punti di vista avviene proprio mediante la costruzione
e la combinazione di nuove e diverse rappresentazioni. Da un lato
la costruzione e la combinazione di molteplici rappresentazioni
porta a un ampliamento della nostra conoscenza, dall’altro
l’ampliamento della conoscenza produce la possibilità di istituire
nuove e molteplici rappresentazioni di un oggetto, e così via
all’infinito. Questo continuo movimento è alla base dei più rile-
vanti conseguimenti della matematica.
Sosterrò questa tesi esaminando tre tipi d’inferenza ampliativa
– la visualizzazione, l’analogia e la combinazione di rappresenta-
zioni – e facendo ricorso a casi tratti dalla teoria dei numeri e dal-
la topologia, in particolare dalla teoria delle trecce e dalla teoria
dei nodi, i quali sono domini nei quali la moltiplicazione euristica
di punti di vista mediante l’uso di diverse rappresentazioni è par-
ticolarmente evidente e feconda.
Il testo intende dunque offrire un contributo allo sviluppo di
una concezione euristica della matematica e della filosofia della
scienza.
La concezione euristica (v. Cellucci 2002) può essere fatta ri-
salire almeno a Descartes, il quale teorizza espressamente la ne-
cessità di una logica della scoperta, ossia di un metodo in grado
di favorire la scoperta. Secondo la versione moderna della conce-
zione euristica, il compito della matematica e quello della filoso-
fia della matematica non differiscono affatto, in quanto la loro
questione centrale è la scoperta, ossia l’indagine sui modi in cui
la conoscenza matematica avanza e mediante i quali la scoperta
può essere razionalmente perseguita. La filosofia della matemati-
ca deve dunque mirare all’ideazione e al raffinamento dei metodi
mediante cui porre e risolvere problemi e mediante cui investiga-
re gli oggetti matematici.
Come tento di mostrare nel corso del volume, la matematica
avanza, articola il suo processo di ampliamento della conoscenza,
mediante la moltiplicazione e interazione di diverse rappresenta-
zioni di un oggetto o di un problema matematico.
La costruzione, moltiplicazione e combinazione di diverse
rappresentazioni sono strumenti essenziali per il processo di am-
pliamento poiché esse permettono di introdurre nel corso del pro-
cesso inferenziale informazioni e dati che non sono contenuti nel-
le premesse e che sono in qualche modo esterni all’oggetto e al
problema esaminato. Questa caratteristica, definibile come sensi-
bilità alla rappresentazione (sensitivity to representation), è cosi
cruciale nella matematica, come argomenterò, in virtù della natu-
ra stessa della matematica e dei suoi oggetti.
Questo libro pertanto presenta:
- una filosofia della matematica nella quale la scoperta è trat-
tata come un processo razionale e analitico (in un certo senso di
analitico), logicamente e temporalmente non separabile dalla fase
della giustificazione, che procede mediante una continua costru-
zione di molteplici rappresentazioni di oggetti matematici, che
originano una moltiplicazione di punti di vista sull’oggetto che
produce nuova conoscenza.
- una trattazione dell’inferenza ampliativa e degli oggetti ma-
tematici basata su una concezione euristica della matematica (v.
Cellucci 2002), che considera le entità matematiche come ipotesi
per porre e risolvere problemi.
Sebbene questo approccio sia sviluppato in riferimento alla
Introduzione
10
matematica, ritengo che sia applicabile e si adatti anche alla trat-
tazione di altri domini scientifici.
1
Le inferenze ampliative
1. Premessa
La nozione di ampliatività e di inferenze ampliative rappresenta-
no una frontiera della ricerca logica. Il loro studio e la loro analisi
permettono di indagare e render conto dei processi di reale am-
pliamento della conoscenza, ossia dei processi che consentono di
porre e risolvere problemi mediante l’ideazione e il raffinamento
di metodi per costruire e valutare ipotesi e per indagare gli ogget-
ti matematici. Le inferenze ampliative, infatti, servono per scopri-
re e valutare ipotesi mediante processi che introducono e veicola-
no informazioni e dati che non sono contenuti nel problema af-
frontato o nell’oggetto indagato e che servono a moltiplicare i
punti di vista e le sue possibili rappresentazioni al fine di genera-
re nuova conoscenza. In questo senso, dunque, queste inferenze si
distinguono in modo essenziale dalle inferenze non-ampliative, le
quali non introducono nuova informazione e non moltiplicano i
punti di vista intorno ad un dato oggetto o problema, e anzi ri-
mangono per definizione chiuse all’interno di un particolare pun-
to di vista.
La tesi sostenuta in questo testo è che la conoscenza matema-
tica, e in certo senso la conoscenza in generale, si estende e si
amplia mediante un processo di continua moltiplicazione dei pun-
ti di vista intorno ad un oggetto. Inoltre sostengo e argomento che
questa moltiplicazione di punti di vista avviene mediante la con-
tinua costruzione di nuove rappresentazioni dell’oggetto indaga-
to. Certo non per tutti gli oggetti questo processo di moltiplica-
zione può essere messo in atto e iterato, e anzi esistono oggetti
per i quali si possono costruire ben poche rappresentazioni e per i
quali si possono dare ben pochi punti di vista (come i numeri na-
turali), ma in generale questo processo è responsabile degli avan-
zamenti più profondi e della crescita della conoscenza della ma-
tematica.
2. Definizione
Con la nozione di ampliatività e di inferenza ampliativa ci si rife-
risce a una proprietà essenziale del ragionamento. Una definizio-
ne comunemente accettata di questo tipo di inferenza è di istituire
un nesso tra il contenuto della conclusione e quello delle premes-
se per effetto del quale il primo non è incluso nel secondo, alme-
no non per intero.
In altre parole le inferenze sono ampliative quando «il conte-
nuto informativo della conclusione non è interamente contenuto
in quello delle premesse»1, quando l’informazione della conclu-
sione che non è presente nelle premesse o nei dati da cui è stata
inferita, e pertanto esse estendono l’informazione fornita nelle
loro premesse.
Quindi le inferenze ampliative (p. es. le inferenze induttive o
1 Boniolo-Vidali 1999, 222.
le inferenze analogiche) sono davvero in grado, per via della loro
stessa natura, di estendere e generare nuova conoscenza, in quan-
to introducono qualcosa di esterno durante il processo inferenzia-
le. Esse differiscono dunque dalle inferenze non ampliative (ossia
quelle deduttive), le quali non sono in grado di estendere davvero
la nostra conoscenza, nel senso che tutto ciò che da esse deriva è
contenuto nelle informazioni e nei dati forniti nelle premesse.
Inoltre le inferenze ampliative «non costituiscono un insieme
chiuso, dato una volta per sempre, bensì sono un insieme aperto
che può essere sempre di nuovo ampliato mano a mano che si svi-
luppa la ricerca»2.
Esse hanno un ruolo cruciale nei processi di problem-solving e
di scoperta in quanto contribuiscono a modellare lo spazio com-
binatorio delle ipotesi (ossia lo spazio di ricerca che racchiude le
possibili combinazioni tra dati e informazioni che possono dare
luogo a ipotesi esplicative), espandendolo e contraendolo ad ogni
passo del percorso inferenziale in vista della ricerca di una solu-
zione del problema dato.
3. Non-monotonicità
La non monotonicità3 è una delle principali caratteristiche delle
inferenze ampliative. Tali inferenze, infatti, sono caratterizzate e
definite mediante la violazione di una delle condizioni più forti
2 Cellucci 2008, 335. 3 v. Antonelli 2004 e Gelfond - Watson 2003.
della logica classica, nota appunto come la monotonicità.
La monotonicità asserisce la validità della seguente relazione:
se Γ ϕ e Γ ⊆ Δ, allora Δ ϕ.
Dunque un'inferenza è monotonica quando, nel caso in cui la
conclusione ϕ di una inferenza è conseguenza di un insieme di
premesse Γ, allora essa è una conseguenza di qualsiasi insieme di
premesse Δ che contenga Γ quale suo sottoinsieme. Questa con-
dizione, pertanto, sostiene che una conclusione non può essere
invalidata dall’ingresso di nuova informazione: quando si è giunti
a una conclusione ϕ per via deduttiva partendo da Γ, questa ri-
mane vera una volta per tutte, indifferentemente dalle proposi-
zioni che possiamo aggiungere all’insieme delle premesse Γ. Da
ciò segue che il numero delle proposizioni valide aumenta appun-
to monotonicamente rispetto all’incremento delle premesse ag-
giunte a Γ, nel senso che all’aumentare delle premesse aumenta-
no anche le conseguenze che ne possono essere derivate.
La violazione della condizione di monotonicità nel corso dei
ragionamenti permette invece di trattare situazioni in cui una
conclusione può essere rivista alla luce dell’ingresso di nuove
premesse o informazioni. Tali conclusioni hanno dunque uno sta-
tuto diverso, in quanto non sono verità definite e indubitabili, ma
sono proposizioni plausibili4. Se le conclusioni possono essere
invalidate dall’aggiunta di nuove premesse, allora il numero delle
asserzioni valide non solo può non aumentare, ma può anche di-
minuire (o presentare delle oscillazioni). Quindi nel corso 4 v. p. es. Ippoliti 2007 e Cellucci 2008.
dell’articolazione di inferenze ampliative, l’insieme delle propo-
sizioni accettate non cresce monotonicamente perché «inizial-
mente la conoscenza di sfondo più un insieme di credenze accet-
tate può implicare una conclusione s. Poco dopo aver appreso che
la proposizione r è vera, la conoscenza di sfondo e le credenze
accettate combinate con r potrebbero non implicare più s»5. In tal
caso si può anche arrivare a dover rimuovere s dall’insieme delle
proposizioni accettate.
4. Probabilità
Le inferenze ampliative sono spesso associate alla probabilità, nel
senso che esse, pur non essendo vere, sono considerate probabili.
Per esempio la descrizione dell’analogia (v. Cap. 4) come una
forma d’inferenza «ampliativa e probabile»6 è largamente condi-
visa, in quanto «gli argomenti analogici non devono essere classi-
ficati come validi o invalidi, in questi casi tutto ciò che si può
richiedere è la probabilità»7.
Questo tentativo di fornire una giustificazione in termini pro-
babilistici della inferenza ampliativa è problematico e, in ultima
analisi, inadeguato.
L’inferenza ampliativa si basa infatti su considerazioni di ca-
rattere materiale e dipendenti dal dominio, e si sottrae a un pro-
5 Elio 2002, 4. 6 Weitzenfeld 1984, 1. 7 Copi 1961, 466.
cesso d’analisi e di riduzione alla nozione e teoria della probabili-
tà.
Infatti, non a caso, sia la teoria classica della probabilità sia
quella moderna hanno fallito nel dare una descrizione soddisfa-
cente e una giustificazione dell’inferenza analogica e quindi, per
estensione, esse non sono in grado di offrire una descrizione sod-
disfacente e una giustificazione dell’inferenza ampliativa. Ciò è
dovuto a più di una ragione. In primo luogo l’inferenza ampliati-
va è un concetto qualitativo, perché è una forma di comparazio-
ne, mentre la probabilità è un concetto quantitativo, perché è ba-
sata sulla quantificazione e sulla enumerazione. Le ragioni che
motivano un’inferenza ampliativa non sono e non possono essere
di natura probabilistica: esse può avere una probabilità molto
bassa (v. Cap. 4), anche prossima allo zero, eppur essere giustifi-
cata e, viceversa, ricevere un valore probabilistico molto alto ed
essere ingiustificata.
In particolare l’affermazione che la natura del legame tra le
premesse e la conclusione di una inferenza ampliativa non può
essere spiegata mediante la teoria della probabilità ha almeno due
sensi.
In primo luogo molte ipotesi formate mediante inferenze am-
pliative si basano su un numero limitato di osservazioni e si rife-
riscono a un numero molto elevato di casi (anche infiniti), per cui
il rapporto tra casi favorevoli e casi possibili è tale da conferire
all’ipotesi un valore probabilistico molto basso o prossimo allo
zero.
In secondo luogo molte inferenze ampliative, come l’analogia,
si basano su un numero di dissimilarità tra i domini oggetti di
transfer che supera quello delle similarità e quindi, di nuovo: il
loro rapporto conferisce una probabilità molto bassa alla conclu-
sione ma essa è motivata (ad esempio perché avviene su proprietà
rilevanti8). Al contrario, inferenze basate sul conforto di un nu-
mero molto alto di similarità tra i domini comparati (e quindi su
un’alta probabilità) possono rivelarsi non solo non motivate, ma
palesemente scorrette o non-informative.
Ma il fatto che la logica e la teoria della probabilità non siano
adeguate a rendere conto dell’essenza dell’ampliamento della
conoscenza ha un motivo specifico: l’inferenza ampliativa è, in-
fatti, soggetta al paradosso dell’inferenza9. Pertanto non è possi-
bile avere un’inferenza che goda contemporaneamente della pro-
prietà della correttezza e dell’ampliatività10, ossia che sia tale che
le sue premesse conferiscano validità e certezza alla conclusione
candidata e al contempo estenda davvero le nostre conoscenze. Il
legame istituito tra le premesse e la conclusione di una inferenza
ampliativa non è infatti di natura probabilistica, ma è semplice-
mente plausibile.
5. Sensibilità alla rappresentazione
8 Cfr. Ippoliti 2006 e Ippoliti 2007, Cap. 5. 9 Cfr. Cellucci 2002, 167-168. 10 Per una analisi approfondita della relazione tra la nozione di correttezza e
quella di ampliatività di un’inferenza cfr. Cellucci 2002, 165-169.
Un’altra proprietà costitutiva dell’inferenza ampliativa e del pro-
cesso di ampliamento della conoscenza è la sensibilità alla rap-
presentazione. Con il termine rappresentazione qui intendiamo un
modo di organizzare e codificare l’informazione e i dati necessari
a trattare un oggetto o un problema matematico (come la visua-
lizzazione, la formalizzazione, la definizione ma anche la sempli-
ce notazione). Con la nozione di sensibilità si intende la dipen-
denza del processo di ampliamento della conoscenza da certi fat-
tori (o insieme di fattori) che intervengono in tale processo.
Con la proprietà della sensibilità alla rappresentazione mi rife-
risco dunque alla dipendenza che esiste tra i modi di rappresenta-
zione e la trattazione di un problema o un oggetto matematico.
Una differenza anche piccola nella rappresentazione scelta può
condurre a trattazioni completamente differenti del problema o
dell’oggetto indagato. Pertanto due modi di rappresentazione
possono generare due diverse ipotesi o soluzioni di uno stesso
problema e le proprietà che possono essere ascritte ad un certo
oggetto matematico sensibilmente dipendono dalla rappresenta-
zione che ne diamo.
Il processo di costruzione di nuove rappresentazioni e la loro
combinazione strutturata veicola e introduce informazioni tra loro
diverse e le organizza in modi diversi.
Questo processo di costruzione di rappresentazioni è forte-
mente basato sulle inferenze ampliative, come l’analogia, che
consente di trasferire risultati, strumenti e metodi a livello sia
intra-domini sia inter-domini. Quindi tra ampliatività e sensibilità
alla rappresentazione esiste una reciproca dipendenza: le inferen-
Inferenze ampliative
19
ze ampliative permettono di costruire nuove rappresentazioni e,
viceversa, l’insieme delle rappresentazioni cui possiamo avere
accesso permettono di strutturare il processo inferenziale amplia-
tivo.
Inoltre diversi modi di rappresentazioni dipendono dalla cono-
scenza esistente, nel senso che le rappresentazioni cui possiamo
avere accesso e che possiamo costruire dipendono dal corpo di
conoscenza esistente in quel momento. Dunque la scoperta e la
soluzione di problemi, a loro volta, dipendono dalla conoscenza
esistente e dal contesto in cui hanno luogo. Esse sono quindi sto-
ricamente situate, e dipendono strettamente dall’insieme delle
conoscenze disponibili ad un certo tempo t e dalla loro relativa
strutturazione interna. Al crescere della conoscenza esistente e
della sua strutturazione interna, lo spazio combinatorio delle ipo-
tesi viene rimodellato in modo tale che certe rappresentazioni
possono essere costruite e trasferite mediante le inferenze amplia-
tive a diversi oggetti. Questo fatto, per inciso, spiega perché al-
cune scoperte o soluzioni di problemi avvengono in certi contesti
e in certi momenti (talvolta alcune scoperte o soluzioni sono otte-
nute del tutto indipendentemente quasi contemporaneamente), e
spiega anche perché alcune ipotesi ritenute plausibili in un certo
contesto e ad un certo momento, cessano di esserle in contesti e
periodo diversi (e viceversa).
Dunque la sensitività alla rappresentazione è una caratteristica
così cruciale dell’inferenza ampliativa che la semplice ideazione
di una nuova rappresentazione (anche di una semplice notazione)
può significare produzione di nuova conoscenza.
2
Visualizzazione e ampliatività
1. Premessa
La visualizzazione è tradizionalmente considerata1 come un effi-
cace mezzo di scoperta, che può avere un carattere sia integrativo
sia alternativo a stili di ragionamento formali e deduttivi. Essa
può dunque sia accompagnare, sia porsi come alternativa alla
formalizzazione e alla deduzione.
Tra gli strumenti di ampliamento della conoscenza la visualiz-
zazione occupa un posto di rilievo: essa è infatti sia una forma di
inferenza sia un tipo di rappresentazione. La visualizzazione (in-
tendendo in questa sede in via del tutto generale sia la visione, sia
il ragionamento basato sulle immagini sia le varie tecniche di
visualizzazione) è uno strumento (v. Mancosu 2005) decisivo nei
processi di ampliamento della conoscenza. In questa sede sosten-
go e argomento che essa consente davvero di estendere la cono-
scenza, e non semplicemente che sia un mezzo che accompagna
la via analitico-formale, e sostengo che sia un mezzo euristico e
non semplicemente un correlato didattico o esplicativo, che si
struttura secondo proprie e irriducibili forme di codificazione e
organizzazione dei dati e dell’informazione.
1 v. p. es Hadamar 1945.
La visualizzazione offre un metodo per indagare oggetti e ri-
solvere problemi in quanto permette di costruire nuove rappre-
sentazioni di oggetti (ossia di codificazione e organizzazione dei
dati e delle informazioni che lo caratterizzano) e di produrre ipo-
tesi esplicative anche in domini molto astratti della matematica.
La visualizzazione, non a caso, non solo trova applicazione e gio-
ca un ruolo euristico decisivo in un numero crescente di domini
anche molto astratti come la teoria dei numeri2, ma solleva pro-
fonde questioni metodologiche, epistemologiche e filosofiche3.
La visualizzazione ricorre infatti a processi inferenziali propri
che possono differire sostanzialmente da quelli che caratterizzano
stili di ragionamenti assiomatico-formali: questi processi sono in
grado di produrre un’organizzazione dei dati e delle informazioni
mediante cui scoprire proprietà di oggetti indagati e formulare
congetture feconde. Questi processi non introducono semplice-
mente nuova informazione, esterna al problema dato o
all’oggetto indagato, ma contribuiscono a una nuova interpreta-
zione, dall’interno, dell’oggetto indagato e del problema da risol-
vere. In qualche modo costruiscono un nuovo oggetto e assem-
blano un nuovo problema.
Come abbiamo già accennato, il processo euristico è sensibile
alla rappresentazione scelta, per cui le proprietà individuabili di
un oggetto e le ipotesi candidabili per risolvere un problema di-
pendono dall’insieme di rappresentazioni scelte e dal modo in cui
2 v. p. es. Borwein - Jörgenson 2001, Goetgheluck 1993, Zenkin -1990. 3 v. p. es. Giaquinto 1992, 1993, 1994 e 2007, Brown 1997 e 1999, Horgan 1993, Cel-
lucci 2008.
le si combina durante il processo di ampliamento della conoscen-
za. Nella matematica questa dipendenza è particolarmente marca-
ta, e infatti «la storia della matematica è segnata da molti consi-
derevoli sviluppi basati sulla visualizzazione. Per esempio
l’introduzione di Descartes delle coordinate cartesiane è forse il
più importante passo in avanti nella matematica del millennio»4.
In questo caso, infatti, la costruzione di una rappresentazione
visuale di oggetti algebrici (ossia l’interpretazione di equazioni
come curve in una data dimensione e, viceversa, la costruzione di
immagini algebriche per oggetti geometrici), ha infatti permesso
a Descartes, e separatamente a Fermat, di produrre cruciali sco-
perte matematiche e di risolvere problemi di lungo corso median-
te una nuova codificazione della conoscenza, che istituisce un
legame tra due differenti discipline – come la geometria e
l’algebra.
Ancora, nella teoria dei numeri è ormai manualistico il caso
dei numeri figurati (ossia i numeri triangolari, i numeri quadrati, i
numeri pentagonali, etc.), la cui visualizzazione ha giocato un
ruolo decisivo nella scoperta di Pitagora di molte proprietà arit-
metiche.
La tesi qui proposta e sostenuta è che la visualizzazione non
rappresenta un modo più diretto e “intuitivo” per accedere ad una
conoscenza che sarebbe comunque raggiungibile mediante la via
assiomatico-formale, ma piuttosto che essa si configura come un
mezzo per ottenere conoscenza che non sarebbe accessibile me-
diante altri metodi e sistemi di rappresentazione della conoscen- 4 Borwein – Jörgenson 1997, 898.
za.
Ovviamente esistono limiti intrinseci della visualizzazione: il
numero dei dati che può essere visualizzato, le poche dimensioni
cui si può avere accesso, la natura empirica e sensoriale delle
immagini. Essi pongono profondi limiti teorici e pratici all’uso
della visualizzazione, i quali possono condurre a errori e inferen-
ze fallaci5.
Su questa base Giaquinto6 solleva varie obbiezioni sull’uso
della visualizzazione, la quale sembra in grado di portare alla
mente solo casi singoli ed esempi particolari, che non sono in
grado di raggiungere l’astrattezza e la generalità per produrre
nuova, rilevante conoscenza matematica.
Giaquinto sostiene pertanto che la visualizzazione può ricopri-
re un ruolo nella matematica nel senso che permette esprimenti
mentali e può far emergere sia schemi (di operazioni o prove ana-
litiche) sia la possibilità di certe relazioni almeno nell’aritmetica
e nell’analisi reale elementare. A tal fine analizza due esempi
famosi, come il teorema del punto fisso e il teorema del valore
intermedio, per mostrare come il pensiero visuale – il visual thin-
king – sebbene non possa essere considerato un metodo di sco-
perta, possa comunque essere uno stimolo alla scoperta – la quale
può comunque essere raggiunta per via assiomatico-formale.
Ma la possibilità che in linea di principio ogni oggetto o pro-
blema matematico sia suscettibili di una qualche forma di rappre-
5 v. p. es. Brown 1997, dove si discutono i limiti della visualizzazione di quattro cerchi
in dimensione n, con n>10. 6 v. Giaquinto 1993 e 1994.
sentazioni visuale non può essere esclusa, poiché con l’avanzare
della conoscenza matematica è possibile istituire sempre nuove
relazioni e rappresentazioni tra domini fino a quel momento ri-
masti del tutto o parzialmente separati. Ciò non significa ovvia-
mente che ogni oggetto matematico possiede una specifica rap-
presentazione visuale, ma piuttosto che è possibile, in un qualche
modo che dipende dall’avanzare della conoscenza matematica e
dalle molteplici rappresentazioni che se ne possono dare, fornire
una espressione visuale e grafica di oggetti e problemi matemati-
ci.
In fondo, come osserva la Grosholz (v. Grosholz 2007), la
stessa formalizzazione può in ultima analisi essere considerata
come un particolare tipo di rappresentazione.
Nei paragrafi che seguono mostrerò mediante alcuni semplici
esempi tratti dalla teoria dei numeri come la visualizzazione
svolga un ruolo euristico essenziale, e analizzerò come essa non
sia un semplice correlato di un approccio assiomatico-formale
alla matematica, ma uno strumento di reale ampliamento della
conoscenza.
La scelta della teoria dei numeri non è causale, se si pensa che
Giaquinto (v. Giaquinto 1993) sostiene che i numeri sembrano
essere oggetti puramente astratti, entità che non sono visualizza-
bili neanche in potenza. In realtà è possibile mostrare come
un’opportuna rappresentazione visuale di oggetti numerici sia
non solo capace di ampliare la nostra conoscenza permettendo di
cogliere proprietà e relazioni nuove, ma di fare ciò superando i
limiti di un approccio basato su stili di ragionamento formalisti e
deduttivi.
2. Rappresentazioni visuali ampliative
La costruzione di nuove rappresentazioni, in questo caso di carat-
tere visuale, è uno strumento così decisivo nell’ampliamento del-
la conoscenza che anche su oggetti apparentemente semplici e a
lungo studiati è possibile gettare nuova luce, arrivando a indivi-
duare nuove proprietà.
Per esempio il matematico russo A. Zenkin (v. Zenkin 1991) è
riuscito a scoprire nuove proprietà dei numeri quadrati 1, 4, 9, 25,
..., f(x) = x2, x∈ , facendo ricorso ai cosiddetti pitogrammi, una
forma di rappresentazione grafica al computer nota come Cogni-
tive Computer Graphics (CCG) – Computer Grafica Cognitiva.
Una possibile estensione dei suoi risultati può essere data in varie
forme utilizzando proprio tale forma di rappresentazione (v. p. es.
Ippoliti 2002a e 2002b).
I pitogrammi non sono altro che un modo nuovo di visualizza-
re le proprietà di oggetti numerici – una codificazione nuova del-
la conoscenza. Essi permettono di individuare nuove proprietà e,
come vedremo, di formulare congetture fornendo un mezzo per
ampliare la conoscenza su oggetti numerici attraverso la costru-
zione di una nuova rappresentazione, che non fa altro che orga-
nizzare e codificare i dati e le informazioni in un modo nuovo.
Essi visualizzano e dispongono in uno spazio bidimensionale un
insieme discreto di dati, creando un oggetto visuale che può esse-
re studiato interattivamente e in una sorta di ambiente geometrico
virtuale. Dunque i pittogrammi creano immagini e rappresenta-
zioni geometriche di oggetti della teoria dei numeri.
Per costruire un pittogramma è necessario innanzitutto proce-
dere ad una trasformazione della serie, ossia la sequenza mono-
dimensionale 1, 2, 3, 4, 5,..., n, n∈ , nella forma modulare e
bidimensionale rappresentata nella Figura 1.
Figura 1. Griglia di un pitogramma
Si definisca il modulo del pitogramma (abbreviato mod) la
quantità di celle numeriche in ogni stringa orizzontale. Dunque
nell’esempio offerto in Figura 1 abbiamo che mod = 5.
A questo punto è possibile scegliere una qualsiasi proprietà
dei numeri naturali espressa da un predicato P(n), e visualizzarla
su un pitogramma in base alla seguente regola:
- se P(n) è vero, allora il colore della n-sima cella è, dicia-
mo, nera,
altrimenti,
- se P(n) è falsa, allora il colore è, diciamo, giallo.
Ora, sia P(n) il predicato che esprime la proprietà "essere o non
essere il quadrato di un numero naturale", n = x2: allora per mod
= 5, otteniamo il pitogramma mostrato in Figura 2:
Figura 2. Costruzione del pitogramma dei numeri quadrati
Innanzitutto è possibile osservare come questa rappresentazione
visuale è in grado di mostrare la doppia connessione tra due prin-
cipali proprietà degli oggetti numerici, quali la proprietà additiva
e quella moltiplicativa. La prima è infatti espressa dal colore dei
pitogrammi, la seconda dalla posizione, dal momento che tutti i
numeri naturali n, per i quali si ha che n = (k*mod)+j, con j<mod,
si trovano nella stessa j-esima colonna del pitogramma.
Facendo variare la dimensione del modulo, si ottengono di-
verse configurazioni e rappresentazioni dello stesso oggetto nu-
merico espresso dal predicato P(n), le quali consentono di indivi-
duare proprietà e formulare congetture. Inizialmente si possono
ottenere configurazioni disordinate di punti (gialli e neri), ma
spesso i pitogrammi possono rivelare strutture che, se adeguata-
mente interpretate, possono evidenziare modelli e proprietà inte-
ressanti.
Per adeguatamente interpretate intendo che tali modelli o pro-
prietà non sono dati grezzi, ma piuttosto che essi emergono da
analogie e legami tra le configurazioni visualizzate dai pito-
grammi e quelle di altre discipline scientifiche. Come osserva
Brown (v. Brown 1997), la visualizzazione e l’interpretazione di
oggetti matematici richiedono infatti uno “sguardo metaforico”.
Proprio facendo ricorso ad una opportuna interpretazione ba-
sata sulla visualizzazione CCG, Zenkin ha scoperto una proprietà
dei numeri quadrati la quale rivela una trasformazione non nota
nella matematica moderna.
Infatti, per mod = 16, come è possibile osservare nella Figura
3, la singola ma infinita parabola x2 – visualizzata nella Figura 3
(a), – si trasforma in una famiglia infinita di parabole finite, come
mostrato nella Figura 3 (b) e (c). Questo nuovo oggetto geometri-
co può essere espresso analiticamente, come è facilmente verifi-
cabile – nel modo seguente:
Y*(n) = (8n ± k)2 , n∈ , k = 0, 1, 2, 3, 4.
Come mostrato in Figura 3, ogni parabola della famiglia è costi-
tuita da nove punti, che sono quadrati di successivi numeri natu-
rali.
Figura 3. Pitogramma dei numeri quadrati
Per formalizzare ed esprimere analiticamente la famiglia basta
associare al pitogramma un sistema locale di coordinate, come
mostrato nella Figura 4. Quindi abbiamo che Y*(n) = (8n ± k)2 ,
n∈ , k = 0, 1, 2, 3, 4, e dove ogni punto n esprime una parabo-
la. Infatti il valore di Y*(n) non è un semplice numero, ma è la
sequenza dei seguenti nove quadrati di numeri naturali successi-
vi: (8n-4)2, (8n-3)2, (8n-2)2, (8n-1)2, (8n)2, (8n+1)2, (8n+2)2,
(8n+3)2, (8n+4)2 con n ∈ .
Quindi la famiglia infinita di parabole finite viene espressa
dalla seguente sequenza infinita di parabole composta da nove
punti:
Y*(0), Y*(1), Y*(2), Y*(3), ..., Y*(n).
Figura 4. Sistema locale di coordinate del pitogramma
2.1. Visualizzazione di polinomi di secondo grado a valori interi7
Un cambio di rappresentazione è dunque in grado di rivelare pro-
prietà che non sono individuabili per via analitica, e il risultato di
Zenkin mostra come la stessa struttura geometrica di un oggetto
della teoria dei numeri – ossia la parabola, – emerga sia nel piano
cartesiano sia nella rappresentazione basata sulla visualizzazione
CCG. Inoltre esso mostra una particolare e nuova connessione tra
finito e infinito all’interno dell’oggetto indagato.
Tale rappresentazione organizza e codifica i dati e le informa-
zioni in modo diverso e ottiene risultati nuovi e diversi. Dunque
questo semplice risultato mostra come gli oggetti matematici e i
7 Ringrazio il prof. Zenkin per i suoi suggerimenti e il dott. Rustichelli per la
collaborazione nello sviluppo del software di visualizzazione CCG su Linux.
processi di ampliamento della loro conoscenza siano sensibili alla
rappresentazione. Cosa sia un oggetto matematico e come sia
possibile estendere la conoscenza che ne abbiamo dipende
dall’insieme di rappresentazioni che ne possiamo dare e dai modi
in cui possiamo combinarle.
Ovviamente è possibile sottoporre altri oggetti matematici alla
visualizzazione CCG e ottenere risultati che possono condurre a
scoprire nuove proprietà e formulare congetture. In ciò che segue
intendo mostrare proprio questo.
Per esempio, si prendano in esame i numeri eteromechi8 e i
numeri planici9, serie numeriche rispettivamente espresse dalle
equazioni n = x2 - x e n = x2 + x. Entrambe le serie sono geome-
tricamente delle parabole e sono casi particolari di polinomi della
forma f(x) = ±ax2 ± bx ± c, ossia polinomi di secondo grado.
Osserviamo il comportamento di polinomi per soli valori inte-
ri (ossia che generano serie numeriche di numeri interi positivi), e
quindi che soddisfano la condizione x > b, x2 > c, -ax2 < ± bx ± c,
ax2 > ±bx ± c. Quindi x2 + x and x2 – x esprimono la stessa serie
numerica e in generale polinomi duali che generano serie nume-
riche di interi positivi esprimono la stessa serie (p. es. x2 + 4x
genera la stessa x2 - 4x, in quanto consideriamo, per il secondo,
solo i valori di x > 4).
Per costruire il pitogramma di queste due serie numeriche si
8 Sono detti eteromechi i numeri che sono il prodotto di due numeri consecutivi, ossia
n=(x-1)x. 9 Sono detti planici i numeri che sono composti dalla somma di un numero e del suo
quadrato, ossia n=x+x2.
definisca dunque il predicato P(n) = “essere o non essere un nu-
mero planico/eteromeco". Facendo variare il valore del modulo
otteniamo diverse rappresentazioni di questi oggetti numerici,
dalle quali possiamo tentare di scoprirne nuove proprietà. In par-
ticolare per mod = 14, come mostrato nella Figura 5, anche que-
sta serie si trasforma in una famiglia infinta di parabole finite,
ognuna composta da 8 punti che sono successivi numeri planici
(eteromechi), tale che per ogni n∈ , k = 0, 1, 2, 3, si ha che
Y*(n) = (7n ± k)2 + (7n ± k), o (7n ± k)2 - (7n ± k).
Figura 5. Pitogramma dei numeri planici/eteromechi
Come si può vedere, ancora una volta otteniamo una rappresenta-
zione simile a quella dei numeri quadrati, che esibisce la stessa
connessione tra finito e infinito che si presenta nei pitogrammi
dei numeri quadrati.
Questo secondo risultato ottenuto sulla base della visualizza-
zione CCG suggerisce la possibilità di estendere lo studio visuale
a serie di numeri naturali che possono essere espresse in generale
da parabole, ossia polinomi di secondo grado a valori interi, n =
ax2 ± bx ± c. Nella Tabella 1 ho riassunto alcuni risultati ottenuti
mediante la visualizzazione di tali polinomi, per i quali esiste
sempre un valore del modulo per il quale si verifica la trasforma-
zione esibita dai numeri quadrati e dai numeri planici ed etero-
mechi.
serie P(n) mod equazione punti struttura
y = x2+x 14 Y*(n)=(7n ± k)2+ (7n ± k) ,
n∈ , k = 0,1,2,3 e, per
n≥1, -k= 4
8
Famiglia infinita
di parabole finite
y = x2- x 14 Y* (n)=(7n ± k)2- (7n ± k),
n∈ , k = 0,1,2,3 e, per
n≥1, -k= 4.
8
Famiglia infinita
di parabole finite
y = x2+2x 16 Y*(n)=(6n± k)2+ 2(6n±k),
n∈ , k = 0,1,2,3
9 Famiglia infinita
di parabole finite
Y =x2+x+2 10 Y*(n)=(4n ± k)2+ (4n ± k) +
2 , n∈ ,k = 0,1,2 e, per
n≥1, +k = 3.
6 Famiglia infinita
di parabole finite
Y = x2+x+1 14 Y*(n)=(7n ± k)2+ (7n ±k) +
1, n∈ , k = 0,1,2,3 e, per
n≥1, - k = 4.
8 Famiglia infinita
di parabole finite
Y = ax2 16a Y*(n)=(a8n - k)2, n∈ ,
k = 4, 3, 2,1 ,0
8a Famiglia infinita
di parabole finite
... ... ... ... ...
Tabella 1
2.2. Una prima congettura
I risultati riportati nella Tabella 1, ottenuti mediante la visualiz-
zazione CCG, suggeriscono la seguente congettura:
data una qualsiasi serie di numeri naturali generata da
polinomi della forma n = ax2 ± bx ± c, esiste sempre
un valore del modulo tale che esiste una famiglia infi-
nita di parabole finite, ognuna di j ± k punti, che può
essere espressa da una equazione della forma a(jn ±
k)2 + b(jn ± k) + c , con a, b, c, j, k, n, x∈ .
Ciò equivale a dire che tale congettura sostiene che sia sempre
possibile esprimere una serie numerica n = ax2 ± bx ± c nella
forma a(jn ± k)2 + b(jn ± k) + c, e rappresentare la singola, infini-
ta, parabola del piano cartesiano come una famiglia infinita di
parabole finite nei pitogrammi.
Ossia:
(I) ∀P(n), P(n)=(ax2 ± bx ± c), dove a, b, c,
x∈ , ∃q tale che, per mod=q, esiste una
famiglia infinita di finite ax2 ± bx ± c della
forma Y*(n) = a(jn ± k)2 + b(jn ± k) + c, do-
ve j ± k è il numero dei punti di ogni singola
finita ax2 ± bx ± c.
È interessante osservare fin d’ora che tale trasformazione si veri-
fica invertendo la relazione tra finite e infinito, e vedremo nei
paragrafi successivi come questo fatto giochi un ruolo essenziale
nella formulazione di una seconda congettura.
2.3. Visualizzazione di serie intere pari e dispari
Si esamini ora visualmente per mezzo dei pitogrammi la serie dei
numeri naturali 1, 8, 27, ..., f(x) = x3, x∈ , usando dunque il
predicato P(n)= "essere o non esser un numero cubico".
Per mod = 18, come è possibile osservare nella Figura 6, si ot-
tiene un risultato davvero interessante: come nel caso di x2, infat-
ti, abbiamo una struttura finita iterata infinitamente.
Figura 6. Pitogramma dei numeri cubici
La struttura iterata è, ancora una volta, la stessa che si presenta in
forma infinita nel piano cartesiano, ossia una cubica. Questa
struttura può essere espressa, nel sistema di coordinate locali,
mediante l’equazione Y*(n) = (6n - k)3, n∈ , k = 5, 4, 3, 2, 1, 0,
dove ogni cubica n ha sei punti, che sono cubi di successivi nu-
meri naturali, (6n-5)3, (6n-4)3, (6n-3)3, (6n-2)3, (6n-1)3, (6n)3.
Quindi mediante un cambio di rappresentazione, dalla serie
dei numeri cubici 1, 8, 27,..., x3 otteniamo una famiglia infinita di
cubiche finite. Pertanto per n=2 e n=3, si possono individuare due
simili e interessanti risultati per la serie dei numeri naturali della
forma xn , con x, n∈ .
La visualizzazione CCG di valori successive di n in xn mostra
come sia possibile formulare una successiva congettura.
Si consideri innanzitutto il caso n=4, visualizzandolo median-
te pitogrammi in base al predicato P(n) = "essere o non essere il
bi-quadrato di un numero naturale". Nella visualizzazione della
serie dei bi-quadrati 1, 16, 81, 256, ... , x4, x∈ , per mod=48,
(vedi Figura 7A) si ottiene ancora una configurazione simile alla
precedente: una famiglia infinita di parabole finite – che presen-
tano ovviamente una concavità più grande di quella della serie
dei numeri quadrati, – ognuna composta da 7 punti di successivi
bi-quadrati di numeri naturali:
(4n - 3)4, (4n - 2)4, (4n - 1)4, (4n)4, (4n + 1)4, (4n + 2)4, (4n + 3)4.
Tale famiglia è espressa, nel sistema locale di coordinate del pi-
togramma, dall’equazione Y*(n) = (4n ± k)4, n∈ , k = 0, 1, 2, 3.
Procedendo per valori interi di n, per n = 5 e con P(n) = "esse-
re o non essere la quinta potenza di un numero naturale", si ottie-
ne una rappresentazione simile a quella per n = 3 (vedi Figura
7B).
La serie delle quinte potenze dei numeri naturali 1, 32, 243,
1024, ... , x5, x∈ , per mod=25, esibisce di nuovo una struttura
composta da una famiglia infinita di strutture simili alle cubiche,
ognuna composta da 5 punti, che sono successive quinte potenza
di numeri naturali, (5n - 4)5, (5n - 3)5, (5n - 2)5, (5n - 1)5, (5n)5,
che è espressa in via analitica dall’equazione Y*(n) = (5n - k)5,
n∈ , k = 4, 3, 2, 1, 0. In particolare la serie in questione si arti-
cola secondo il decorso tipico delle funzioni cosiddette dispari:
questo insieme di osservazioni effettuate mediante la visualizza-
zione CCG, riassunti nella Tabella 2, suggerisce la congettura del
paragrafo che segue.
Figura 7A. Pitogramma dei numeri bi-quadrati
Figura 7B. Pitogramma delle quinte potenze
serie P(n) mod equazione punti struttura
Y = X2 16 Y*(n) = (8n ± k)2,
n∈ , k = 0,1,2,3,4
9 Struttura pari: famiglia infi-
nita di parabole finite - Fig. 3
Y = X3 18 Y*(n) = (6n - k)3,
n∈ , k =
5,4,3,2,1,0
6 Struttura dispari: famiglia
infinita di cubi finite - Fig. 6
Y = X4 48 Y*(n) = (4n ± k )4,
n∈ , k = 3,2,1,0
7 Struttura pari: famiglia infi-
nita di parabole finite Fig. 7a
Y = X5 25 Y*(n) = (5n - k)5,
n∈ , k = 4,3,2,1,0
5 Struttura dispari: famiglia
infinita di quinte potenze
finite - Fig. 7b
... ... ... ... ...
Tabella 2
2.4. Una seconda congettura
Le funzioni pari e dispari, ossia le funzioni f(x) = xn, x, n∈ , per
n > 1 e rispettivamente con n = 2p e n = 2p+1, come noto presen-
tano un preciso e distinto andamento sul piano cartesiano, come
mostrato nella Figura 8.
Figura 8. Rappresentazione cartesiana di funzioni pari e dispari
Per n = 2, 3, 4, 5 abbiamo visto che esiste almeno una rappresen-
tazione nel piano CCG che trasforma la singola, infinita struttura
cartesiana in una famiglia infinita di strutture finite che hanno lo
stesso andamento di quella cartesiana.
Sembra quindi del tutto plausibile, ossia compatibile con i dati
esistenti, supporre che tale trasformazione si verifichi per ogni
serie pari e ogni serie dispari.
Ciò significa che è ipotizzabile che sia sempre possibile rappre-
sentare una singola, infinita, serie pari/dispari di numeri naturali
sotto forma di una famiglia infinita di strutture finite rispettiva-
mente pari e dispari, esprimibili analiticamente nella forma Y*(n)
= (an ± k)N con N, a , k, n∈ , dove a ± k è il numero dei punti
della singola struttura finita. Più rigorosamente questa congettura
può essere espressa nel modo seguente:
(II) ∀P(n) = xn, con x, n∈ , ∃q t.c. per mod=q, ∃
famiglia infinita di finite xn della forma Y*(n)
= (an ±k)N con N, a, k, n∈ , e dove a ± k =
numero dei punti delle singole, finite xn, le
quali hanno, per n = 2p e n = 2p+1, rispetti-
vamente una struttura pari e dispari.
È possibile osservare come le due congetture formulate presenta-
no caratteristiche simili. In primo luogo entrambe hanno una
forma esistenziale: esse ipotizzano che esista almeno un valore
del modulo per il quale la proprietà è soddisfatta. Ovviamente
l’indagine visuale di proprietà di oggetti della teoria dei numeri
può assumere una forma universale, per esempio ricercando inva-
rianti che occorrono in ogni pitogramma (la congettura avrà dun-
que in questo caso la forma “per ogni valore del modulo, esiste
una etc. etc.”). Esempi di questo genere di osservazioni e risultati
mediante la visualizzazione CCG nel dominio della teoria dei
numeri sono date da Zenkin (v. Zenkin 1991).
In secondo luogo la loro formulazione dipende, come abbiamo
visto, in modo essenziale dalla visualizzazione, che codificando e
organizzando in modo diverso i dati e le informazioni, e introdu-
cendo nuova informazione, consente di costruire e rintracciare
relazioni in modelli spaziali, permettendo di ampliare la cono-
scenza intorno a certi oggetti mediante una nuova interpretazione
dell’oggetto stesso e moltiplicandone i punti di vista: infatti i pi-
togrammi forniscono un’immagine geometrica di entità numeri-
che. Il conseguimento di questa nuova conoscenza sarebbe stata
impossibile mediante stili di ragionamento di tipo formale-
deduttivo.
3. Osservazioni conclusive
I semplici risultati e le congetture ottenute nei paragrafi prece-
denti sono il prodotto di un approccio che si basa su una moltipli-
cazione dei punti di vista intorno ad oggetti della teoria dei nume-
ri. Tale approccio sostanzialmente procede nel modo seguente:
considera un oggetto della teoria numeri – i numeri quadrati, pla-
nici, etc. espressi da un predicato P(n) – e la loro ben nota inter-
pretazione nel piano cartesiano, che offre una certa rappresenta-
zione delle proprietà di questi oggetti. Quindi procede a costruire
una nuova rappresentazione di tali oggetti introducendo un nuovo
sistema di visualizzazione – i pitogrammi appunto. Questa appa-
rentemente semplice operazione trasforma l’oggetto iniziale in
una nuova entità di natura geometrica che può essere indagata e
interrogata visualmente e graficamente, in base a principi orga-
Inferenze ampliative
43
nizzativi come la simmetria, la connessione, le analogie spaziali,
etc. – che fanno emergere nuove relazioni e dati visuali.
L’interazione con questa nuova rappresentazione e questi
nuovi dati visuali permette di individuare proprietà non note e di
procedere ad un tentativo di generalizzazione mediante la formu-
lazione di congetture.
A questo punto, associando un sistema locale di coordinate, è
possibile tornare agli oggetti iniziali ed esprimere analiticamente
(ossia mediante equazioni) i risultati ottenuti. Questi risultati tut-
tavia non avrebbero potuto essere ottenuti mediante un approccio
deduttivo-formale, poiché non esiste alcuna relazione che ci con-
sente di passare dall’iniziale serie numerica a quella finale otte-
nuta mediante la rappresentazione CCG utilizzando passaggi de-
duttivi e formali. La visualizzazione CCG introduce infatti nuova
informazione e organizza e codifica in modo nuovo l’oggetto in-
dagato.
Dunque la visualizzazione non solo non è un via succedanea o
un semplice correlato di vie più rigorose, che si limita ad accom-
pagnare stili di ragionamento deduttivi e certi, ma è un mezzo
proprio per porre e risolvere problemi e per scoprire nuove pro-
prietà e formulare ipotesi.
3
Rappresentazioni multiple e ampliatività
1. Premessa
In questo capitolo analizzo in profondità una proprietà essenziale
delle inferenze ampliative, quale la sensibilità alla rappresenta-
zione, e sostengo che l’attività della scoperta matematica e della
soluzione di problemi dipendono dalla costruzione, moltiplica-
zione e combinazione delle diverse rappresentazioni (disponibili
o costruibili) di entità matematiche. A tal fine mi avvalgo di al-
cuni esempi tratti dalla topologia, in particolare dalla topologia
algebrica (il gruppo fondamentale), dalla teoria delle trecce e dal-
la teoria dei nodi, che sono domini nei quali la sensibilità alla
rappresentazione è particolarmente evidente e feconda, dal mo-
mento che su uno stesso problema o sulla trattazione di uno stes-
so oggetto matematico convergono e interagiscono, richiamando-
si a più domini e metodi – come per esempio la geometria,
l’algebra, il calcolo combinatorio e metodi algoritmici – diverse
rappresentazioni.
La tesi sostenuta in questo libro è che la conoscenza matema-
tica, usando una metafora, avanza mediante una continua costru-
zione e moltiplicazione di differenti rappresentazioni degli ogget-
ti matematici, le quali offrono diversi punti di vista dalla cui inte-
razione e combinazione emerge la produzione di nuova cono-
scenza. Ciò significa che molte parti della matematica emergono
e si accrescono in relazione con altri domini scientifici. Ad esem-
pio alcuni sviluppi recenti della teoria dei grafi, la cosiddetta teo-
ria dei grafi spaziali virtuali (virtual spatial graph theory), è mo-
tivata proprio dalla trattazione di problemi biologici, nella fatti-
specie l’associazione delle proteine con le membrane.
Rappresentazioni diverse veicolano, organizzano e combinano
informazioni differenti che provengono da domini distinti. Queste
rappresentazioni, a parte rari casi, non sono affatto isomorfe, e
quindi i modi in cui esse sono costruite e combinate è essenziale
per l’ampliamento della conoscenza matematica. La rappresenta-
zione di un oggetto matematico è infatti intrinsecamente incom-
pleta e parziale, e tale risulta essere anche ciò che segue da questa
rappresentazione. Quindi diverse rappresentazioni, come abbia-
mo già visto nel caso della visualizzazione nel corso del capitolo
precedente, permettono di scoprire differenti proprietà, fanno
emergere aspetti diversi circa l’oggetto indagato e suggeriscono
ipotesi diverse per risolvere un problema.
2. Molteplicità di rappresentazioni
La costruzione e la combinazione di molteplici rappresentazioni
sono alla base della scoperta e del problem-solving matematico.
Come osserva Emily Grosholz1, in matematica l’idea di rap-
presentazione viene spesso espressa in termini di isomorfismo, 1 Grosholz 2007, 21.
ossia di una relazione riflessiva e simmetrica tra strutture (intese
quali insiemi di proposizioni in un linguaggio oggetto).
Ad esempio Hersh (v. Hersh 2007) e Byers (v. Byers 2007)
sostengono che la nozione di “equivalenza isomorfica” sia uno
strumento essenziale per la produzione di conoscenza matematica
in quanto consente di passare da un contesto all’altro della mate-
matica, di usare in modo controllato e persino algoritmico
quell’ambiguità che è alla base della fecondità e ricchezza della
matematica.
Tuttavia, come sottolinea la Grosholz, questa idea di rappre-
sentazione è fondamentalmente sbagliata. La giustapposizione e
sovrapposizione di rappresentazioni non isomorfe è il vero moto-
re della produzione di conoscenza matematica e della sua cresci-
ta. Inoltre l’attività di costruzione di rappresentazioni implica
l’organizzazione, l’invenzione e attività creative che svolgono un
ruolo produttivo nella costruzione e strutturazione dell’entità rap-
presentata. Dunque la rappresentazione implica sempre una inter-
pretazione, che contribuisce a riorganizzare dall’interno l’oggetto
che si vuole rappresentare, a produrre un nuovo assetto
dell’insieme di dati e delle informazioni che lo caratterizzano.
Anche la Grosholz si riferisce alla nozione di ambiguità quale
fattore di produzione e crescita della conoscenza matematica,
precisando che per ambiguità2 intende la sovrapposizione e giu-
stapposizione di una varietà di modi di rappresentazione che ori-
ginano una polisemia in grado di generare intuizioni e scoperte, e
non confusione. La costruzione di una nuova rappresentazione, 2 Cfr. Grosholz 2007, 4.
utilizzando la terminologia messa a punto ancora dalla Grosholz,
produce degli “ibridi”, ossia delle entità che affrontano problemi
e trattano oggetti da una prospettiva nuova, che nasce
dall’incontro di diversi domini o ambiti disciplinari e che utilizza
le conoscenze, i risultati, i metodi messi a punto in ogni singolo
dominio.
Dunque la costruzione di una nuova rappresentazione di una
entità matematica di per sé può costituire produzione di nuova
conoscenza, in quanto permette di stabilire relazioni (ad esempio
la dipendenza, l’equivalenza, etc.) tra modi di rappresentazioni
differenti, consentendo, per esempio, riduzioni o generalizzazio-
ni.
In questo testo e in quanto segue si vuole mostrare come piut-
tosto che l’ambiguità, è l’istituzione di rappresentazioni multiple
che permette di porre nuove domande sugli oggetti indagati e
scoprirne proprietà, ampliando la nostra conoscenza. Inoltre que-
sto processo è potenzialmente senza fine. Questa moltiplicazione
di rappresentazioni, che dà luogo ad una moltiplicazione dei punti
di vista intorno all’oggetto, non affonda le radici nell’ambiguità,
ma deriva dalla natura stessa della matematica, che non dà una
conoscenza assoluta dell’oggetto, ma gira «intorno all’oggetto,
moltiplicando senza fine i punti di vista, o meglio, passando da
un punto di vista ad altri sempre più penetranti, cioè da una solu-
zione del problema ad altre sempre più approfondite, per cercare
di completare una rappresentazione dell’oggetto che tuttavia ri-
marrà sempre incompleta»3.
3 Cellucci 2008, 222.
Questa irriducibile, costitutiva incompletezza del processo di
rappresentazione degli oggetti matematici che produce la molti-
plicazione dei punti di vista è la ragione della fecondità
dell’attività matematica.
2.1. Rappresentazioni multiple e topologia algebrica
Alla base della nascita stessa della topologia algebrica c’è la co-
struzione di una nuova rappresentazione, che origina un nuovo
punto di vista mediante l’ibridazione di due oggetti apparente-
mente distinti.
La nozione che sta alla base di questa teoria, ossia quella di
gruppo fondamentale introdotta da Poincarè (v. Poincarè 1895),
infatti, corrisponde alla costruzione di una immagine algebrica di
un oggetto geometrico, ossia di una nuova rappresentazione la
quale produce un punto di vista fecondo attraverso cui porre e
risolvere problemi relativi ad un certo dominio (la topologia) me-
diante l’introduzione di informazioni e metodi di un altro domi-
nio (l’algebra).
In particolare, la teoria dell’omotopia tratta le questioni topo-
logiche creando delle rappresentazioni e riduzioni all’algebra:
essa associa agli spazi topologici (una nozione topologica) vari
gruppi (una nozione algebrica), che sono invarianti algebrici.
Il gruppo fondamentale, introdotto da Poincarè, altro non è
che il primo gruppo di omotopia. Dato uno spazio topologico X e
dato un suo punto, diciamo x0, il gruppo fondamentale descrive
l’insieme di tutte le classi di omotopia di circoli (loops), aventi il
punto base x0, ed è denotato con 1 0( , )X xπ (o più semplicemen-
te 0( , )X xπ ). Esso si comporta come un gruppo e quindi permette
di trattare questi semplici oggetti topologici (i circoli) mediante la
teoria dei gruppi, una branca dell’algebra.
Da questa nuova rappresentazione di un oggetto topologico
segue la produzione di nuova conoscenza, e la possibilità di porre
e risolvere problemi all’interno della topologia mediante stru-
menti e concetti algebrici.
Il gruppo fondamentale, innanzitutto, permette infatti di co-
struire una teoria che consente di distinguere differenti categorie
di superfici bi-dimensionali: Poincarè ha mostrato infatti come
qualsiasi superficie bidimensionale che ha lo stesso gruppo fon-
damentale della superficie bidimensionale di una sfera sia topo-
logicamente equivalente ad una sfera. Inoltre egli ha posto la
congettura che questo risultato valga anche per varietà tridimen-
sionali e in seguito si è arrivati ad estendere tale congettura a casi
di dimensioni più alte.
Inoltre questo strumento consente di trattare problemi e ogget-
ti di altre discipline. Per esempio, il gruppo fondamentale è usato
nella teoria dei nodi dal matematico austriaco Wirtinger per di-
mostrare che il nodo a trifoglio è davvero annodato (egli dimostra
infatti nel 1905 che il gruppo fondamentale del trifoglio è il
gruppo simmetrico su tre elementi). In modo ancor più significa-
tivo questo concetto viene generalizzato sempre da Wirtinger per
costruire il gruppo fondamentale di un link arbitrario (questa pre-
sentazione del gruppo fondamentale è infatti nota come la presen-
tazione di Wirtinger).
Dunque un cambio di rappresentazione si rivela essere la radi-
ce concettuale della topologia algebrica e un significativo avan-
zamento nella conoscenza matematica. Una volta che è stato
creato un modo di produrre immagini algebriche di oggetti topo-
logici, è possibile indagare questi ultimi, e porre e risolvere pro-
blemi attraverso la conoscenza e le tecniche note per i primi.
Chiaramente questo intero processo è sensibile alla rappresen-
tazione, in quanto i problemi che possono essere posti e risolti, le
proprietà che possono essere scoperte, dipendono fortemente dal-
le rappresentazioni costruite.
2.2. Rappresentazioni multiple e teoria dei nodi
La «teoria dei nodi fornisce un esempio particolarmente ricco di
come differenti notazioni – differenti forme di rappresentazione –
individuino differenti aspetti di uno stesso soggetto»4.
Inoltre è interessante osservare che la teoria dei nodi fornisce
un esempio particolarmente significativo del legame tra matema-
tica, intesa quale attività di soluzione di problemi, e trattazione
dei problemi fisici e biologici.
Infatti le origini della teoria dei nodi affondano proprio nella
trattazione di problemi fisici, in particolare la questione della
struttura degli elementi costituenti la materia (gli atomi). Tait
iniziò a sviluppare la teoria dei nodi proprio nel tentativo di co- 4 Brown 1999, 64.
struire matematicamente una tavola di elementi che si accordasse
con la teoria atomica di Thomson – Lord Kelvin , – ossia l’idea
che gli atomi fossero vortici. L’intero progetto è crollato, ma la
teoria dei nodi ha continuato ad essere sviluppata mediante un
continuo processo di ibridazione che ha portato a rappresentare i
nodi in molti modi diversi e ad estendere la conoscenza matema-
tica di questi oggetti.
La teoria non è rimasta ancorata ai problemi da cui ha avuto
origine, ma è tornata nel corso del tempo ad essere applicabile a
problemi di natura fisica o biologica. Il fatto che la teoria dei no-
di, dopo un così lungo tempo, sia tornata ad essere usata per trat-
tare problemi fisici e biologici dimostra che il processo di conti-
nua moltiplicazione dei punti di vista intorno alla nozione di nodo
e la sua evoluzione genera entità astratte che possono essere uti-
lizzate quali ipotesi per trattare problemi diversi. Sono dunque i
problemi ad essere reali ed esistere, non gli oggetti matematici
che vengono ipotizzati e sviluppati per affrontarli. Gli oggetti
matematici hanno infatti una esistenza e una natura ipotetica.
Nella costruzione e sviluppo della teoria dei nodi entrano in
gioco una molteplicità di rappresentazioni e metodi. Essa, infatti,
muove dalle proprietà geometriche dei nodi; procede quindi alla
loro rappresentazione piana (proiezione), e sviluppa una notazio-
ne che consente una loro trattazione algebrica e combinatoria al
fine di ampliare la conoscenza matematica (nuove informazioni e
dati) intorno a questi oggetti. Nel corso di questo processo di
moltiplicazione di punti di vista si forniscono nuove e diverse
definizioni, notazioni, codifiche della nozione di nodo e di alcune
sue principali proprietà. Di volta in volta, come vedremo un po’
più in dettaglio, questo processo di costruzione di nuove e diverse
rappresentazioni è motivata dal tentativo di soluzione di proble-
mi, sia generali sia locali, e dipende (ed è indirizzata) dalla cono-
scenza esistente in quel momento che fa da sfondo alla ricerca.
Ad esempio, come vedremo nel caso della teoria dei nodi e della
teoria dei grafi, la definizione stessa di nodo è continuamente
sottoposta a revisione in relazione allo sviluppo di altri oggetti e
domini matematici (come i link). Si tenta di rappresentare il nodo
come un oggetto (nella fattispecie si costruisce la rappresentazio-
ne di un nodo sotto forma di grafo planare mediale) che possa
essere trattato come una entità di una teoria all’interno della quale
si dispone di conoscenze e risultati che possono risolvere ai pro-
blemi e scoprire proprietà intorno ad esso. Chiaramente con la
crescita della conoscenza matematica e delle sue teorie questo
processo diventa sempre più sensibile e articolato: maggior è il
numero di teorie di cui disponiamo (e dei risultati all’interno di
ogni teoria), più rappresentazioni possiamo costruire e quindi più
ricco e articolabile è il processo di moltiplicazione dei punti di
vista che è il motore del processo di ampliamento della cono-
scenza matematica. Questo processo è così fecondo perché l’uso
di rappresentazioni multiple (ad esempio il nodo come un oggetto
geometrico – curva nello spazio –, come un oggetto algebrico –
gruppo –, come un oggetto combinatorio – una matrice –, come
oggetto aritmetico – un numero –) consente di scoprire proprietà
e risolvere problemi di volta in volta non accessibili o risolvibili
da una sola rappresentazione, mettendo in gioco le conoscenze di
più domini, come abbiamo già sottolineato anche nel caso della
visualizzazione nel Cap. 2, dove i pitogrammi permettono di tro-
vare alcune proprietà non accessibili da una codificazione assio-
matico-formale o analitica degli oggetti della teoria dei numeri.
Il principale obiettivo della teoria dei nodi è quello di risolve-
re il problema della enumerazione e classificazione dei nodi. Nel
tentativo di risolvere questo problema, nella teoria dei nodi si
procede alla costruzione di nuove rappresentazioni ed entità volte
a istituire il maggior numero possibile di connessioni con la co-
noscenza esistente al fine dilatare lo spazio combinatorio delle
ipotesi.
La definizione stessa di nodo è un processo rappresentativo
che non è affatto asettico. Infatti la definizione di un oggetto ma-
tematico (come osserva e argomenta Cellucci5) non è affatto un
primum e un datum, ma è risultato e processo, che avviene sulla
base della conoscenza esistente e con il fine di rendere trattabile
un oggetto con gli strumenti conoscitivi di cui si dispone. Al va-
riare della conoscenza esistente, infatti, la definizione di un’entità
matematica può essere sottoposta a revisione per consentire una
sua trattabilità alla luce della conoscenza che si è andata co-
struendo in alti domini nel corso del tempo.
Per esempio Fox6 procede alla produzione di una nuova defi-
nizione di nodo proprio nel tentativo di legare questo oggetto
semplicemente geometrico alla topologia, ai risultati e alle tecni-
che che nel frattempo questa disciplina aveva sviluppato. 5 v. Cellucci 2008. 6 v. Fox 1957.
Nella fattispecie, Fox provvede a passare da una definizione
di nodo quale curva poligonale in ad una definizione di nodo
quale insieme di curve in una 3-varietà (3-manifold) compatta.
3
Questa operazione, basata su un cambio di rappresentazione, è
feconda e porta ad un processo di ampliamento della conoscenza
poiché, mettendo in connessione la nozione di nodo con il resto
della topologia, e permette di giungere alla costruzione di nuovi
invarianti geometrici, i quali forniscono un avanzamento nella
soluzione del problema della classificazione dei nodi.
Ma è possibile definire un nodo in molti modi diversi, per e-
sempio come un gruppo, oppure rappresentarlo in modo tale da
renderlo un grafo planare.
Questa operazione permette di introdurre nella teoria dei nodi
informazione e dati non presenti fino a quel momento (relativi
alla teoria dei grafi o all’algebra dei gruppi). Questa possibilità di
istituire switch tra diverse rappresentazioni è centrale per la cre-
scita della conoscenza non solo perché permette di trasferire
all’interno del dominio indagato (la teoria dei nodi) risultati, me-
todi e tecniche di altri domini (la teoria dei gruppi o la teoria dei
grafi planari), ma perché crea una nuova entità matematica poli-
valente che consente un trasferimento di conoscenza anche nella
direzione opposta, ossia dal dominio indagato agli altri domini.
Per esempio risultati della teoria dei nodi sono stati utilizzati per
ampliare la conoscenza sui grafi, come nel caso del teorema di
Lien – Watkins7.
La possibilità di istituire una relazione tra teoria dei nodi e 7 v. Lien - Watkins 2000.
teoria dei grafi può essere fatta risalire alla nascita stessa della
teoria dei nodi, in quanto già lo stesso Tait aveva sviluppato una
rappresentazione di nodi come grafi planari. Lo sviluppo di que-
sta idea apre un nuovo e fecondo punto di vista sia sugli oggetti
della teoria nodi sia sugli oggetti della teoria dei grafi, permet-
tendo di rappresentare nodi come grafi (e viceversa) e di effettua-
re operazioni sui grafi proprie dei nodi (come le mosse di Reide-
meister). Mi soffermerò su questa connessione per mostrare la
fecondità e il carattere ampliativo delle rappresentazioni multiple
nella teoria dei nodi.
La possibilità di interpretare nodi come grafi planari passa at-
traverso la costruzione di una preliminare forma di rappresenta-
zione e notazione. Primi di poter trattare un nodo come un grafo,
infatti, bisogna innanzitutto proiettare un nodo (ossia un oggetto
geometrico tridimensionale) sul piano, creandone una rappresen-
tazione bidimensionale, e poi si deve sviluppare un modo per co-
dificare simbolicamente gli incroci della proiezione del nodo.
Chiaramente questo processo codifica solo una parte dell’in-
formazione e dei dati contenuti in un nodo inteso quale oggetto
tridimensionale, ma questa rappresentazione incompleta è volta a
risolvere un certo problema, quello dell’equivalenza tra nodi, co-
struendo un’entità polivalente adeguata per quel problema.
La costruzione della teoria dei nodi per opera di Tait, Gauss e
Maxwell prende le mosse proprio da questo molteplice cambio di
rappresentazione.
Un grafo G è formalmente definito come G = (V, E), ossia una
coppia di (multi)insiemi: V è l’insieme dei vertici ed E è il (mul-
ti)insieme dei lati, il quale consiste di sottoinsiemi di V a 1 o 2-
elementi. Una caratteristica topologicamente interessante dei gra-
fi in questa sede è la planarità. Un grafo è planare, brevemente,
quando può essere rappresentato sul piano in modo che i suoi lati
si intersecano solo ai vertici.
Figura 9. Alcuni grafi fondamentali
Ad esempio nella Figura 9 il grafo K3 è planare, così come K4.
Anche G1 è planare, in quanto isomorfo a K4, mentre i grafi K5 e
K3,3 non sono planari.
Per costruire l’entità polivalente che permetta di trattare nodi
mediante grafi, e viceversa, la proprietà della planarità è essen-
ziale. Per poter trattare un nodo come un grafo è infatti necessario
costruirne un’altra rappresentazione, nota come grafo mediale
della proiezione del nodo. Questa rappresentazione si ottiene par-
tendo dalla proiezione di un nodo. La proiezione del nodo divide
il piano in una serie di regioni, che vengono “colorate” con la
procedura della colorazione a scacchi, ossia colorando le regioni
confinati alternativamente con due (soli) colori (v. Figura 10).
Figura 10. Colorazione a scacchi di un nodo a trifoglio
Una volta che si è costruita la colorazione a scacchi della proie-
zione di un nodo, è possibile costruirne un grafo, noto come gra-
fo mediale della proiezione del nodo.
Il grafo mediale si ottiene ponendo un vertice in ogni regione
scura (la scelta della colorazione è chiaramente arbitraria) e quin-
di aggiungendo un lato tra essi se e solo se esiste un incrocio che
connette le regioni alle quali i vertici corrispondono, e assegnan-
do un valore positivo o negativo in base all’inclinazione delle
stringhe in corrispondenza degli incroci (v. Figura 11).
Figura 11. Grafo mediale del nodo a trifoglio
Questo processo di costruzione di una nuova rappresentazione
permette di ampliare la conoscenza sui nodi, consentendo lo stu-
dio di alcune proprietà interessanti, quali ad esempio la chiralità
o amfichiralità, proprio mediante i metodi della teoria dei grafi
planari.
2.3. Rappresentazioni multiple e teoria delle trecce
La teoria delle trecce è un esempio paradigmatico della fecon-
dità e del carattere ampliativo delle rappresentazioni multiple. La
nascita e sviluppo di questa teoria è infatti incentrata sulla costru-
zione di entità polivalenti che mettono in gioco rappresentazioni
geometriche, algebriche, metodi algoritmici (per esempio per ri-
solvere il problema della classificazione), calcolo combinatorio,
analisi complessa, etc.
La teoria delle trecce, infatti (v. Artin 1925 e 1947) muove
dalla trattazione di un oggetto geometrico tridimensionale (v. Fi-
gura 12) – una treccia viene considerata come un oggetto nello
spazio euclideo, un insieme di curve, o stringhe, che si intreccia-
no – e quindi costruisce la sua proiezione sul piano (il diagram-
ma della treccia, v. Figura 13).
Figura 12. Una treccia nello spazio euclideo
Questo cambio di rappresentazione, con il passaggio da tre a
due dimensioni, costituisce un primo passo euristico decisivo:
costruendo un modo di rappresentare un oggetto tridimensionale
in due dimensioni che preserva una quantità di informazione in
grado di ricostruire la treccia, si produce un modo per generare
trecce da semplici elementi costituenti.
Figura 13. Diagramma di una treccia
La teoria si avvale di un ulteriore cambio di rappresentazione
per effettuare un altro decisivo passo euristico, con il quale e-
stendere la polivalenza dell’entità matematica indagata. Essa pro-
cede infatti alla costruzione del gruppo trecce, un oggetto alge-
brico, meglio noto come il gruppo di n-treccia di Artin (v. Artin
1925). Questo passaggio è particolarmente significativo poiché
l’aspetto costruttivo e attivo dell’ideazione di una nuova rappre-
sentazione è evidente. Al fine di rendere possibile trattare alla
luce della nozione di gruppo e delle sue proprietà una treccia, si
deve infatti introdurre la 1n treccia (una serie di n-stringhe non-
intersecantesi, o parallele), ossia la treccia identità, che è
l’analogo dell’elemento identità e di un gruppo nell’algebra. Al
fine di rendere possibile l’introduzione di nuova informazione, si
rimodella dunque l’oggetto indagato in modo che sia suscettibile
di una rappresentazione algebrica e del conseguente trasferimento
di conoscenze, metodi e risultati. Questa operazione dunque in-
duce una nuova organizzazione e codificazione dell’informazione
circa l’oggetto indagato, e permette di indagarlo ponendo e risol-
vendo problemi e formulando ipotesi.
Per esempio, mediante una rappresentazione algebrica del
diagramma delle trecce è possibile costruire e indagare alcune
sue proprietà come la moltiplicazione tra trecce, scoprendo come
essa sia associativa, ma non commutativa, e dunque arrivando al
risultato che le trecce non costituiscono un gruppo abeliano.
Inoltre, come già mostrato nell’articolo di Artin, mediante
l’algebra è possibile porre alcuni problemi fecondi e ottenere al-
cune risposte circa le trecce, la loro struttura e le loro proprietà.
Una volta che il processo di associazione di un gruppo Bn al dia-
gramma della treccia è stato ultimato, e dopo aver mostrato che è
possibile dare una presentazione finita per questo gruppo median-
te un generatore noto come il generatore di Artin, si è nelle con-
dizioni di produrre nuova conoscenza sulle trecce e sulla loro
struttura semplicemente indagando le proprietà del gruppo che le
rappresenta. Questa rappresentazione è parziale e incompleta,
poiché codifica solo una parte dell’informazione e dei dati
dell’iniziale oggetto tridimensionale, ma è motivata dal tentativo
di introdurre nuova informazione e conoscenze per indagare
l’oggetto e le sue proprietà alla luce di un problema specifico,
quale l’equivalenza tra trecce.
Per esempio mediante il gruppo Bn è possibile:
- determinare tutti gli automorfismi del gruppo di trecce;
- determinare con quali trecce è una data treccia commutativa;
- stabilire per due trecce qualsiasi se esse possono essere tra-
sformate l’una nell’altra mediante un automorfismo interno
del gruppo;
- trovare sottogruppi di Bn che hanno una particolare interpre-
tazione geometrica;
Pertanto il gruppo treccia si rivela un modo estremamente fe-
condo e ampliativo di rappresentare una treccia, in grado di pro-
durre nuovi e fecondi risultati.
In particolare il gruppo treccia permette di porre e risolvere
sia il cosiddetto problema della “parola” sia quello della “coniu-
gazione”. Questi sono due risultati molto rilevanti. La soluzione
del problema della parola permette infatti di avere un metodo
(nella fattispecie un algoritmo), per stabilire se due n-trecce qual-
siasi siano equivalenti o meno. Da questo risultato possiamo otte-
nere una classificazione completa delle trecce.
La soluzione del problema della coniugazione avviene attra-
verso la costruzione di un esplicito algoritmo e si rivela molto
importante poiché è un risultato che può essere esportato fuori
dalla teoria delle trecce, per esempio per classificare i link me-
diante una opportuna rappresentazione delle trecce in termini di
link. Questo passaggio è garantito dal teorema di Alexander (v.
Alexander 1923), il quale stabilisce che qualsiasi nodo o link in
S3 può essere rappresentato da una treccia chiusa. Ovviamente
ciò richiede un ulteriore adattamento della nozione di treccia.
La costruzione di una nuova, ulteriore rappresentazione
dell’oggetto treccia è al centro di altri significativi avanzamenti
nello studio delle proprietà di questa entità matematica. La co-
struzione di permutazioni di trecce, trattando il diagramma della
treccia come un oggetto algebrico-combinatorio, permette infatti
di trovare invarianti delle trecce, creando un successivo fecondo
punto di vista.
Si consideri un gruppo β ∈ Bn. Qualunque sia la struttura
dell’oggetto geometrico che rappresenta, esso è tale che i-esima
stringa della treccia unisce Ai a Bj(i), per 1 ≤ i ≤ n. Si definisce
dunque la permutazione tra trecce, π: Bn → Sn, dove Sn è il grup-
po simmetrico su n elementi, come:
1 2 nπ( ) := ... ...
j(1) j(2) j(n)β
⎛ ⎞⎜ ⎟⎝ ⎠
Quindi si è costruito un modo di associare ad ogni n-treccia β,
una permutazione unica dei numeri 1, 2, ..., n con β, che esprime
il modo in cui le stringhe di β permutano i punti di partenza della
treccia con i punti finali.
Ancora una volta l’immagine di β creata mediante π codifica
solo parzialmente e in modo incompleto l’informazione della
treccia. Si può infatti facilmente verificare che, dato un qualche ρ
∈ Sn, esistono molte differenti n-trecce che possono essere asso-
ciate a ρ mediante π. Questa rappresentazione è funzionale alla
costruzione di una nozione, quale quella di invariante di una
treccia, che permette di rispondere in modo efficace alla questio-
ne dell’equivalenza tra due trecce, ossia di stabilire se due trecce
non sono equivalenti, anche se bisogna sottolineare che non è
possibile usare questo strumento per stabilire in generale se due
trecce siano equivalenti.
Ora, sia X un insieme e data f una funzione f: Bn → X, diciamo
che f è un invariante di treccia se β β’ f(β) = f(β′). L’idea
che motiva questa nozione è quella di assegnare qualche elemen-
to di X ad ogni β Bn in modo tale che due trecce qualsiasi equi-
valenti siano assegnate allo stesso elemento. Pertanto questa fun-
zione è invariante rispetto alla relazione di equivalenza.
La rappresentazione usata nella trattazione di un problema o
di un oggetto matematico è dunque decisiva per investigarne le
proprietà. Se si cambia rappresentazione, si possono porre do-
mande diverse e ottenere risposte differenti rispetto a quelle cui si
può avere accesso mediante un’altra rappresentazione.
La sensibilità alla rappresentazione, ad una molteplicità di
rappresentazioni, è dunque particolarmente evidente nella teoria
delle trecce. Di volta in volta si costruisce una diversa o nuova
rappresentazione in base ai problemi che si vuole porre e risolve-
re, alle proprietà di cui si vuole dare conto. Tali rappresentazioni,
pur essendo incomplete e parziali, svolgono un ruolo euristico
decisivo poiché introducono nuova informazione mediante cui
possiamo ampliare l’insieme delle conoscenze disponibili su un
certo ente matematico.
In un certo senso, dunque, la rappresentazione crea l’oggetto e
le sue proprietà.
3. Rappresentazione e oggetti matematici
Tra rappresentazione e oggetti matematici esiste una correlazione
precisa e stretta. La sensibilità alla rappresentazione è una carat-
teristica essenziale degli oggetti matematici e deriva dalla natura
stessa della matematica, che procede mediante una moltiplicazio-
ne dei punti di vista intorno ad uno “stesso oggetto” basata sulla
produzione di sue diverse rappresentazioni. Questo processo di
moltiplicazione dei punti di vista è potenzialmente infinito, poi-
ché gli oggetti matematici sono sempre suscettibili di nuove in-
terpretazioni e nuove rappresentazioni. Questa sensibilità a sem-
pre nuove rappresentazioni degli oggetti della matematica, questo
loro intrinseca suscettibilità, deriva dalla loro natura e dalla natu-
ra della matematica. Come abbiamo visto nel capitolo precedente,
la costruzione di una nuova rappresentazione e la conseguente
produzione di un nuovo punto di vista fa sì che si proceda ogni
volta ad una organizzazione e codificazione dall’interno (median-
te una nuova definizione, o la costruzione di una sua immagine
all’interno di un altro dominio) dell’oggetto trattato. L’oggetto
non rimane dunque “lo stesso”, non si tratta dello stesso oggetto
semplicemente, perché non esiste qualcosa come un’entità mate-
matica fissata di per sé e univoca.
Gli oggetti matematici, come abbiamo visto in questo capitolo
e come avremo modo di vedere nel corso del successivo, sono
semplicemente ipotesi per risolvere i problemi. Hanno uno statu-
to e una esistenza meramente ipotetica e la loro sensibilità alla
rappresentazione ne è una prova diretta.
Capitolo3. Rappresentazioni multiple e ampliatività
66
Sono i problemi che questi oggetti cercano di affrontare e ri-
solvere che sono pratici, problemi che esistono e nascono da que-
stioni fisiche e biologiche. Per esempio, come abbiamo visto, la
teoria dei nodi è nata come tentativo di fornire una trattazione e
una risposta a problemi della fisica, in particolare la natura degli
elementi costituenti della materia. Per questo motivo gli oggetti
della matematica che sembrano anche molto astratti possono ave-
re applicazione ed efficacia nella trattazione del mondo fisico e
biologico, in quanto la loro “astrattezza” è il risultato di questo
continuo processo di moltiplicazione dei punti di vista cui sono
sottoposti. È per questo motivo che gli oggetti della matematica
dipendono dal linguaggio e dalla rappresentazione adottata, e
proprio in questo risiede la fecondità della matematica.
Che gli oggetti della matematica non siano univoci e fissati di
per sé e, che siano intrinsecamente suscettibili di sempre ulteriori
rappresentazioni, può far pensare che essi siano entità così pro-
duttive e feconde in quanto ambigue8. Tuttavia l’uso del termine
ambiguità sembra rimandare all’idea che esista una realtà mate-
matica univoca, che una data rappresentazione non riesce a ritrar-
re con fedeltà e chiarezza. Invece la tesi sostenuta in questo libro
è che non c’è ambiguità in matematica: la produzione di rappre-
sentazioni procede ogni volta a costruire e organizzare
dall’interno gli oggetti che definisce e rappresenta, creando una
moltitudine di entità che possono essere messe in relazione tra
loro per risolvere problemi e ampliare la nostra conoscenza.
8 V. p. es. Byers 2007, Grosholz 2007, Hersh 2007.
4
Analogia e ampliatività
1. Premessa
Il continuo processo di costruzione e combinazione di differenti
rappresentazioni si basa sulle inferenze ampliative. In particolare
in questo capitolo sostengo che l’analogia gioca un ruolo centrale
in questo processo. Essa è infatti una forma di inferenza che con-
sente di costruire sempre nuove rappresentazioni di oggetti ma-
tematici e di passare dall’una all’altra mediante passaggi inferen-
ziali audaci ma plausibili.
Questa forma d’inferenza è dunque uno strumento essenziale
e fecondo per modellare lo spazio combinatorio delle ipotesi (os-
sia lo spazio di ricerca che racchiude le possibili combinazioni tra
dati e informazioni che possono dare luogo a ipotesi esplicative),
contraendolo o espandendolo in base all’oggetto della ricerca,
come avremo modo di sottolineare nei paragrafi seguenti.
Dunque l’analogia amplia la conoscenza estendendo la capaci-
tà di costruire nuove e diverse rappresentazioni di oggetti mate-
matici, consentendo di stabilire interazioni tra contesti differenti,
sia a livello inter-dominio sia a livello intra-dominio. L’analogia
costituisce una modalità privilegiata per produrre nuove rappre-
sentazioni di oggetti matematici, di estendere continuamente la
loro polisemia perché introduce sempre nuova informazione e
dati da altri domini.
Ovviamente esistono molte possibili analogie che possono es-
sere costruite e che danno origine a ipotesi tra cui bisogna opera-
re una scelta. Il criterio per effettuare questa scelta, come abbia-
mo già sottolineato nel Cap. 1, e come argomenteremo più detta-
gliatamente in seguito, non può essere di natura probabilistica,
ma deve riferirsi ad una nozione diversa, quale la plausibilità1.
Tra analogia e rappresentazione esiste una relazione bi-dire-
zionale, in quanto da una parte l’analogia produce nuove rappre-
sentazioni consentendo di trattare un oggetto come se fosse un
altro, dall’altra parte molteplicità di rappresentazioni possono
essere messe in gioco per costruire un’analogia, anche analogie
multiple.
La forza dell’inferenza analogica risiede nella sua capacità di
assimilare enti che possono essere dissimili anche sotto molti
punti di vista e di superare queste difformità, di produrre ipotesi e
conoscenze “ampliate” in questo modo.
L’analogia è inoltre una forma d’inferenza ampliativa dalle
caratteristiche tali da porre un problema rilevante per la filosofia
della scienza e che ha profonde implicazioni metodologiche ed
epistemologiche.
Il capitolo analizza mediante alcuni esempi le principali carat-
teristiche dell’analogia, e il ruolo che essa svolge sia nei processi
di scoperta sia nei processi di giustificazione, mostrando come la
sua versione parallela rappresenti un argomento forte contro la
distinzione tra contesto della scoperta e della giustificazione, e 1 Cfr. Ippoliti 2007, Cap. 5.
che getta nuova luce sulla natura delle inferenze ampliative. Nel
capitolo inoltre, in linea con l’approccio dell’intero libro, argo-
mento a favore di una concezione euristica dell’analogia, senza
tralasciare di analizzare i limiti intrinseci di questa forma
d’inferenza e, più in generale, delle inferenze ampliative.
2. Definizione
L’analogia può essere concepita sotto varie forme, che sono co-
munque riconducibili a due concezioni fondamentali.
Essa può essere concepita come una forma di similarità, nella
fattispecie una «similarità a un livello più profondo e concettua-
le»2. Ad esempio Polya (v. Polya 1954) ne analizza molti esempi
tratti dalla matematica ma anche dalla fisica e dalle scienze spe-
rimentali. In tali domini l’analogia non solo è ovviamente un pre-
zioso strumento didattico, ma anche un potente mezzo euristico:
essa infatti «sembra aver un ruolo in tutte le scoperte, ma in alcu-
ne fa la parte del leone»3. Al contempo l’analogia funge da stru-
mento di valutazione e giustificazione della conoscenza, in quan-
to permette di corroborare una conoscenza o un’ipotesi esplicati-
va.
Essa può essere sia uno strumento per provare e giustificare
ipotesi e conoscenze (p. es. nella dimostrazione automatica di
2
Polya 1954, I, 13. 3
Ivi, 17.
teoremi o mediante modelli di conferma d’ipotesi4) sia un mezzo
per ottenere nuova conoscenza (p. es. nei processi di generazione
di ipotesi e congetture). Queste due caratteristiche, da un punto di
vista filosofico, sono tradizionalmente attribuite a due contesti
considerati separati e indipendenti sia da un punto di vista logico
sia da un punto di vista temporale, quali il contesto della scoperta
e il contesto della giustificazione. Questa doppia valenza
dell’analogia rappresenta la caratteristica più controversa e allo
stesso tempo più feconda di questa forma d’inferenza ampliativa.
L’analogia è inoltre una forma d’inferenza ampliativa che di-
pende in modo essenziale dal contesto, ossia dall’insieme delle
conoscenze esistenti e dei dati disponibili a partire dai quali viene
costruita.
Il problema fondamentale della conoscenza prodotta
dall’inferenza analogica è quello sollevato da ogni forma di ra-
gionamento volta a trattare la questione dell’ampliamento della
conoscenza: la determinazione di criteri che consentano di speci-
ficare un insieme di ragioni per ritenere giustificate le conclusioni
che candida. Nella fattispecie l’analogia pone il cosiddetto pro-
blema logico dell’analogia, in breve LPA, ossia il tentativo di
«trovare un criterio che, se soddisfatto da una particolare inferen-
za analogica, stabilisca in modo sufficiente la verità della conclu-
sione proiettata sull’obiettivo»5.
La definizione stessa dell’analogia rappresenta un problema.
4 P. es. quelli sviluppati da Polya (v. Polya 1954). 5
Davies 1988, 229.
L’ortodossia prevalente6 converge nel definire l’analogia una
forma di comparazione mediante cui è possibile operare un tra-
sferimento (transfer) di una proprietà o un’informazione nota da
un dominio d’origine sufficientemente conosciuto – la fonte – a
un dominio di destinazione – l’obiettivo – almeno parzialmente
non conosciuto, mediante una relazione d’associazione d’oggetti,
di relazioni e di proprietà tra la fonte e l’obiettivo. L’ortodossia
prevalente è inoltre caratterizzata da due principali concezioni
dell’inferenza per analogia, la concezione induttivista e la conce-
zione strutturalista. Come vedremo entrambe queste concezioni
sono inadeguate a render conto dell’analogia poiché non colgono
il suo carattere eminentemente rappresentativo e ampliativo.
La concezione induttivista è sostenuta ad esempio da Keynes7
e da Polya e considera l’analogia come una forma d’induzione, in
particolare un’induzione su attributi o proprietà. Essa è una forma
di generalizzazione – al limite una generalizzazione a partire da
un singolo caso – ottenuta dalla congiunzione di somiglianze ma-
teriali tra domini.
La concezione strutturalista è sostenuta ad esempio da Wei-
tzenfeld8 e considera l’analogia come un processo d’associazione
tra relazioni causali di alto livello – dove per alto livello si inten-
de anche relazioni tra relazioni – tra la fonte e l’obiettivo. Essa è
in linea di principio riconducibile ad una forma di isomorfismo,
che consente di trasportare tout court strutture e relazioni dalla
6
Cfr. Black 1962, e cfr. anche Hesse 1966, Melis - Veloso 1998. 7
Cfr. Kaynes 1921. 8
Cfr. Weitzenfeld 1984.
fonte all’obiettivo.
Dunque le due concezioni concordano sulla rilevanza della
similarità generale tra i domini ai fini del transfer analogico, e si
distinguono in quanto la seconda è basata sulla corrispondenza
tra relazioni (e non semplicemente sulla corrispondenza tra attri-
buti, come avviene per la concezione induttivista).
La concezione strutturalista, per l’esattezza, si richiama al
principio di sistematicità, il quale asserisce che un’analogia è
giustificata quando crea un’associazione tra relazioni d’alto grado
molto strutturate, che usualmente sono quelle causali. Inoltre en-
trambe le concezioni ritengono di poter offrire una soluzione a
LPA, anche se facendo ricorso a strumenti diversi (come per e-
sempio la nozione di grado di similarità o quella di strutture de-
terminanti9).
3. Probabilità e analogia
La descrizione dell’analogia come una forma d’inferenza «am-
pliativa e probabile»10 è comunemente accettata sulla base del
fatto che «gli argomenti analogici non devono essere classificati
come validi o invalidi, in questi casi tutto ciò che si può richiede-
re è la probabilità»11.
Tale descrizione e giustificazione dell’analogia, tuttavia, è
9 v. Davies 1988. Per una analisi di questi strumenti v. Ippoliti 2006. 10
Weitzenfeld 1984, 1. 11
Copi 1961, 466.
problematica e si rivela non sostenibile. L’analogia necessita in-
fatti l’analisi di considerazioni materiali e dipendenti dal domi-
nio, che sono tali da sottrarla a un processo di riduzione alla teo-
ria della probabilità. Nella fattispecie si può osservare che «né la
teoria classica della probabilità né quella moderna sono state in
grado di dare una descrizione soddisfacente e una giustificazione
dell’inferenza per analogia»12. Ciò è dovuto ad un insieme di ra-
gioni. In primo luogo l’analogia è un concetto di natura qualitati-
va, perché è una forma di comparazione, mentre la probabilità è
un concetto di natura quantitativa, perché è basata sulla quantifi-
cazione, sull’enumerazione e sulla successiva istituzione di rap-
porti numerici. Le ragioni che motivano un’inferenza analogica
non sono e non possono essere di natura probabilistica. Infatti a
rigore essa può avere una probabilità molto bassa, anche prossi-
ma allo zero, eppur essere giustificata e, al contrario, presentare
una probabilità molto alta e non essere giustificata.
Che il legame tra le premesse e la conclusione di un’analogia
non può essere giustificato facendo ricorso alla teoria della pro-
babilità è un’affermazione che ammette almeno due sensi:
- le ipotesi candidate per via analogica si basano su un nu-
mero anche molto ristretto di osservazioni e si riferiscono a un
numero molto vasto di casi, potenzialmente infinito, per cui il
rapporto tra casi favorevoli e casi possibili è tale da conferire
all’ipotesi un valore probabilistico molto basso o prossimo allo
zero.
- le inferenze analogiche si possono basare su un vasto nume- 12
Carnap 1950, 569-570.
ro di dissimilarità (o analogie negative) tra i domini oggetti di
transfer il quale supera di gran lunga quello delle similarità (o
analogie positive) e quindi, di nuovo, il loro rapporto conferisce
una probabilità molto bassa alla conclusione, anche se essa è mo-
tivata (ad esempio perché avviene su proprietà rilevanti). Al con-
trario, inferenze basate su un supporto proveniente da un numero
elevato di similarità tra i domini oggetti di comparazione (e quin-
di su un alto valore probabilistico) possono rivelarsi non motiva-
te.
Quindi la probabilità non è essenziale e utile sia nella costru-
zione, sia nella valutazione, sia, ancora, nella scelta tra varie ipo-
tesi plausibili. Non è infatti possibile ricorrere alla probabilità
neanche per effettuare la scelta tra varie ipotesi ottenute per via
analogica al fine di risolvere un problema. L’ipotesi che ha un
alto valore probabilistico potrebbe non essere quella giusta per
risolvere il problema. Tale scelta, ancora una volta, deve avvenire
sulla base della plausibilità di un’ipotesi, ossia di una sua valuta-
zione qualitativa.
La teoria della probabilità non è uno strumento adeguato a
rendere conto della complessità e dell’essenza del processo
d’inferenza analogica per un semplice motivo: una soluzione di
LPA non può essere data poiché l’analogia, in quanto inferenza
ampliativa, è soggetta al cosiddetto paradosso dell’inferenza13.
Pertanto non è possibile avere una vera analogia, ossia non ri-
dondante, che sia al contempo corretta e ampliativa14, ossia tale
13
Cfr. Cellucci 2002, 167-168. 14
Per una discussione approfondita della relazione tra correttezza ed ampliatività cfr.
che le sue premesse conferiscano un qualche grado di certezza
alla conclusione candidata e al contempo estenda davvero le no-
stre conoscenze.
Il legame che un’inferenza analogica istituisce tra premesse e
conclusione è semplicemente plausibile, in un senso che non è
riconducibile alla probabilità. In particolare, l’analogia è plausibi-
le nel senso che deve essere compatibile con i dati e la conoscen-
za esistente.
Il fatto che l’inferenza candidata per via analogica non riceva
affatto un sostegno probabilistico dalle sue premesse è avvalorato
dal fatto che i criteri utilizzati per giustificare l’inferenza analogi-
ca non riescono ad assolvere questo compito se non banalizzan-
dola e rendendola «ridondante»15. Ossia a meno che non si riduca
l’analogia ad una forma di isomorfismo tra strutture (e quindi si
riduca de facto il trasferimento analogico a una forma di dedu-
zione), non esiste una giustificazione del salto analogico16. Dun-
que non è possibile pensare di giustificare in termini probabilisti-
ci l’inferenza analogica, sia essa intesa come mezzo per generare
ipotesi, sia essa intesa come mezzo per sostenere un’ipotesi o una
congettura. L’analogia, proprio in quanto ampliativa, è senza
dubbio utile, fertile e feconda, ma non fornisce alle conclusioni
Cellucci 2002, 165-169. 15
Juthe 2005, 1. 16
Almeno non in termini internalisti, ossia senza far riferimento alla realtà. Per una
analisi approfondita circa l’impossibilità di una giustificazione di natura internalista
dell’inferenza deduttiva e non deduttiva cfr. Cellucci 2006; per una analisi circa
l’impossibilità di giustificare l’analogia mediante i criteri di similarità, tipicità e determi-
nazione cfr. Ippoliti 2006.
che candida un supporto di tipo probabilistico.
4. Analogia, rappresentazione e scoperta
Le analogie possono essere costruite mediante l’uso di rappresen-
tazioni multiple. Nel caso che esamineremo nei paragrafi seguen-
ti un problema della teoria dei numeri è risolto mediante una
combinazione di due distinte rappresentazioni (algebrica e geo-
metrica), la quale genera l’analogia che produce l’ipotesi risolu-
trice. Da questa analogia basata su rappresentazioni multiple di
una certa entità matematica, le quali trasferiscono nuova infor-
mazione all’interno del problema trattato, segue la produzione di
nuova conoscenza e la scoperta di nuove proprietà e ipotesi.
L’analogia gioca un ruolo essenziale nel processo di scoperta
e ampliamento della conoscenza matematica. L’esempio cui ri-
corro in questa sede per discutere la relazione tra analogia e am-
pliatività è stato oggetto di varie analisi17 ed «è d’interesse stori-
co e di gran lunga più bello di qualsiasi esempio molto elementa-
re al quale si possa pensare»18.
L’esempio in questione è la soluzione del matematico svizze-
ro Eulero al problema di Mengoli19, che oggi definiremmo come
17
Cfr. Polya 1954, van Bendegem 2000, Bartha 2002, Corfield 2003 cap. 4, Ippoliti
2006 e 2007. 18
Polya 1954, I, 17. 19
Cosiddetto in quanto originariamente formulato dal matematico italiano Pietro Men-
goli nella sua opera Novae quadraturae arithmeticae (1650).
la determinazione del valore ζ(2).
Tale soluzione è ottenuta facendo ricorso a una doppia analo-
gia ed è fondata su un passaggio ampliativo, per sua natura «au-
dace e scorretto da un punto di vista logico»20. Essa, per ammis-
sione dello stesso Eulero, si avvale di un procedimento che non
era mai stato praticato prima e la cui attendibilità andava quindi
verificata attraverso il confronto con la conoscenza esistente.
La soluzione data da Eulero a questo problema è particolar-
mente rilevante per discutere il ruolo dell’inferenza ampliativa e
della rappresentazione nella matematica. Il problema è quello che
riguarda la determinazione del valore della somma infinita
dell’inverso dei quadrati:
(MP) 2 21
1 1 1 1 11 ...4 9 16 nn n
∞
=
?+ + + + + = =∑ .
Nei paragrafi che seguono fornisco pertanto un’analisi del
processo di soluzione di Eulero che si discosta da quelle proposte
dalla letteratura sull’argomento, che evidenzia il ruolo e la natura
euristica dell’analogia, e la quale soprattutto getta luce sulle mo-
dalità per cui l’analogia è uno strumento d’ibridazione che si av-
vale di rappresentazioni multiple per produrre, attendendoci alla
nostra metafora iniziale, una moltitudine di punti di vista intorno
all’oggetto trattato.
Il processo di soluzione di Eulero muove dal tentativo di ri-
durre il problema a un risultato noto analogo, ossia tale da soddi-
sfare alcune delle condizioni di risolvibilità del problema ricavate
20
Polya 1954, I, 21.
dalla sua preliminare analisi (in un certo senso di analisi21).
Pertanto la questione se il problema di Mengoli sia risolvibile
o meno è ridotta alla ricerca di tale risultato noto, o meglio ad una
combinazione di risultati noti, tali da soddisfare le seguenti con-
dizioni:
(a) sia rappresentabile nella forma di una serie infinita;
(b) sia rappresentabile nella forma di una somma del tipo:
2 2 21 2 1
1 1 1 1...n
2x x x x+ + + + ;
(c) le variabili in (b) siano tali che x1=1, x2=2 , … , xn = 2n
L’obiettivo del processo di soluzione del problema diventa dun-
que la generazione di una serie dal valore noto che sia in grado di
soddisfare, mediante opportune rappresentazioni, le condizioni
(a) - (b) - (c). Pertanto (MP) è risolvibile se è possibile trasfor-
marlo in serie infinita della forma (b) - (c) il cui valore sia noto.
Per poter effettuare tale ricercare e dunque costruire una
ipotesi adeguata per risolverlo è possibile estendere le
informazioni e i dati contenuti nel problema mediante una
espansione dello spazio combinatorio delle ipotesi (ossia lo
spazio di ricerca che racchiude le possibili combinazioni tra dati e
informazioni che possono dare luogo a ipotesi esplicative), che
aggiunga conoscenza oltre quella accessibile all’interno della
teoria dei numeri. L’analogia svolge proprio questa funzione di
modellazione ed espansione/contrazione dello spazio combina-
21 v. Cellucci 1998 e 2002.
torio delle ipotesi, introducendo mediante il transfer analogico
nuovi dati e informazioni che possono essere utilizzati per
costruire le varie ipotesi volte a risolvere il problema. Lo spazio
combinatorio delle ipotesi è delimitato dalle condizioni di
risolubilità (ossia a–b–c) del problema individuate per mezzo
dell’analisi, che permettono di effettuare una scelta tra le infinite
possibili ipotesi che possono essere generate per risolvere il
problema.
A questo punto il processo di ricerca ricorre ad una
interazione con il corpo di conoscenze esistente al tempo di
Eulero (nella fattispecie l’algebra) e permette di trovare
un’equazione algebrica che soddisfa la proprietà (b) – istituendo
un’analogia positiva, – ma non la proprietà (a) (non è una serie
infinita) – fornendo un’analogia negativa. Tale equazione è:
1 0 2 2 2 21 2 1
1 1 1 1(d) ...n
b bx x x x
⎛ ⎞= + + + +⎜ ⎟
⎝ ⎠
la quale deriva da:
2 2
0 2 21 2
(e) 1 1 ... 1n
2
2
x x xbβ β β
⎛ ⎞⎛ ⎞⎛ ⎞− − −⎜ ⎟⎜ ⎟⎜ ⎟
⎝ ⎠⎝ ⎠ ⎝ ⎠
Per b0≠0, (e) esprime la relazione tra i coefficienti e le radici di
un’equazione algebrica generica, ossia:
(f) b0 – b1x2 + b2x4 - …+ (-1)n bnx2n+1,
la quale ha la proprietà (g) di avere 2n radici β1, -β1, β2 , -β2 , … ,
βn , -βn.
Sulla base delle similarità e dissimilarità riscontrate (ma non
sulla base di una loro comparazione quantitativa e quindi
riconducibile alla probabilità), Eulero può compiere un primo
salto inferenziale: formula infatti per analogia l’ipotesi (I) che
una proprietà, ossia (d), che è valida per casi finiti valga anche
per casi infiniti. Questo processo di riduzione permette di
rappresentare il problema iniziale sotto forma algebrica. Questa
rappresentazione è ovviamente parziale e incompleta e non si
basa su isomorfismo tra due entità, in quanto sono presenti alcune
analogie negative. Esse ha l’effetto di introdurre nuova
informazione, che consente di produrre una rappresentazione
dell’oggetto iniziale (MP), che è plausibile e che è suscettibile di
ulteriore trattazione.
Quindi il problema iniziale è ora ridotto alla ricerca di una
funzione di tipo (d) che sia in grado di soddisfare le condizioni (f)
- (g) - (c).
Questa nuova ricerca richiede una nuova espansione dello
spazio combinatorio delle ipotesi, che si attua mediante una
successiva interazione con il corpo della conoscenza esistente, la
quale permette a Eulero di individuare l’esistenza nella tri-
gonometria di una serie infinita di tipo (d) che può essere
rappresentata come una funzione di tipo (f), il cui valore è noto.
Essa è lo sviluppo in serie di potenze di sin(x) = 0, che è uguale a:
3 3 7
... 0,1 3! 5! 7!x x x x− + − + =
che ha 2n+1 radici: 0, π , -π , 2π , -2π , … , nπ , - nπ.
A questo punto è possibile effettuare una nuova trasformazio-
ne dello sviluppo in serie di potenze di sin(x) in un’equazione
algebrica infinita analoga a (b) semplicemente dividendo i due
membri dell’equazione per x, ovvero per il fattore lineare che
corrisponde alla radice 0 (ossia per il valore 1):
2 4 6sin 1 .3! 5! 7!
x x x xx
..= − + − + .
Otteniamo in questo modo un’equazione di tipo (f) con 2n radici
π, -π, 2π, -2π, …, nπ, -nπ, che si accorda con la condizione (c).
Ancora una volta, questa rappresentazione di (MP) è incom-
pleta e parziale e non è un isomorfismo, in quanto presenta delle
analogie negative. Ma introduce nuova informazione nel proble-
ma, ampliandone la nostra conoscenza e la sua trattabilità.
Infine, di nuovo per analogia, (ossia sulla base delle similarità
riscontrate), Eulero compie il secondo e decisivo salto
inferenziale: ipotizza (II) che proprietà – quali (e) e (d) – che
sono valide per equazioni algebriche, siano valide anche per
equazioni non algebriche (nella fattispecie trigonometriche). Ciò
gli permette di compiere il passaggio decisivo per la soluzione
del problema, rappresentando sin 0x
x= , in accordo con (e), come
il prodotto infinito:
(III) 2 2 2
2 2 21 1 14 9
x x xπ π π
⎛ ⎞⎛ ⎞⎛ ⎞− − −⎜ ⎟⎜ ⎟⎜ ⎟
⎝ ⎠⎝ ⎠⎝ ⎠...
ossia, in accordo con (d),
2 2 2 2
1 1 1 1 1 ...3! 4 9 16π π π π= + + + .
Da qui, semplicemente moltiplicando per 2π entrambi i membri
dell’uguaglianza, otteniamo il valore che risolve il problema ini-
ziale (MP):
(S) 2 2
2
1 1 1 11 ...4 9 16 3! 6n
π π+ + + + + = = .
Ovviamente questa non è in senso stretto la soluzione del pro-
blema di Mengoli. Il valore candidato 2
6π
è un valore plausibile
supportato da una doppia inferenza analogica, ottenuta mediante
la combinazione di differenti rappresentazioni dell’oggetto inizia-
le. Questa inferenza semplicemente mostra come dalle ipotesi (I)
e (II) ricavate per via analogica segue la validità dell’asserzione
(S), ossia si ha che:
2
2
1 1 1 1( ) ( ) 1 ...4 9 16 6
I IIn
π∧ → + + + + + = .
La questione relativa alla validità delle ipotesi (I) e (II), e della
loro estensione, costituisce a sua volta un altro problema da risol-
vere. Le ipotesi (I) e (II) candidano pertanto una soluzione del
problema mediante inferenze che sono basate su passaggi audaci
e scorretti: infatti «da un punto di vista strettamente logico, essa
era apertamente una fallacia: egli (Eulero, NdA) aveva applicato
una regola a un caso per il quale la regola non era stata fatta, una
regola per equazioni algebriche a una equazione che non è alge-
brica. Da un punto di vista strettamente logico, il passaggio di
Eulero non era giustificato»22.
Al fine di provare la correttezza di tali ipotesi, è prima neces-
22
Ivi, 21.
sario dimostrare la correttezza del passaggio dal finito all’infinito
nel caso delle somme (I), e quindi la correttezza del passaggio
dall’algebra alla trigonometria (II). Tuttavia una tale prova non
può ovviamente essere data in via generale: le ipotesi (I) e (II)
sono basate su inferenze ampliative, che non sono giustificate nel
senso in cui lo sono quelle non-ampliative. La loro validità può
infatti essere solo di carattere locale, relativa a casi particolari che
soddisfano precise condizioni23.
L’analogia è dunque usata in questo caso come mezzo
d’ibridazione24, ossia come un processo che permette di trattare
in modo multivalente e polisemico un oggetto, il quale viene sot-
toposto ad un processo di moltiplicazione di punti di vista (si pas-
sa dalla teoria dei numeri all’algebra e alla trigonometria) con la
conseguente produzione di sue nuove rappresentazioni (ossia or-
ganizzazione e codifica dell’informazione e dei dati che lo strut-
turano) che estendono davvero la conoscenza.
5. Analogie multiple
L’inferenza analogica presenta un’ulteriore caratteristica partico-
larmente rilevante delle inferenze ampliative, che ha ripercussioni
sia sulla metodologia della scienza sia su alcuni cardini della filo-
sofia della scienza tradizionale. Essa è infatti una forma di ragio-
namento parallelo: il processo inferenziale cui può dar luogo si
23
Cfr. p. es. Hardy 1906 per una trattazione dei limiti dell’ipotesi (I). 24
Cfr. Grosholz 2000, 81-91, e Cellucci 2002, 285-291.
può articolare sulla base di una molteplicità di fonti, ossia me-
diante «analogie in cui più di una fonte analoga è usata per ragio-
nare su un obiettivo analogo»25, perché «una conclusione analo-
gica da molti casi paralleli è più forte di una da pochi casi»26, o
da uno solo. Infatti l’analogia singola non che è «il più semplice
o almeno più comune caso di ragionamento analogico»27, e rap-
presenta «il principale soggetto delle attuali teorie cognitive e
modelli computazionali del ragionamento analogico»28. La ver-
sione classica dell’analogia è pertanto solo un caso particolare
dell’analogia multipla, ossia quella in cui una sola fonte è utiliz-
zata nel processo inferenziale.
Il ragionamento parallelo è una forma di ragionamento in cui
più processi inferenziali concorrono sia sincronicamente sia asin-
cronicamente alla produzione di conclusioni su un dato proble-
ma, le quali sono poi unificate in un'unica conclusione. Nel caso
dell’analogia multipla, infatti, più fonti possono essere utilizzate
sia sincronicamente sia asincronicamente nel processo inferenzia-
le e i loro risultati possono essere unificati mediante un'unica
conclusione.
Il processo d’unificazione è un processo che compone le varie
conclusioni candidate, e quindi è non-meccanico e problematico,
e richiede una valutazione delle varie componenti in gioco. Le
conclusioni candidate dalle singole fonti analoghe possono infatti
25
Shelley 2003, 3. 26
Polya 1957, 43. 27
Shelley 1999, 144. 28
Ibid.
essere tra loro in disaccordo sia parziale sia totale: ciò richiede un
processo di cooperazione e negoziazione sia tra le fonti sia tra le
varie conclusioni che esse candidano. Questo processo di compo-
sizione può implicare la revisione o lo scarto di una conclusione
candidata a partire da una certa fonte, o un indebolimento della
conclusione finale. Per esempio una conclusione analogica da più
fonti può essere indebolita assumendo una forma disgiuntiva, in
cui i vari disgiunti sono le conclusioni candidate da più o al limite
da tutte le fonti impiegate29. Ossia se per risolvere un problema p
si usa una molteplicità di fonti analoghe f1, f2,…, fn che candidano
rispettivamente le conclusioni c1, c2,…, cn, allora la conclusione
per analogia multipla può assumere la forma c1 ∨ c2 ∨…∨ cn.
È opportuno sottolineare che l’analogia multipla30 non è una
semplice concatenazione d’analogie singole «nel senso che solo
una fonte analogica è usata nella comparazione»31, ma è una
comparazione in cui più fonti, contemporaneamente, interagisco-
no in modo strutturato a candidare la conclusione per l’obiettivo
analogo. Ciò significa che la quantità di fonti disponibili non è
tutto per l’analogia multipla: anzi «la qualità è ancora più impor-
tante, qui, della quantità. Analogie dal taglio chiaro hanno un pe-
so maggiore di vaghe similarità, istanze assemblate sistematica-
mente contano di più di collezioni casuali di casi»32. L’aspetto
qualitativo è essenziale perché, come abbiamo visto, una valuta-
29
Cfr. p. es. Talaly 1987. 30
Cfr. Shelley 1999, 2002a, 2002b, 2003. 31
Shelley 2003, 4 32
Polya 1957, 43.
zione quantitativa o probabilistica dell’inferenza ampliativa, e
dell’analogia, è insostenibile.
L’analogia multipla mostra in modo esemplare come
l’inferenza ampliativa possa essere contemporaneamente sia uno
strumento di scoperta sia uno strumento di giustificazione. In al-
cuni processi d’inferenza per analogia multipla, infatti «la stessa
analogia può servire entrambi gli scopi»33. Come osserva Shel-
ley34, si danno casi di scoperte scientifiche in cui l’analogia mul-
tipla interviene sia nel processo di generazione dell’ipotesi, sia
nel processo di conferma dell’ipotesi generata. In alcuni di questi
casi la stessa analogia arriva a fungere sia da strumento di gene-
razione dell’ipotesi sia da strumento di conferma della stessa.
Quindi se si accetta il fatto che il compito dell’analogia è
quella di fornire credibilità all’ipotesi candidata, nel senso che
essa misura quanto credibile è «che qualsiasi successiva fonte
analoga che aderisce al target sosterrà la stessa conclusione so-
stenuta dalle precedenti fonti»35, e si conviene nel ritenere questa
pratica come legittima, allora ne segue che la distinzione
dell’empirismo logico «di scoperta e giustificazione quali fasi
indipendenti della ricerca deve essere abbandonata»36. Quindi
non solo l'inferenza analogica, soprattutto nella sua versione mul-
tipla, non fornisce alcun sostegno probabilistico alla conclusione
che candida (sia che essa intervenga nella fase della scoperta sia
33
Shelley 2003, 86 34
Cfr. Shelley 2003, par. 4.3. 35
Ivi, 29. 36
Ivi, 134.
nella fase della giustificazione), ma inficia quest’ultima distin-
zione.
L’analogia per ragionamento parallelo è dunque un argomento
contro questa «rappresentazione distorta»37 e mostra come «la
scoperta non si colloca in una prima fase della ricerca matematica
a cui poi ne fa seguito un’altra, quella della giustificazione, ma
copre l’intero suo arco»38. La scoperta non è infatti un processo
casuale, ma è la generazione di ipotesi plausibili, cioè compatibili
con la conoscenza esistente, e «per vedere se le ipotesi sono
compatibili con la conoscenza esistente si devono esaminare le
ragioni pro e contro di esse»39. Poiché questo esame viene effet-
tuato sulla base di prove che avvalorano le ipotesi o le discredita-
no, i processi che intervengono nella fase di scoperta sono inse-
parabili da quelli che intervengono nella fase di giustificazione.
6. La concezione euristica dell’analogia
La soluzione di Eulero del problema di Mengoli è ottenuta facen-
do un uso dell’analogia che si accorda con una concezione alter-
nativa a quella induttivista e strutturalista, nella fattispecie la
concezione euristica. La concezione induttivista e la concezione
strutturalista non sono infatti in grado di render conto dell’am-
piezza e complessità del processo d’inferenza analogica. La con-
37
Cellucci 2002, 147. 38
Ivi, 146. 39
Ibid.
cezione euristica invece tratta l’analogia da un punto di vista
nuovo, ossia non volto a rintracciare le basi della certezza del
processo analogico, ma che considera il paradosso dell’inferenza
come costituivo della teoria dell’analogia e dell’inferenza amplia-
tiva in generale. Essa non ha dunque la pretesa di risolvere la ten-
sione tra correttezza e ampliatività, ma la pone a fondamento di
una trattazione che dà conto in profondità del processo
d’inferenza analogica. Da ciò segue che il compito di una rifles-
sione sull’analogia, e sull’inferenza ampliativa, non è la soluzio-
ne di LPA (che per altro non può essere data), ma lo sviluppo e il
raffinamento di metodi per indagare oggetti e risolvere problemi,
ossia di strumenti per generare ipotesi esplicative e congetture.
La concezione euristica analizza l’analogia quale strumento di
modellazione dello spazio combinatorio delle ipotesi, che opera
all’interno del metodo analitico, in particolare nella versione data
da Cellucci40, e secondo le dinamiche proprie dei sistemi concet-
tuali aperti41, che le conferiscono superiori capacità inferenziali.
Il metodo analitico è uno strumento mediante cui ridurre un
problema dato ad alcune condizioni di risolubilità, che delimitano
lo spazio combinatorio di ricerca delle ipotesi. Nel processo di
analisi si arriva dunque a ridurre il problema ad un nuovo pro-
blema, lasciando alle inferenze ampliative il compito di generare
ipotesi plausibili che si accordino con queste condizioni. Una
volta che la riduzione è stata operata, si apre infatti il processo di
ricerca e costruzione di ipotesi e congetture per risolverlo: il me-
40
Cfr. Cellucci 1998 e 2002. 41
Cfr. Cellucci 1998, 309-346.
todo analitico non é un metodo per trovare le ipotesi. Tale pro-
cesso, che procede dal basso verso l’alto (dal problema alle ipote-
si), si articola secondo i caratteri propri dei sistemi concettuali
aperti42 e si avvale di inferenze ampliative, di procedimenti per
tentativi ed errori, mediante una molteplicità di rappresentazioni
non necessariamente isomorfe che trasformano l’oggetto iniziale
all’interno dello spazio combinatorio così delimitato.
L’analogia è in grado di far fronte a tale esigenza in quanto è
un’inferenza ampliativa che fornisce un metodo (non algoritmi-
co) per generare ipotesi che si accordano con le condizioni di ri-
solubilità e la conoscenza esistente in un sistema concettuale a-
perto.
La soluzione di Eulero al problema di Mengoli si accorda con
questo processo. In particolare, nonostante non sia possibile rico-
struire l’intero processo che ha condotto il matematico svizzero
alla formulazione delle ipotesi (I) e (II), la struttura della sua so-
luzione è tale da rispondere a pieno alla concezione euristica
dell’analogia. Infatti è possibile osservare le seguenti caratteristi-
che del processo di soluzione della serie (MP):
1) il processo di soluzione è di natura bottom-up, dal problema
alle ipotesi, in particolare dalla serie (MP) all’ipotesi (III) – ossia
la rappresentazione di sin x come un prodotto infinito.
2) Il metodo analitico è il mezzo mediante cui individuare le
condizioni di risolubilità del problema iniziale. In particolare esso
lo riduce a un altro problema, nel senso che «non mira a stabilire 42
Cfr. Cellucci 1998, 299-304 e 339-346.
definitivamente la risolubilità di un problema, ma solo di ridurlo
a un’ipotesi»43. Nella fattispecie il problema di Mengoli viene
ridotto all’ipotesi (III) mediante la ricerca di un risultato noto che
soddisfi le condizioni (a) - (b) - (c).
3) Le ipotesi sono costruite mediante inferenze non-deduttive,
come l’analogia e l’induzione, e per tentativi ed errori. Esse ov-
viamente non sono necessariamente corrette, ma «una volta as-
sunte, si vede se conducono a una soluzione del problema»44.
Infatti l’analogia, mediante una multipla interazione con il corpo
di conoscenze esistenti (in particolare l’algebra e la trigonometri-
a), consente di produrre ipotesi, (I) - (II) - (III), che soddisfano
alcune delle condizioni di risolubilità e conducono a una soluzio-
ne, ma che non sono corrette, come osserva già lo stesso Eulero.
4) Le ipotesi sono costruite e introdotte mediante l’interazione
con altri sistemi. Tale interazione è essenziale per la soluzione di
problemi: il sistema iniziale fa appello ad altri sistemi presenti
nell’ambiente (nella fattispecie l’algebra e la trigonometria) per
aumentare la propria informazione ed espandere lo spazio combi-
natorio delle ipotesi. L’informazione aggiuntiva può consistere in
risultati (lemmi) o ipotesi. Ciò conferisce al metodo analitico su-
periori capacità inferenziali perché non deve far appello nel corso
della soluzione solo alle informazioni del sistema cui appartiene
il problema iniziale.
5) Il processo di soluzione è storicamente situato e dipende
dal contesto nel quale viene prodotto, nel senso che le ipotesi che
43
Cellucci 1998, 299. 44
Ivi, 301.
è in grado di generare dipendono dalla conoscenza esistente. Al
variare del contesto possono variare non solo le ipotesi prodotte
(e le soluzioni proposte), ma può variare anche la loro plausibili-
tà.
6) Il processo di soluzione è sensibile alla rappresentazione.
Anche nel caso di due enunciati equivalenti, il fatto di usare una
rappresentazione piuttosto che un’altra può rivelarsi decisivo nei
processi di problem-solving o di scoperta: tale scelta consente
interazioni con sistemi di conoscenze che altrimenti sarebbero
rimate inibite. Per esempio Feynman sottolinea che rappresenta-
zioni distinte della stessa legge fisica, benché identiche da un
punto di vista logico, possono innescare immagini mentali diver-
se e permettere nuove scoperte45. Anche se il mio argomento non
è di natura psicologica e l’equivalenza logica è un caso particola-
re di rappresentazione, similmente, nel caso della soluzione di
Eulero di (MP), le analogie, innescando una serie di trasforma-
zioni altrimenti non istituibili, consentono quel cambio di rappre-
sentazione di (MP) in sinx quale prodotto infinito, che permette
di candidare una soluzione che altrimenti sarebbe rimasta inac-
cessibile.
7) Le ipotesi formulate sono condizioni ed entità volte a risol-
vere problemi specifici, non tutti i problemi. Infatti le ipotesi (I) e
(II) sono adeguate a trattare e risolvere solo problemi specifici e
locali, della forma46 di quello di Mengoli, per esempio la serie di
Leibniz.
45
Cfr. Feynman 1967. 46
ossia che rispetta le condizioni (a) – (b) – (c).
8) Lo spazio combinatorio delle ipotesi è sensibile all’ordine.
L’ordine d’introduzione delle ipotesi è infatti utile e anche essen-
ziale per la soluzione del problema perché due soluzioni possono
essere differenti anche quando usano le stesse ipotesi ma in un
ordine differente. Un diverso ordine di introduzione modella in-
fatti in modo diverso lo spazio combinatorio delle ipotesi, orga-
nizzando e assemblando i dati e le informazioni disponibili in
modi diversi. Nella fattispecie l’ordine delle ipotesi (I) e (II) è
utile ed essenziale per la soluzione di (MP). In primo luogo
l’ordine è utile poiché l’ipotesi (I) estende la ricerca di risultati
noti alle somme infinite, l’ipotesi (II) concentra tale ricerca
all’interno delle somme trigonometriche. In secondo luogo è es-
senziale in quanto invertendo l’ordine non si produce lo stesso
risultato: non è possibile iniziare la ricerca all’interno delle som-
me trigonometriche se prima non si è ipotizzato che le somme
infinite godano di (alcune) proprietà delle somme finite.
9) L’analogia è uno strumento d’ibridazione. Mediante l’infe-
renza analogica Eulero riesce a trattare la serie (MP) - ossia un
oggetto aritmetico - allo stesso tempo come un oggetto algebrico
e come un oggetto trigonometrico nel sorso del processo di ricer-
ca della soluzione. Sebbene l’analogia sia esplicitamente imper-
fetta, essa non fuorvia Eulero poiché tenendo ben presenti le dif-
ferenze tra oggetto trigonometrico e oggetto algebrico, egli può
arrivare alla formulazione della sua ipotesi risolutrice. Inoltre
l’ibrido generato dalle due analogie, l’ipotesi (III), assume un
ruolo cruciale per la crescita della conoscenza: infatti esso per-
mette di risolvere altri problemi, per esempio permette di ottenere
una soluzione della serie di Leibniz in modo diverso.
10) Le ipotesi devono essere plausibili, nel senso che si devo-
no accordare con la conoscenza esistente, mediante un processo
di loro valutazione che comporta uno scambio interattivo con la
conoscenza esistente. Infatti, innanzitutto, l’ipotesi (III) è ade-
guata, ossia permette di risolvere il problema di Mengoli. Ma ciò
non è ovviamente sufficiente: infatti «un’ipotesi può permettere
di risolvere un problema pur essendo falsa, anzi proprio perché è
falsa. Per evitare che ciò accada, si deve confrontare l’ipotesi con
la conoscenza esistente e verificare che si accordi con essa»47. In
particolare l’ipotesi (III) si accorda sia con la conoscenza esisten-
te al tempo di Eulero sia con quella successiva48. Inoltre
l’analogia svolge un ruolo nel processo di valutazione, ossia nel
confronto con la conoscenza esistente, quando viene utilizzata
per stabilire la plausibilità dell’ipotesi.
11) Il processo di soluzione di un problema e di ampliamento
della conoscenza è potenzialmente infinito. Ogni ipotesi costruita
durante tale processo rimanda ad altre ipotesi e non esistono ipo-
tesi ultime. Nel caso di (MP) l’ipotesi (III) dipende dalle ipotesi
(I) e (II), che a loro volta dipendono da altre ipotesi e così via
potenzialmente all’infinito. Il processo attraverso cui le ipotesi
vengono fondate su altre ipotesi può essere interrotto temporane-
amente, e a quel punto le ipotesi diventano la base per la soluzio-
ne del problema.
12) Il processo di soluzione di un problema e di ampliamento
47
Cellucci 1998, 301. 48 Cfr. Ippoliti 2007.
della conoscenza si articola mediante una continua moltiplicazio-
ne dei punti di vista, e si avvale di rappresentazioni multiple
(nuove e diverse organizzazioni e codificazioni dell’informazione
e dei dati che lo caratterizzano) per produrre dall’oggetto dato
quelle polivalenze in grado di renderlo suscettibili di sempre
nuove trattazioni.
In conclusione possiamo osservare come la concezione euri-
stica fornisce una trattazione dell’analogia che dà conto della sua
dinamica interna e delle sue caratteristiche. Tale concezione, ri-
conoscendo come costitutivo dell’analogia il paradosso
dell’inferenza, non mira alla ricerca di una soluzione di LPA ma
si concentra sullo studio del ruolo euristico dell’analogia. Inoltre
essa muove dall’osservazione che la separazione tra contesto del-
la scoperta e contesto della giustificazione sia insostenibile e in
ultima analisi inutile, e analizza come l’analogia (intesa sia come
ricerca di ulteriori fonti analoghe, sia come soluzione di problemi
analoghi) svolga un ruolo, soprattutto nella sua versione paralle-
la, sia nella costruzione sia nella valutazione di argomenti e ipo-
tesi.
Anche se l’analogia è un efficace strumento euristico, essa
presenta dei limiti cui bisogna prestare attenzione quando vi si
ricorre. Questi limiti sono insiti nella sua natura ampliativa.
Infatti l’analogia da una parte è talmente utile, feconda e ferti-
le, che la sua ubiquità e fruttuosità nei processi di formazione
d’ipotesi e di ampliamento della conoscenza è talmente « ovvia
che difficilmente necessita di essere sottolineata»49. Dall’altra
esse è pericolosa50 e denuncia precisi limiti strutturali51, i quali
devono spingerci ogni volta a «trattarla con attenzione»52.
Innanzitutto l’analogia, come abbiamo già sottolineato, dipen-
de dal contesto (la conoscenza esistente ad un certo istante t), e
quindi non è possibile sapere in modo conclusivo se sia giustifi-
cata o meno, ossia se possano sopraggiungere condizioni e in-
formazioni che inibiscano o favoriscano la costruzione di argo-
menti analogici. L’evoluzione del contesto, ad esempio della co-
noscenza e dei risultati noti su due sistemi di conoscenza a un
dato istante t, potrebbe autorizzare inferenze analogiche che pre-
cedentemente non erano possibili, o viceversa. Ciò rappresenta
una ricchezza, ma anche un preciso limite dell’inferenza basata
sull’analogia. Un limite che probabilmente attiene a tutta la cono-
scenza.
In secondo luogo l’analogia, proprio per questo motivo, gode
di un'efficacia solo locale, come mostra con particolare evidenza
il caso dell’analogia finito-infinito per le somme nella soluzione
di Eulero del problema di Mengoli.
Inoltre l’analogia è una forma di inferenza ampliativa di carat-
tere conservativo: essa amplia la conoscenza in un modo ristretto,
ossia suggerendo che ciò che non è noto si comporta come ciò
49
Bunge 1967, 265. 50
Cfr. Poya 1954, I, 34 e 221-222. 51
Cfr. p. es. Bunge 1967, Vogt - Aras - Balzer 2004, Marchildon 2006. 52
Parker 2003, 200.
che è già noto. Come sottolinea Bunge53, essa conviene sempre
perché è comunque informativa, in quanto permette in ogni caso
di conoscere qualcosa di nuovo sul dominio indagato. Esistono
infatti due possibili esiti del processo analogico.
Se l’ipotesi analogica supera i test di confronto con la cono-
scenza esistente, e quindi è plausibile, si produce conoscenza del
fatto che i due domini sono simili sotto certi aspetti. Se al contra-
rio l’ipotesi candidata per via analogica non supera i test di con-
fronto con la conoscenza esistente, allora sapremo che è necessa-
rio ricorrere a qualcosa di davvero nuovo per trattare i fenomeni
indagati. Nessuna analogia è dunque davvero cattiva, se non si è
acritici.
È opportuno sottolineare che nel primo caso, ossia di supera-
mento del test di confronto, l’analogia può naturalmente andare
ancora incontro a limitazioni54, la quali possono ancora essere
istruttive e fruttuose, poiché consentono di comprendere fino a
che punto la conoscenza proiettata dall’analogia su un dominio
parzialmente ignoto è ulteriormente estendibile o quali siano le
ulteriori dissimilarità tra i due sistemi di conoscenze comparati.
Il limite intrinseco dell’analogia nasce dal fatto che è proprio
ciò che è davvero nuovo, nel senso che amplia in modo radicale
la nostra conoscenza (che è differente da ogni proprietà o struttu-
ra di cui abbiamo già conoscenza), che non può essere scoperto e
trattato anche solo in linea di principio mediante l’analogia.
Inoltre l’analogia soffre di un altro limite, di natura diacroni-
53
Bunge 1967. 54
Cfr. p. es. Moore 2005.
Inferenze ampliative
97
ca: infatti inizialmente può avere successo ed essere fruttuosa,
per poi rivelarsi un vero e proprio non-senso, e alimentare uno
stallo teorico. Per esempio, come sottolinea dettagliatamente
Bunge, un caso particolarmente interessante è quello
dell’analogia tra sistemi quantistici e le particelle e le onde clas-
siche, che «è diventata una vera e propria barriera che impedisce
una interpretazione coerente della teoria»55.
Un’analogia inizialmente fruttuosa può pertanto diventare un
non-senso, che finisce per ostacolare il processo di crescita e am-
pliamento della conoscenza. Dunque «le analogie sono destinate
a collassare anche se inizialmente fertili»56. L’unico modo per
superare questi limiti è sottoporre le entità ottenute mediante in-
ferenze analogiche, e più in generale ampliative, ad un continuo
processo di moltiplicazione dei punti di vista, che produce una
molteplicità di valenze e polisemie capaci di renderle suscettibili
di sempre nuove trasformazioni e trattazioni.
L’esistenza di tali limiti non deve comunque spaventare: essi
evidenziano come l’incertezza sia costitutiva di ogni conoscenza
che sia davvero ampliativa e come non esista un processo infe-
renziale e conoscitivo giustificato in modo conclusivo e oltre o-
gni ragionevole dubbio. Come vedremo nel prossimo e conclusi-
vo capitolo, è proprio l’idea e la fede in una conoscenza al riparo
di ogni dubbio a essere illusoria e intrinsecamente limitata.
55
Ivi, 265. 56
Ibid.
5
Ampliatività e verità
1. Il problema della verità
In questo capitolo conclusivo analizzo in primo luogo il rapporto
tra la nozione di ampliatività e quella di verità, il quale mi per-
mette di chiarire lo statuto dell’inferenza ampliativa e di argo-
mentare come una sua attenta analisi motivi un ripensamento del-
la caratterizzazione della nozione di inferenza. Quindi analizzo la
natura della conoscenza prodotta dall’inferenza ampliativa, e so-
stengo la tesi che tale conoscenza non è un surrogato di quella
prodotta dal ragionamento dimostrativo.
La presunta simmetria tra inferenza ampliativa e inferenza
non-ampliativa rispetto alla verità, sostenuta dalla concezione
standard dell’inferenza, è in un senso preciso insostenibile.
Essa si basa infatti sull’assioma che esista una separazione tra
conoscenza vera, ottenuta mediante inferenze deduttive (ossia
non-ampliative), e conoscenza solo plausibile, ottenuta al massi-
mo mediante inferenze ampliative, e che la seconda sia in qual-
che modo un correlato e un surrogato della prima, uno strumento
cui si deve ricorrere quando e fino a che non sia possibile deter-
minare la verità.
L’obiettivo di questo capitolo è quello di mettere in discussio-
ne tale assioma e la posizione che ne discende, mostrando come
questo si basa su ipotesi e argomenti che non raggiungono il loro
scopo.
A tal fine introduco la nozione di plausibilità per caratterizza-
re la nozione di inferenza, e confuto le basi della separazione tra
vero e plausibile mediante una caratterizzazione più primitiva
dell’inferenza, dissolvendo l’idea della verità quale strumento
adeguato a render conto in profondità della conoscenza e della
ricerca scientifica. In conclusione sostengo la tesi che l’utilizzo
della plausibilità in luogo della verità quale strumento per caratte-
rizzare l’inferenza sia ampliativa sia non ampliativa non fa venir
meno la possibilità della conoscenza, e quindi non comporta lo
scetticismo.
La tesi dell’asimmetria tra inferenze ampliative e inferenze
non-ampliative rispetto alla verità dipende dall’ipotesi, accettata
da molte moderne teorie della conoscenza1, che esiste una cono-
scenza certa e indubitabile, che è quella ottenuta con il ragiona-
mento dimostrativo, cui si contrappone una solo incerta e provvi-
soria, che è quella appunto ottenibile per mezzo dell’inferenza
ampliativa, la quale è al massimo plausibile. Per esempio Polya2
è un esponente significativo di questo punto di vista. Egli muove
apertamente dall’ipotesi che esista una discontinuità tra il ragio-
namento dimostrativo e il ragionamento non dimostrativo (quello
basato su inferenze ampliative) rispetto alla verità, che la mate-
matica avrebbe la capacità di esibire in modo esemplare.
La discontinuità nasce dal fatto che, secondo questa tesi, il ra-
1 Per una analisi di questa concezione v. Cellucci 2008. 2 v. Polya 1954.
gionamento non-ampliativo (deduttivo) è in grado di giustificare
in modo certo e conclusivo le nostre conoscenze tramite processi
inferenziali che preservano la verità. Esso «è definitivo, conclusi-
vo, meccanico» mentre il ragionamento ampliativo è al massimo
plausibile, quando non produce falsità, ed è «provvisorio, specifi-
camente umano»3. Il ragionamento ampliativo è inoltre difettoso
e un surrogato del ragionamento dimostrativo, in quanto non è in
grado di giustificare in modo definitivo le conclusioni ottenute
perché non gode della proprietà di preservare la verità nel corso
del processo inferenziale. Queste due forme di conoscenza, di
conseguenza, sono contraddistinte da una profonda asimmetria: le
loro conclusioni, infatti, «sono su livelli logici differenti»4 in
quanto quelle del ragionamento dimostrativo «sono sullo stesso
livello delle premesse»5, mentre in quelle ampliative la conclu-
sione non ha lo stesso status o la stessa forza delle premesse. Tale
asimmetria è una delle principali ragioni su cui risiede la classica
separazione logica e temporale tra scoperta e giustificazione, tesi
che, sotto altri aspetti, abbiamo già avuto modo di mettere in di-
scussione occupandoci dell’analogia multipla.
2. Plausibilità e ampliatività
La tesi dell’asimmetria tra ampliatività e non-ampliatività rispetto
3
Polya 1968, II, 115. 4
Ivi, 113. 5
Ivi, 115.
alla verità fa capo all’assunzione che la prima deriva la sua cer-
tezza da una fonte della conoscenza indubitabile e infallibile e
che è garantita da un metodo, quello assiomatico-deduttivo, che
la preserva nel corso del ragionamento, mentre la seconda è in-
certa e fallibile in quanto caratterizzata da premesse o metodi
incerti, ossia tali non solo da non preservare la verità, ma capaci
al massimo di conferire solo un qualche grado di sostegno alle
sue conclusioni, quando non generano vere e proprie falsità.
L’inferenza ampliativa, secondo questa posizione, può aspirare al
massimo alla produzione di conoscenza plausibile, una forma di
conoscenza surrogata rispetto a quella deduttiva, che non dà ac-
cesso ad una vera e propria forma di conoscenza.
Tuttavia questa assunzione, come vedremo, è insostenibile al
vaglio di un rigoroso esame filosofico delle sue ragioni. Questo
esame muove da una riconsiderazione del ruolo della plausibilità
nella conoscenza e della nozione di inferenza, ossia di cosa debba
intendersi per inferenza.
2.1. Caratterizzazione della plausibilità
La plausibilità è una nozione complessa6, che può essere comun-
que caratterizzata come una forma di compatibilità con la cono-
scenza esistente, nel senso che un’ipotesi è plausibile quando at-
traverso una comparazione delle ragioni a favore e contro
l’ipotesi sulla base della conoscenza esistente, «le ragioni a favo- 6 v. Ippoliti 2007.
re prevalgono su quelle contro di essa»7. Questa nozione si basa
dunque su un processo qualitativo, che non ha una natura né sog-
gettiva né psicologica. Essa dipende in modo essenziale dal con-
testo e dalla conoscenza esistente all’interno della quale viene
prodotta la valutazione.
Poiché l’insieme delle conoscenze esistenti è in continua evo-
luzione, il processo di confronto dell’ipotesi ottenuta mediante
inferenze ampliative con la conoscenza esistente può avere esiti
diversi a seconda del contesto cui fa riferimento a un dato tempo
t: un’ipotesi plausibile in un certo contesto c a un dato tempo t
può risultare non più tale a un tempo successivo t+. E viceversa.
Di conseguenza varia anche la possibilità di istituire inferenze
ampliative, che dipendono a loro volta dai dati e dall’insieme di
conoscenze di cui disponiamo e che intervengono nel corso della
modellazione dello spazio combinatorio delle ipotesi.
Inoltre esiste una precisa separazione tra la nozione di plausi-
bilità e quella di probabilità.
In primo luogo la conclusione di un'inferenza non-deduttiva
può non essere probabile, e «tuttavia può essere plausibile, anzi,
può persino essere più plausibile delle sue premesse»8. Nel caso
delle conclusioni di un’inferenza probabilistica, invece, non solo
esse sono o equi-probabili o meno probabili delle loro premesse,
ma soprattutto, come abbiamo visto nel capitolo precedente oc-
cupandoci dell’analogia, un’ipotesi può risultare plausibile anche
quando la sua probabilità è molto bassa o virtualmente nulla. La
7
Cellucci 2005, 147. 8
Ibid.
formulazione di molte ipotesi per mezzo di inferenze ampliative
avviene infatti sulla base di un numero anche molto piccolo di
osservazioni (al limite anche di una sola) e si può riferire a un
numero anche infinito di casi, per cui il rapporto tra casi favore-
voli e casi possibili è tale da assegnare all’ipotesi un valore pro-
babilistico molto basso o prossimo allo zero.
Inoltre in molte inferenze plausibili il numero delle ragioni
adducibili contro la candidatura della conclusione può anche su-
perare di gran lunga quelle a favore, e quindi determinare ancora
una probabilità molto bassa, e questa essere comunque motivata.
Viceversa, inferenze plausibili basate sul conforto di un numero
elevato di ragioni a favore possono rivelarsi non solo non motiva-
te, ma palesemente scorrette.
Pertanto probabilità e plausibilità non concordano in almeno
due sensi:
- la probabilità non fornisce un criterio per formare ipotesi
plausibili;
- la probabilità non può neanche essere una guida affidabile
nella scelta tra diverse ipotesi plausibili.
2.2. Caratterizzazione dell’inferenza
La caratterizzazione dell’inferenza adottata in questo testo si basa
su una concezione contenutistica, in particolare di natura esterna-
lista, che è l’unica adottabile da una concezione euristica. Essa è
motivata dall’esigenza di fornire una risposta ai limiti della carat-
terizzazione standard dell’inferenza9, i quali derivano principal-
mente dal fatto che, come osserva Cellucci, questa «non offre
alcuna spiegazione del ruolo che l’inferenza deduttiva gioca nella
conoscenza»10. Invece un’adeguata giustificazione delle inferen-
ze deduttive e non-deduttive richiede la costruzione di una spie-
gazione del ruolo che esse svolgono nella conoscenza. Questo
compito necessita dunque un ripensamento degli scopi della logi-
ca sia deduttiva sia non-deduttiva.
Innanzitutto la definizione, propria della caratterizzazione
standard, dell’inferenza semplicemente come il passaggio da un
insieme di proposizioni a un’altra proposizione, presenta dei limi-
ti. Infatti l’inferenza può essere più propriamente definita come il
passaggio da una quantità di dati a un altro dato, a meno che non
si vogliano escludere forme d’inferenza, tra le quali per esempio
possiamo annoverare quelle compiute dai neonati o dagli animali
o quella basate sulla visione, che non sono di natura strettamente
proposizionale.
In secondo luogo la distinzione delle inferenze in deduttive e
non-deduttive proposta dalla concezione standard, basata sulla
proprietà della preservazione della verità, è inadeguata perché si
avvale di una proprietà derivata. La preservazione della verità,
infatti, non è una caratteristica primitiva dell’inferenza, ma segue
dalla proprietà oggetto d’analisi di questo testo, ossia
l’ampliatività.
Come abbiamo visto all’inizio di questo libro, un’inferenza è
9 Cfr. p. es. Popper 1979. 10
Cellucci 2006, 222.
non-ampliativa semplicemente quando la sua conclusione non
contiene nulla che non sia già contenuto nelle premesse, nel sen-
so che essa rende esplicito nella conclusione ciò che è già impli-
cito nelle premesse, dove per contenuto di una proposizione si
intende l’informazione contenuta in essa.
Dall’altra parte un’inferenza è invece ampliativa quando il
contenuto delle premesse non è già implicito ed esplicitabile nelle
premesse, e quindi esse introducono informazione che è davvero
nuova rispetto a esse, ossia nuova rispetto ai dati.
Questa distinzione si basa su una nozione di contenuto diversa
da quella adottata dalla concezione standard11, in quanto tale no-
zione non viene più espressa semplicemente e unicamente in ter-
mini proposizionali, ma sulla base della nozione di informazione
non-proposizionale, e quindi su un concetto complesso d’infor-
mazione.
Alla luce di questa caratterizzazione delle inferenze facente ri-
ferimento a una proprietà più primitiva, bisogna considerare da
una parte le inferenze deduttive come semplicemente non-
ampliative, e la proprietà della preservazione della verità come
una semplice conseguenza della non-ampliatività, e considerare
dall’altra parte le inferenze non-deduttive come semplicemente
ampliative.
Da ciò segue che, da una parte, le inferenze deduttive sono de-
finibili non come tali da preservare la verità, ma come non-
ampliative, e dall’altra parte che le inferenze non-deduttive non
come quelle le cui premesse forniscono solo qualche grado di 11 Cfr. p. es. Popper 1979.
conferma alle conclusioni, ma come ampliative. Questa caratte-
rizzazione dell’inferenza consente di render conto del ruolo svol-
to dalle inferenze nella nostra conoscenza, offrendo un ripensa-
mento degli stessi scopi della logica sia nella sua forma deduttiva
sia nella sua forma non-dedutiva.
Sulla base di tale caratterizzazione si può infatti riconsiderare
il ruolo delle inferenze deduttive e non-deduttive nel modo se-
guente:
- il ruolo delle inferenze deduttive, in quanto non-ampliative,
può essere meglio descritto non come quello di preservare, nel
corso dei passaggi inferenziali, la verità, ma piuttosto la plausibi-
lità, rendendo esplicita informazione implicita nelle premesse;
- il ruolo delle inferenze non-deduttive, in quanto ampliative,
è quello di modellare lo spazio combinatorio delle ipotesi, ossia
di trovare ipotesi adeguate alla soluzione dei problemi partendo
dalle informazioni e dai dati disponibili, ossia ipotesi plausibili.
Conseguentemente si ha che lo scopo della logica deduttiva è
quello di ottenere conclusioni plausibili da premesse plausibili,
mentre lo scopo della logica non-deduttiva è quello di fornire
strumenti per trovare ipotesi adeguate alla soluzione di problemi
partendo dai dati disponibili e dalla conoscenza esistente.
3. Ampliatività e conoscenza
Sulla base di quanto detto finora è possibile costruire un argo-
mento che mostra come l’ipotesi dell’asimmetria tra verità e am-
pliatività si riveli, in un senso preciso, difettosa e insostenibile.
Per poter stabilire la verità di una qualsiasi conclusione da un
dato insieme di premesse, bisogna infatti poter fornire una dimo-
strazione di entrambi i seguenti e nell’ordine in cui compaiono:
1) tali premesse sono vere;
2) esistono metodi che preservano questa proprietà nel corso
dei processi inferenziali.
Per poter assolvere questo compito è necessario, a sua volta,
poter individuare:
1) una fonte conoscitiva che sia certa e non ingannevole, tale
da garantire la verità delle premesse da cui segue la nostra cono-
scenza;
2) una forma di ragionamento capace di trasmettere la verità
dalle premesse alle conclusioni.
Tuttavia non è possibile soddisfare questi due obiettivi. Infatti
non è possibile soddisfare il primo e di conseguenza, come ve-
dremo, viene meno la possibilità di soddisfare anche il secondo.
Infatti, in primo luogo, non si dà qualcosa come una fonte co-
noscitiva in grado di sottrarre all’incertezza gli oggetti della co-
noscenza, ma tali fonti sono difettose e fallaci, o richiedono pro-
cedure non fattibili. Non esistono proposizioni prime immedia-
tamente vere in grado di garantire la verità della nostra conoscen-
za.
Per poter dimostrare che esiste una tale fonte, e di conseguen-
za proposizioni di questa natura, bisognerebbe infatti essere in
grado di poter fornire dimostrazione di uno dei seguenti due fatti:
- è possibile dar conto dell’esistenza di una facoltà (p. es.
l’intuizione intellettuale o sensibile) da cui scaturisce la verità di
queste proposizioni prime;
- esiste ed è fattibile una procedura atta a fissare la verità di ta-
li proposizioni.
Tuttavia, ancora, non è possibile fornire un argomento conclu-
sivo a favore di nessuna di queste due asserzioni.
Nel primo caso non è possibile dar conto di alcuna facoltà cer-
ta e indubitabile in grado di cogliere la verità di un oggetto cono-
scitivo in modo infallibile e oltre ogni ragionevole dubbio. Anzi
non solo come dimostrano gli errori prodotti dall’intuizione sen-
sibile e intellettuale in diversi ambiti scientifici tali fonti conosci-
tive sono difettose e ingannevoli, ma la loro giustificazione si
basa su argomentazioni circolari12.
Il secondo caso invece è leggermente diverso, in quanto è una
questione che ammette almeno in linea di principio una soluzio-
ne. Infatti c’è una procedura in grado di fissare la verità di una
proposizione o un insieme di proposizioni: la verifica di tutte le
sue conseguenze. Se tutte le proposizioni Pn che seguono da una
data proposizione A sono vere, allora A sarà vera.
Tuttavia anche se in linea di principio questo è un compito
possibile, non è umanamente fattibile. A conforto di questa asser-
zione si può addurre un risultato che è una semplice conseguenza
del teorema d’incompletezza di Gödel. Esso asserisce che il nu-
mero di Gödel delle conseguenze logiche dell’aritmetica di Peano
del secondo ordine non è ricorsivamente enumerabile. Dunque,
poiché non esiste una procedura algoritmica per assolvere questo 12
Cfr. Cellucci 2006, par. 2.
compito, allora a maggior ragione esso non è fattibile all’interno
dei limiti dell’universo fisico a noi noto.
Dobbiamo pertanto concludere che non disponiamo di un mo-
do per poter decretare se le premesse da cui dipende la nostra
conoscenza siano vere. Esse sono tuttavia plausibili, nel senso di
compatibili con i dati esistenti, e tale risulta dunque essere la co-
noscenza che segue da esse, la quale è sempre provvisoria e falli-
bile. Ciò vale per tutte le forme di conoscenza, compresa la ma-
tematica. Le premesse da cui dipendono i suoi risultati non sono
affatto certe e vere, ma hanno uno statuto e una esistenza ipotetici
e plausibili nel senso appena specificato, che le assimila a tutte le
altre forme di conoscenza scientifica.
Dunque la matematica non è in discontinuità con le altre for-
me di conoscenza, ma ha esattamente lo stesso statuto epistemo-
logico, dà accesso allo stesso tipo di conoscenza (che è poi la co-
noscenza scientifica in generale).
Anche se quanto dimostrato è sufficiente a stabilire la non so-
stenibilità della tesi dell’asimmetria tra ampliatività e verità, af-
fronto ora brevemente il secondo punto del programma, ossia
l’individuazione di forme di ragionamento in grado di preservare
la verità, e mostro come anche questo obiettivo sia irrealizzabile.
La preservazione della verità, come abbiamo visto, non è una
proprietà primitiva dell’inferenza, ma discende dalla ampliatività
ed è dunque inadeguata a renderne conto. Inoltre mentre la giusti-
ficazione dell’inferenza fornita dal punto di vista standard richie-
de la nozione di verità e si basa su argomentazioni circolari13, la 13
Cfr. ancora Cellucci 2006, par. 2.
giustificazione di carattere contenutistico adottata in questa anali-
si si basa sulla plausibilità, ed è motivata dal ruolo che le inferen-
ze svolgono all’interno della conoscenza.
Le inferenze deduttive, infatti, sono giustificate non perché
preservano la verità, ma perché preservano la plausibilità, perché
a partire da ipotesi plausibili non fanno altro che esplicitare
l’informazione contenuta in essa.
Il ragionamento deduttivo non può essere caratterizzato, come
fa per esempio Polya, semplicemente come preservante la verità,
poiché le premesse sulle quali è basata la nostra conoscenza non
sono vere ma solo plausibili: le inferenze deduttive non preserva-
no la verità perché non c’è alcuna verità da preservare, ma solo la
plausibilità. La giustificazione delle inferenze deduttive, dunque,
è semplicemente una conseguenza della loro non-ampliatività.
Infatti «la loro conclusione è una mera riformulazione del conte-
nuto delle premesse e, pertanto, se le loro premesse sono compa-
tibili con i dati esistenti, tale sarà anche la conclusione»14. Ciò
non toglie nulla alla loro utilità, in quanto il processo di riformu-
lazione del contenuto delle premesse può rendere esplicita infor-
mazione che è solo implicita nelle premesse e ciò permette di
facilitare «il confronto delle premesse con i dati esistenti, e quin-
di stabilendo la loro plausibilità, esaminando le loro conseguen-
ze»15.
Dall’altra parte le inferenze non-deduttive sono giustificate in
virtù del fatto che permettono di trovare ipotesi per risolvere pro-
14
Cellucci 2006, 227. 15
Ibid.
blemi a partire dai dati disponibili e dalla conoscenza esistenza.
Sebbene sia ovvio che nulla è in grado di garantire che le ipotesi
così trovate siano plausibili, in quanto le inferenze non-deduttive
possono essere - e sono - fonti di falsità, solo le inferenze non-
deduttive permettono di trovare ipotesi, tra le quali bisognerà ef-
fettuare una scelta mediante un’attenta valutazione delle ragioni a
favore e le ragioni contro ognuna di esse.
Pertanto sia le inferenze deduttive sia quelle non-deduttive
non sono in grado di produrre conoscenza di per sé, dal loro in-
terno per così dire. Nel caso delle inferenze deduttive, per poter
valutare la plausibilità delle loro premesse è necessario procedere
ad una comparazione con la conoscenza esistente, e quindi con
qualcosa di esterno a esse. Nel caso delle inferenze non-
deduttive, una volta prodotte le ipotesi a partire dai dati disponi-
bili, è necessario valutarne la plausibilità, ossia compararle con la
conoscenza esistente, quindi, ancora, con qualcosa di esterno a
esse. Sulla base di ciò possiamo osservare che le inferenze dedut-
tive sono giustificate nel senso in cui lo sono le inferenze non-
deduttive, «ossia mediante una giustificazione esternalista, che fa
riferimento al loro ruolo nella conoscenza e quindi alla realtà»16.
Dunque le conoscenze che scaturiscono da queste forme di in-
ferenza non sono essenzialmente differenti e non possono essere
poste su piani di alternatività o subordinazione.
Sulla base di questa caratterizzazione sia della nozione di infe-
renza sia della nozione di plausibilità viene a cadere l’asimmetria
e l’eterogeneità tra verità e ampliatività, e, con essa, l’illusione di 16
Ivi, 232.
una conoscenza al riparo da ogni forma di dubbio o incertezza.
L’ampliatività, pertanto, non fa altro che esibire il carattere più
profondo dell’impresa conoscitiva dell’essere umano, eviden-
ziandone tutti i rischi e le debolezze.
Tutte le nostre premesse sono incerte, provvisorie e plausibili
e i nostri metodi sono al massimo in grado di preservare tale
plausibilità e quindi non sottraggono in modo definitivo nessun
oggetto conoscitivo all’incertezza e al dubbio.
Pertanto non esistono inferenze che danno accesso a cono-
scenze certe, contrapposte a conoscenze solo plausibili cui si ar-
riva per via ampliativa, ma tutte le nostre conoscenze sono incer-
te e al massimo plausibili, nel senso che ogni nostra teoria è un
insieme di ipotesi plausibili, non vere.
Ed è per questo motivo che tali conoscenze sono sempre su-
scettibili di nuove rappresentazioni e di un processo di moltipli-
cazione dei punti di vista intorno ai loro oggetti: è sempre possi-
bile organizzare e codificare i dati e le informazioni che essi vei-
colano in modi nuovi, che producono nuove rappresentazioni che
possono essere messe in relazione con la conoscenza di cui di-
sponiamo.
Quindi non solo nulla può metterci al riparo dalla possibilità
che esse si rivelino false, ma soprattutto esimerci dal compito di
incessante ricerca e approfondimento delle ipotesi che sostengo-
no le nostre conoscenze e che dobbiamo essere pronti a rivedere
e, quando è il caso, abbandonare.
È opportuno sottolineare che il dissolvimento della nozione di
verità quale strumento per caratterizzare la conoscenza, e
l’utilizzo in suo luogo di quella di plausibilità, non implica lo
scetticismo, ossia l’idea che la conoscenza non sia possibile. Né
implica un anything goes, l’assunzione di una posizione alla Fe-
yerabend.
La concezione euristica è molto più semplicemente il risultato
di una posizione che riconosce che la nozione di verità non gioca
un ruolo decisivo all’interno dei processi che producono nuova
conoscenza e che ne consentono l’ampliamento e l’avanzamento.
Non a caso la nozione di verità, nelle varie forme in cui è pensata
storicamente e concettualmente, non è uno strumento adeguato a
fornire una spiegazione della conoscenza e della ricerca scientifi-
ca. Essa non solo non riesce a render conto dei principali stru-
menti della conoscenza (come l’inferenza), ma si è anche rivelata
inessenziale ai fini della nascita e dello sviluppo della scienza
moderna17. La plausibilità invece gioca un ruolo decisivo e attivo
nella conoscenza, perché fornisce strumenti per valutare, estende-
re e raffinare le ipotesi che sostengono la conoscenza.
L’ampliatività non è dunque un surrogato o un semplice corre-
lato della verità, uno strumento da utilizzare provvisoriamente in
luogo della verità fino a quando essa non possa venir determina-
ta, ma è l’obiettivo principale della conoscenza umana, l’oggetto
della continua tensione e dello sforzo conoscitivo dell’uomo.
L’affermazione che la conoscenza è plausibile e non vera non
richiede di sostenere la tesi che la conoscenza non sia possibile,
ma si basa semplicemente su una diversa caratterizzazione dei
17
Per un’analisi delle varie forme in cui la nozione di verità è stata pensata e della sua
irrilevanza per lo sviluppo della scienza moderna cfr. Cellucci 2008.
Inferenze ampliative
115
suoi oggetti. Essa richiede invece di abbandonare l’idea che esista
qualcosa, come la verità appunto, in grado di sottrarre definiti-
vamente la conoscenza a ogni ragionevole dubbio e riconosce
l’incertezza come costitutiva e ineliminabile di ogni nostra cono-
scenza, sviluppando e perfezionando strumenti per gestirla e limi-
tarla.
L’incertezza, la provvisorietà e la fallibilità delle conclusioni
prodotte dalle inferenze ampliative non producono una conoscen-
za surrogata, o una assenza di conoscenza, ma sono il prodotto di
un pensiero che ha raccolto e raccoglie ogni volta la sfida cono-
scitiva che i nostri limiti ci pongono di fronte, limiti che le infe-
renze ampliative contribuiscono a superare, a tentare continua-
mente di espandere.
Bibliografia
Alexander, J.: 1923, A lemma on a system of knotted curves,
«Proc. Nat. Acad. Sci. USA», 9, 93-5.
Antonelli, A.: 2004, La logica del ragionamento plausibile, in: L.
Floridi (a cura di), «Linee di ricerca», SWIF, 226-52.
Artin, E.: 1925, Theorie der Zopfe, «Hamburg Abh», 4, 47-72.
Artin, E.: 1947, Theory of braids, «Annals of Mathematics», 48
(2), 101-26.
Benaceraff, P.: 1996, What mathematical truth could not be, in:
Morton, A. - Stich, S. (a cura di), Benaceraff and his crit-
ics, Blackwell, 9-59.
Black, M.: 1962, Models and metaphors: Studies in language and
philosophy, Cornell University Press, Cornell.
Boniolo-Vidali: 1999, Filosofia della scienza, Bruno Mondadori,
Milano.
Borwein, P. – Jörgenson, L.: 2001, Visible Structures in Number
Theory, «The American Mathematical Monthly», 108 (10),
897-910.
Brown, J. R.: 1997, Proofs and pictures, «Brit. Jour. Phil. Sci.»,
48, 161-80.
Brown, J. R.: 1999, Philosophy of mathematics. An introduction
to the world of proof and pictures, Routledge, New work.
Bunge, M.: 1967, Analogy in quantum mechanics: from insight to
nonsense, «British Journal for the Philosophy of Science»,
18 (4), 265-86.
Byers, W.: 2007, How mathematicians think, Princeton Univer-
sity Press, Princeton.
Carnap, R.: 1950, Logical foundations of probability, The Uni-
versity of Chicago Press, Chicago.
Cellucci, C.: 1998, Le ragioni della Logica, Laterza, Roma - Ba-
ri.
Cellucci, C.: 2002, Filosofia e matematica, Laterza, Roma.
Cellucci, C.: 2005, Mathematical discourse vs. mathematical in-
tuition, in: Cellucci, C. - Gillies, D. (a cura di), Mathemati-
cal Reasoning and Heuristics, King’s College Publica-
tions, London, 137-165.
Cellucci, C.: 2006, The question Hume didn’t ask: why we should
accept deductive inference, in: Cellucci, C. - Pecere, P. (a
cura di), Demonstrative and Non-Demonstrative Reasoning
in Mathematics and Naturals Science, Edizioni
dell’Università degli Studi di Cassino, Cassino, 207-235.
Cellucci, C.: 2008, Perché ancora la filosofia, Laterza, Roma,
draft.
Copi, I.: 1961, Introduction to logic, trad. it. Lupacchini R., In-
troduzione alla logica, 1997, Il Mulino, Bologna.
Corfield, D.: 2003, Towards a philosophy of real mathematics,
Cambridge University Press, Cambridge.
Davies, T. R.: 1988, Determination, uniformity and relevance:
normative criteria for generalization and reasoning by
analogy, in: Helman, D. H. (a cura di), Analogical Reason-
ing, Kluwer Academic Publisher, 227-250.
Elio, R.: 2002, Belief revision and plausible inference, draft.
van Es, A.: 2004, Essay on analogy in mathematics, «Philosophy
of Mathematics Education Journal», 18.
Euler, L.: 1784, Introductio in analysin infinitorum, I, in: Krazer,
A. - Rudio, F. (a cura di), Opera Omnia, Serie prima, VIII.
Epple, M.: 1999, Geometric aspetcs in the development of knot
theory, in: James, I. M. (ed.), History of topology, Elsevier
BV, Amsterdam, 301- 358.
Feynman, R. P.: 1967, The character of physical law, MIT press,
Massachusetts.
Fox, R.H.: 1962, A quick trip through knot theory, in: Topology
of 3-manifold and related topics, Fort, M.K. Jr. (ed.), Pren-
tice-Hall, Englewood Cliffs (NJ), 120-67.
Gelfond, M. - Watson, R.: 2003, Nonmonotonic Logic, in: The
Encyclopedia of Cognitive Science, Nature Publishing
Group-Macmillan Reference Inc, UK, 375-82.
Giaquinto, M.: 1992, Visualizing as a means of geometrical dis-
covery, «Mind and Language», 381-401.
Giaquinto, M.: 1993, Visualizing in Arithmetic, «Philosophy and
Phenomenological Research», LIII, 385-96.
Giaquinto, M.: 1994, Epistemology of visual thinking in elemen-
tary real analysis, «The British Journal for the Philosophy
of Science», 45 (3), 789-813.
Giaquinto, M.: 2007, Visual thinking in mathematics, Oxford
University Press, Oxford.
Goetgheluck, P.: 1993, Fresnel zones on the screen, «Experimen-
tal mathematics», 2(4), 301-9.
Grosholz, E. R.: 2000, The partial unification of domains, hy-
brids, and the growth of mathematical knowledge, in:
Grosholz, E. - Breger, H. (a cura di), The growth of
mathematical knowledge, Kluwer, Dordrecht.
Grosholz, E. R.: 2007, Representation and productive ambiguity
in mathematics and the science, Oxford University Press,
Oxford.
Hacking, I.: 1975, The emergence of probability. A philosophical
study of early ideas about probability, induction and statis-
tical inference, Cambridge University Press, Cambridge.
Hadamar, J.: 1945, The psychology of invention, Princeton Uni-
versity Press, Princeton.
Hardy, G. H.: 1908, A course of pure mathematics, Press Syndi-
cate of the University of Cambridge, London.
Hesse, M.: 1966, Models and analogies in science, University
Notre Dame Press, Notre Dame, Indiana.
Hersh, R.: 1999, What is mathematics, Really?, Oxford Univer-
sity Press, Oxford.
Hersh, R.: 2007, Review of “How mathematicians think” by Wil-
liam Byers, «Notices of AMS», 54 (11), 1496-1499.
Horgan, J. 1993, The death of proof, «Scientific American», 269,
4.
Ippoliti, E.: 2002a, Mathematical creativity by CCG-
visualization, in: Proceedings of Creativity in Mathematics
Education and Education of Gifted Students, University of
Latvia, Riga, 22-3.
Ippoliti, E.: 2002b, Cognitive visualization of some integer-
valued polynomials, «Visual Mathematics», 4 (1).
Ippoliti, E.: 2006, Demonstrative and Non-demonstrative reason-
ing by analogy, in: Cellucci, C. - Pecere, P. (a cura di),
Demonstrative and Non-Demonstrative Reasoning in Ma-
thematics and Naturals Science, Edizioni dell’Università
degli Studi di Cassino, Cassino, 307-338.
Ippoliti, E.: 2007, Il vero e il plausibile, Lulu, Morrisville (NC).
James, I. M. (ed.): 1999, History of topology, Elsevier BV, Am-
sterdam.
Juthe, A.: 2005, Argument by analogy, «Argumentation», 19, 1-
27.
Kokinov, B.: 1994, A hybrid model of reasoning by analogy. In:
Holyoak, K. J. - Barnden, J. A. (a cura di), Analogical
Connections, Advances in connectionist and neural compu-
tation theory, II, Ablex Publishing Corporation, Norwood,
New Jersey, 247-318.
Lien, M - Watkins, W.: 2000, Dual graphs and knot invariants,
«Linear Algebra Appl.», 306 (1-3), 123–30.
Mancosu, P. – Jorgensen, K. – Pedersen, S.: 2005, Visualization,
explanation and reasoning styles in mathematics, Springer,
Amsterdam.
Marchildon, L.: 2006, Bohmian trajectories and the ether: where
does the analogy fail?, «Studies in History and Philosophy
of modern physics», 37, 263-274.
Melis, E. - Veloso, M.: 1998, Analogy in problem solving, in:
Farinas del Cerro, L. - Gabbay, D. - Ohlbach, H. J. (a cura
di), Handbook of Practical Reasoning - Computational and
Theoretical Aspects, Oxford University Press.
Moore, N.T. - Grosberg, A.Y.: 2005, The limits of analogy be-
tween self-avoidance and topology-driven swelling of po-
lymer loops, «Phys-ical Review E», 76 (6 Pt 1), 061803-1-
10.
Parker, K.: 2003, Analogy: handle with care, «Physics Educa-
tion», 38 (3), 200-201.
Poincarè, H. P.: 1895, Analysis situs, «J. de L’Ecole Polytecni-
que», II (1), 1-121.
Polya, G.: 1954, Induction and analogy in mathematics, I - In-
duction and analogy in mathematics, II - Patterns of plaus-
ible inference, Princeton University Press, Princeton.
Polya, G.: 1957, How to solve it, Princeton University Press,
Princeton.
Popper, K.: 1979, Objective knowledge, Claredon Press, Oxford.
Russell, S.: 1988, Analogy by similarity, in: Helman, D. H. (a
cura di), Analogical Reasoning, Kluwer Academic Pub-
lisher, 251-269.
Shelley, C.: 1999, Multiple analogies in evolutionary biology,
«Stud. Hist. Phil. Biol. & Biomed. Sci.», 30 (2), 143-80.
Shelley, C.: 2002a, Analogy Counterarguments and the Accepta-
bility of Analogical Hypotheses, «British journal for the
philosophy of science», 53 (4), 477-96.
Shelley, C.: 2002b, The analogy theory of disanalogy: when con-
clusions collide, «Metaphor and Symbols», 17 (2), 81-97.
Shelley, C.: 2003, Multiple analogies in science and philosophy,
John Benjiamins, Amsterdam-New York.
Talaly, L. E.: 1987: Rethinking the function of clay figurine legs
from Neolithic Greece: an argument by analogy, «Ameri-
can Journal of archaeology», 91 (2), 161-69.
Tzanakis, C.: 1998, Discovering by analogy: the case of
Schrödinger’s equation, «European Journal of Physics»,
19, 69-75.
Van Bendegem, J. P.: 2000, Tools for the mathematician, in: Hal-
lyn, F. (a cura di), Metaphor and analogy in the sciences ,
Kluwer Academic Publisher, 105-27.
Vogt, H. - Aras, Ö. - Balzer, R. J.: 2004, The limits of analogy
between boiling and gas evolution at electrodes, «Interna-
tional journal of heat and mass transfer», 47, 878-95.
Weitzenfeld, J.: 1984, Valid reasoning by analogy, «Philosophy
of science», 51, 137-149.
Zenkin, A: 1990, Waring's problem from the standpoint of the
cognitive interactive computer graphics, «An International
Journal - Mathematical and Computer Modelling», 13 (11),
9 - 25.
Zenkin, A: 1991, Cognitive Computer Graphics. Applications in
Number Theory, NAUKA, Mosca.