Marchini -Il Problema Ontologico Della Matematica
description
Transcript of Marchini -Il Problema Ontologico Della Matematica
C. Marchini – Lezioni di Epistemologia e Storia della Matematica I/2
1
Il problema ontologico della Matematica Lezioni di Epistemologia e Storia della Matematica I/2
Carlo Marchini
1. Il Principio di ragione sufficiente (prima parte).
Il problema ontologico risale ai primordi della speculazione filosofica e scientifica.
Il termine però è moderno, essendo stato introdotto nel 1729, da C. Wolff (1679 - 1754), col testo
Ontologia sive Filosofia prima.
Col termine Ontologia si intende indicare la scienza dell'essere in generale; essa, come dice il titolo
del testo di Wolff, corrisponde a quella ricerca dell'essere in quanto essere che Aristotele aveva
assegnato alla cosiddetta "filosofia prima", che dai seguaci di Aristotele viene indicata col termine
Metafisica, ed alla ricerca su Dio.
Wolff identificava l'Ontologia con la metafisica generale, preliminare alle tre scienze metafisiche
per eccellenza: la psicologia razionale, la cosmologia razionale e la teologia razionale.
L'impostazione wolffiana è diversa da quella classica in quanto il filosofo tedesco era ispirato nella
sua sintesi alle idee di Leibniz per cui il possibile viene prima del reale, sicché col termine ‘ente’
(participio presente del verbo essere) si indica ciò che può esistere, prescindendo dal fatto che esista
o meno. L'esistenza assume il ruolo di complemento della possibilità.
Da queste premesse le basi dell'ontologia non sono date dalla concreta esistenza, ma dal Principio
di non contraddizione e dal Principio di ragione sufficiente.
Leibniz aveva formulato tale principio e ne aveva colto la presenza anticipatrice in vari momenti
della storia del pensiero.
Ad esempio nell'idea di Archimede che se si posano due pesi eguali, su due piatti di una bilancia a
due bracci, non c'è ragione che uno si abbassi e l'altro si alzi.
Analogamente (e questo ha grande rilievo nel calcolo delle probabilità), se si lancia un dado
equilibrato, non c'è ragione per cui debba uscire una faccia con maggiore frequenza delle altre.
Nella Monadologia, Leibniz afferma che niente può esistere o accadere, e nessuna proposizione
essere vera, senza una ragione sufficiente perché sia così, anziché altrimenti.
Dunque l'esistenza degli enti è ricondotta alla applicazione di tale principio: un ente esiste, almeno
in senso potenziale, dato che non ci sono ragioni contrarie alla sua esistenza.
C. Marchini – Lezioni di Epistemologia e Storia della Matematica I/2
2
2. Condizione necessaria e sufficiente.
L'idea di ragione sufficiente, è entrata di peso nella Matematica, invece che come ragione, come
condizione. E da questa terminologia filosofica che si traggono le condizioni necessarie e le
condizioni sufficienti, distinguendo tra le due.
- Sono sufficienti le condizioni che determinano una conseguenza,
- sono necessarie quelle che forniscono una spiegazione completa del fatto.
Un esempio è dato dall'enunciato un teorema di analisi tratto da un testo di Tonelli:
«Condizione necessaria e sufficiente perché una funzione f: [a,b] → � abbia funzione inversa continua è che f sia
continua in [a,b] e strettamente monotona.»
Oggi sui libri più aggiornati è facile incontrare:
Data f: [a,b] → �, la corrispondenza inversa f^ è una funzione continua se e solo se f è continua in
[a,b] e strettamente monotona.
E' poi possibile sostituire la locuzione se e solo se, che potrebbe essere oggetto di un ulteriore
approfondimento, sul significato di ‘solo’ in essa, con la doppia implicazione:
Se la corrispondenza inversa f^ è una funzione continua, allora f è continua in [a,b] e strettamente
monotona;
se f è continua in [a,b] e strettamente monotona, allora la corrispondenza inversa f^ è una funzione
continua.
Scritto l'enunciato del teorema in questo modo più "asettico", la prima affermazione da provare è la
cosiddetta condizione necessaria, la seconda è quella sufficiente. Solo che ora non è chiaro per cosa
sia necessario e a cosa sia sufficiente, dato che si tratta di due dimostrazioni distinte.
L’affermazione che
Condizione necessaria e sufficiente perché una funzione f: [a,b] → � sia continua e strettamente
monotona è che la corrispondenza inversa f^ sia una funzione continua.
è un risultato dimostrabile, date le proprietà della doppia implicazione e in questo modo si evidenzia
che il ruolo della necessità e della sufficienza non è "intrinseca" nel fatto analizzato, ma dipende
solo dalla presentazione verbale dello stesso.
Meglio ancora è trovare condizioni necessarie ma non sufficienti, oppure sufficienti, ma non
necessarie. Si ha ad esempio il cosiddetto Teorema di Fermat:
Sia f: [a,b] → � è continua e derivabile in ]a,b[ e x0∈]a,b[; condizione necessaria, ma non
sufficiente, perché x0 sia un punto di massimo o di minimo relativo per f è che f’(x0) = 0.
C. Marchini – Lezioni di Epistemologia e Storia della Matematica I/2
3
La necessità individua in modo completo il verificarsi, cioè si ha proprio che f’(x0) = 0. La
condizione sarebbe sufficiente se ogni volta che la funzione ha la derivata prima nulla in un punto,
ivi ha un massimo od un minimo relativo.
Ma non si ha la sufficienza della condizione e ciò si può vedere con un solo (contro)esempio, quello
della funzione y = x3, che in 0 ha derivata prima nulla, ma non ha un punto di minimo (ha un flesso
orizzontale).
Se si scrive l'enunciato in forma implicativa, la mancanza della condizione sufficiente è
semplicemente il fatto che l'implicazione che si ottiene scambiando l'antecedente con il conseguente
non è dimostrabile (come viene garantito dalla scelta del controesempio). Anche qui è possibile
scambiare necessità e sufficienza:
Sia f: [a,b] → � è continua e derivabile in ]a,b[ e x0∈]a,b[; condizione sufficiente, ma non
necessaria, perché f’(x0) = 0 è che x0 sia un punto di minimo o di massimo relativo per f.
Come si vede quindi i concetti di necessità e sufficienza, che hanno una origine di carattere
filosofico (come attributi di ragione), diventano ambigui, perché il ruolo di causa ed effetto che è
presente nel linguaggio filosofico, cessa di essere così pregnante in quello matematico. L'uso poi di
necessità e sufficienza, visti come operatori modali porta seri problemi alle proprietà
dell'eguaglianza, come visto in altre lezioni.
3. Il Principio di ragion sufficiente (seconda parte).
Ritorno al principio di ragione sufficiente. Il Principio stesso si applica tanto alle verità di ragione,
quelle che vengono viste come logicamente necessarie, quanto alle verità di fatto, che sono solo
logicamente contingenti (cioè possono realizzarsi). Il ruolo del principio di non contraddizione è
esaustivo per le verità logiche, dal momento che un'affermazione la cui negazione è contraddittoria
è necessaria. In tal modo si carica però il connettivo di negazione di un connotato modale molto
forte.
Le verità di fatto sono logicamente possibili, cioè non contraddittorie e la loro negazione resta non
contraddittoria, dato che è possibile che il fatto che contengono non si realizzi. In tal caso ciò che
determina se qualcosa è o non è in un certo modo invece di essere o non essere diversamente, non
deriva dal principio di non contraddizione, ma dalle caratteristiche dei fatti considerati.
Lo stesso Leibniz presenta il principio di ragione sufficiente come il principio che regge le verità di
fatto. Per il filosofo, la ragione che determina il reale è, da ultimo, la scelta divina del migliore dei
mondi possibili quindi questa scelta ha la sua ragione d'essere nella bontà divina, per cui Egli si
adegua è ciò che sa esser il meglio per il mondo reale.
C. Marchini – Lezioni di Epistemologia e Storia della Matematica I/2
4
Le ipotesi di Leibniz sono riprese, come detto sopra, da Wolff e dopo quest'ultimo si individuano
due linee di pensiero:
- chi vuole ricondurre il principio di ragione sufficiente a quello di contraddizione, l'unico
formulato da Aristotele e
- chi sostiene con C. Crusius (1715 - 1775) che si tratti di due principi irriducibili l'uno
all'altro, anche perché il principio di contraddizione ha una valenza formale che di fatto
esclude ogni contenuto materiale, presente nel principio di ragione sufficiente.
Per Kant il principio di ragione sufficiente si identifica con il Principio di causalità, che ritiene
irriducibile al principio di contraddizione. Egli della relazione causale fece una categoria
trascendentale, una forma a priori dell'intelletto, universalmente valida per la comprensione
dell'esperienza.
Kant completa Aristotele che aveva distinto tra causa materiale (ciò di cui una cosa è fatta), causa
formale (la forma o l'essenza di una cosa), causa efficiente (l'agente che produce la cosa) e causa
finale (il fine per cui la cosa viene prodotta).
Il pensiero scientifico adotta la causa efficiente nascosta sotto il nome di legge o relazione causale.
In particolare la relazione tra causa ed effetto si traduce spesso con una funzione che permette di
ottenere misure degli effetti a partire da misure effettuate sulle cause. E' questo il modello su cui si
fonda tutta la Fisica classica, ed è la base del meccanicismo. Ed è appunto questo che Kant vuole
giustificare con la validità universale del principio di causalità. Non sfiora neppure lontanamente il
problema che una legge possa essere "vuota" di significato, cioè non avere un riferimento di base da
cui partire.
Già Sesto Empirico aveva messo in luce che tra causa ed effetto non vi è un legame necessario,
solo una connessione di fatto e questa tesi verrà portata alle estreme conseguenze da Mach e
"realizzata" in pratica dalla Fisica dei quanti.
Schopenhauer riprende le definizioni aristoteliche organizzandole in questo schema
Principio Necessità Azioni
Ragione sufficiente Necessità causale Divenire
Necessità logica Conoscere
Necessità matematica Essere
Necessità di motivazione scelte Agire
Come si vede i temi dell'esistenza e della conoscenza non sono sconnessi dalla Matematica.
C. Marchini – Lezioni di Epistemologia e Storia della Matematica I/2
5
4. Il tema ontologico in Berkeley.
Quasi contemporaneamente a Wolff e di Leibniz, il problema ontologico si pone con grande
evidenza, in connessione anche a quello gnoseologico, nella filosofia inglese.
G. Berkeley (1685 - 1753), parte da un empirismo radicale ed approda ad una sorta di idealismo
platonico. La sua influenza nel panorama filosofico è più relativa alla prima fase e si trova nel
Trattato sui principi della conoscenza del 1710 e, per la Matematica, ne L'Analista: discorso a un
matematico infedele del 1734.
La critica di Berkeley si accentra sulle idee astratte. Secondo Locke esse sarebbero prerogative
dell'uomo, mentre per Berkeley tutti i nostri errori avrebbero origine nella presunzione di formare e
possedere idee astratte. La sua analisi è volta a provare che le cosiddette idee astratte non sono tali,
ma sono sempre rappresentazioni particolari (Antistene).
L'idea astratta generale non è tale per il suo contenuto conoscitivo, risultato di un processo di
astrazione che partendo da contenuti determinati raggiunga un contenuto indeterminato (e l'esempio
è quello di triangolo che non può essere generale, perché non può prescindere dall'essere scaleno o
isoscele); l'idea potrebbe essere generale in rapporto ai contenuti che effettivamente rappresenta.
Quindi l'unica conclusione è che un'idea e il nome che ad essa è legato, ha solo ruolo sostitutivo, sta
per, vale a dire è sostituibile con idee e percezioni particolari. In questo modo non si ha un'idea
generale se non con funzioni di rappresentanza per una classe di idee particolari.
La critica alle idee astratte è usata da Berkeley per poter affermare «esse est percipi», quindi
l'esistenza è riconoscibile solo mediante l'esperienza immediata; all'uomo per le sue costruzioni di
carattere teorico e per muoversi nella realtà non restano che le percezioni, interne ed esterne. Le
idee nascono dalle combinazioni di tali percezioni.
Di conseguenza oggetti concreti o astratti non esistono, o meglio non sono mai conoscibili nella
loro natura vera, ma solo nelle percezioni che noi abbiamo. La credenza universale che in un mondo
esterno che ci verrebbe dato dall'esperienza è assurda e contraddittoria: le percezioni sono nel
soggetto percepente, non fuori di lui. Argomentare l'esistenza di un mondo esterno che non possa
neppure essere percepito, caratteristica spesso condivisa da "oggetti" matematici, equivale a
formulare un'idea astratta, priva di qualsiasi contenuto di verità.
Ma le idee hanno una natura "passiva", non possono essere prodotte da sole, ma da un qualche
principio attivo. Per contro le percezioni si impongono come qualcosa di indipendente dal soggetto
e talvolta con caratteri di ripetibilità e coerenza. Di qui è possibile prevederne la successione. La
C. Marchini – Lezioni di Epistemologia e Storia della Matematica I/2
6
soluzione di Berkeley a questo problema è che sia idee che percezioni provengano o siano ordinate
finalisticamente da Dio, come unico principio agente e come unica realtà.
La dissoluzione della realtà esperienziale proposta da Berkeley ha come conseguenza il suo
tentativo di infirmare le principali idee della scienza e quelle astratte della Matematica.
Cade l'idea di causa necessaria (queste posizioni verranno riprese dall'Empiriocriticismo) ed anche
le idee astratte della Matematica con la sua presunzione conoscitiva di una realtà esterna.
5. Ontologia moderna.
Nell'impostazione wollfiana, l'ente, la cui esistenza è possibile, ma non necessaria, trova i sui
"modi" ovvero i suoi attribuito essenziali solo nelle sue determinazioni interne.
Questa proposta, che trova più tardi in Hilbert il maggiore sostenitore, si discosta molto da quella
classica di Aristotele, per cui l'esistenza era termine di riferimento dato anche dall'esperienza.
L'ontologia nella versione moderna, studia una serie di coppie concettuali, ad esempio
• quantità e qualità,
• necessità e contingenza,
• mutabilità ed immutabilità,
• singolarità ed universalità,
• tutto e parte,
• sostanza e accidente,
• semplicità e composizione,
• finitezza e infinitezza,
• identità e diversità,
• causa ed effetto,
ecc. Si è quindi in presenza di tavole assai simili a quelle usate, partendo dai pitagorici, per
determinare per mezzo di contrapposizioni, le categorie.
Questo tipo di impostazione diede molto fastidio a Kant che nella Critica della ragione pura
propone quella che chiama col nome di analitica trascendentale, come sostituto dell'impianto
ontologico che si è delineato sopra.
Hegel poi identificava la sua Logica con l'Ontologia.
L'irruzione delle problematiche scientifiche a portato nuovo impulso agli studi sull'ontologia. Ad
esempio Husserl parla di Ontologie regionali, come di scienze ideali che trattano generi di enti che
sono oggetto di più scienze, ad esempio l'ontologia regionale della natura fisica.
C. Marchini – Lezioni di Epistemologia e Storia della Matematica I/2
7
Lo stesso Husserl, dopo la recensione di Frege ai suoi Principi dell'Aritmetica, abbandona le
primitive posizioni filosofiche legate allo psicologismo e dedica il suo studio, in particolare le
Ricerche Logiche, prendendo spunto dalla determinazione del tipo di esistenza degli enti matematici
quali i numeri naturali.
Nell'attuale pensiero anglosassone si parla di ontologia con riferimento specifico alle questioni di
esistenza come dipendenti dagli assiomi del linguaggio che si scelgono.
6. Esistenza e verità.
Negli Elementi è presente il problema dell'esistenza spesso identificata come costruibilità. Esiste
quindi ciò che si può effettivamente costruire, e per di più, in ambito geometrico, con gli strumenti
"teorici": riga e compasso, non quelli materiali. Questa interpretazione è seguita anche nei libri
aritmetici. Ad esempio il famoso teorema (Prop. IX.20) che garantisce che vi siano infiniti numeri
primi è in pratica un algoritmo che dati alcuni numeri primi (Euclide lo mostra con tre, p, q e r)
permette di determinarne uno non considerato con un numero finito di passi (per di più dipendente
in modo polinomiale dai dati).
Un altro caso in cui Euclide sembra utilizzare l'esistenza senza costruzione è il cosiddetto metodo di
esaustione (Libro XII), in cui si assume che esistano figure con certe proprietà. Ma si tratta di una
dimostrazione in cui l'esistenza di tali figure porta ad un assurdo, pertanto non c'è necessità
epistemologica di provare in maniera effettiva l'esistenza.
Tuttavia la formulazione del postulato delle parallele stabilisce l'esistenza di un punto, ma non
specifica come trovarlo (è infatti impossibile chiederlo). Ed è appunto la mancanza della possibilità
di un'effettiva costruzione uno dei motivi per cui tale postulato ha dato spazio ad ampie critiche,
anzi ha portato ad una profonda revisione dell'oggetto della Geometria.
Il sistema ipotetico-deduttivo che costruisce l'ossatura della presentazione del testo euclideo è sorto
probabilmente con intenti didattici (si veda l'Elenco dei Geometri di Proclo). Nell'antichità è stato
sicuramente uno dei capisaldi della cultura, al punto che anche un trattato sull'armonia di
Aristosseno si conforma a questo stile di presentazione.
Il ruolo della presentazione articolata su termini primitivi, assiomi ("logici") e postulati (specifici
della Geometria) e da questi punti di partenza poi ciò che si ottiene con definizioni e teoremi non ha
il compito di delimitare un nuovo campo di conoscenza, "creandolo", ma solo quello di descrivere
una "realtà" esperienziale condivisa.
C. Marchini – Lezioni di Epistemologia e Storia della Matematica I/2
8
L'opera di Euclide è più quella di chi scegliendo tra le varie proprietà già note della Geometria, ha
organizzato una sistemazione privilegiando alcune proprietà, forse quelle più connesse al contesto
extra-logico ed extra-geometrico dell'esperienza quotidiana.
Non c'è assolutamente il dubbio che possano non esistere punti o rette, solo c'era la necessità di
"razionalizzare" quanto trovato (da altri studiosi in parte precedenti).
La situazione oggi è ampiamente mutata. Sotto la spinta dell'esigenza di generalizzare è possibile
definire struttura astratte, la cui "creazione" avviene nell'atto definitorio, sulle quali poi
approfondire e studiare proprietà. La storia della matematica recente conta alcuni casi di teorie
sviluppate senza che vi fossero modelli.
Questo cambiamento ha un'origine.
L'opera di D. Hilbert, I fondamenti della Geometria, del 1899, è stato un primo passo per ribaltare
completamente la situazione.
Alla luce delle Geometrie non euclidee e della loro coerenza relativa con la Geometria euclidea, i
pensatori si sono chiesti su quale base intuitiva possa fondarsi la Geometria, anzi quale sia la natura
della stessa disciplina.
A questa seconda domanda è stata data una risposta inattesa da Klein, ponendo in primo piano le
trasformazioni e i loro invarianti.
La "dissoluzione" di un contenuto unico e "categorico" relativo all'esperienza spaziale, ha spostato
la domanda sulla natura degli assiomi e dei postulati.
La risposte di Pieri che il ruolo dei postulati sia quello di definizione implicita degli enti
direttamente coinvolti nei postulati stessi. Così facendo però viene a cadere il riferimento
all'esperienza.
In questo modo però si crea un ulteriore problema, che sicuramente non era presente a Euclide: in
che rapporto sono assiomi e verità?
Consideriamo i due enunciati:
(*) Quattro è un numero primo.
(**) Comunque assegnati in un piano una retta ed un punto non appartenente ad essa, esiste una
ed una sola retta parallela alla retta data passante per il punto assegnato.
Di fronte (*) credo non ci sia alcun dubbio: è un enunciato falso: quattro si può scrivere come il
prodotto di due per due.
Ci si può chiedere se (**) sia vero.
Le risposte sono influenzate da prese di posizione ben diverse.
C. Marchini – Lezioni di Epistemologia e Storia della Matematica I/2
9
- Platone direbbe probabilmente che si tratta di una descrizione di una proprietà di punti e rette
«in sé, perfetti» esistenti nell'iperuranio.
- Aristotele garantirebbe della verità dato che si tratta di un fatto che è inerente agli universali
di punto e retta, universali esistenti direttamente nel mondo dell'esperienza mediante punti
materiali e rette materiali. Anzi esplicitamente Aristotele afferma che un enunciato
equivalente a (**), cioè che in ogni triangolo la somma degli angoli interni è pari ad un
angolo piatto, è strettamente connesso agli universali di angolo e triangolo.
- S. Tommaso vedrebbe che (**) è un'affermazione che mette d'accordo le cose di per se
esistenti, create da Dio, e l'intelligenza.
- Cartesio probabilmente asserirebbe che la verità di questo enunciato deriva dal fatto che di
esso abbiamo idee chiare e distinte, in quanto esse sono oggetto della nostra speculazione.
- Gli empiristi direbbero che in effetti ciò non si può constatare direttamente, date le
approssimazioni, ma che si tratta sicuramente di un'immagine che viene creata dall'esperienza
generata da disegni, meglio se fatti bene.
- Kant garantirebbe che la verità dell'enunciato si fonda sulla base del giudizio sintetico a priori
dello spazio.
Con l'irruzione della geometria non euclidea, le risposte cambiano. La verità dell'affermazione
sarebbe forse accettabile, ma distinguendola dalla validità, che invece tutto sommato era prima
identificata con la verità: esisteva infatti un solo modello, anzi difficilmente si poteva pensare al
piano della scrivania come ad un modello e non alla realtà. Quindi l'affermazione non sarebbe
valida, ma vera nei modelli euclidei (il che può essere banale).
Sempre con riferimento allo stesso enunciato,
- Poincaré affermerebbe che si tratterebbe non della verità, ma di una convenzione, scelta in
base alla comodità.
- Per Hilbert il problema si porrebbe in modo diverso: parlare di verità ha un riferimento di
tipo semantico. L'enunciato ha invece una natura sintattica. Quindi si tratta di due piani
concettuali diversi e la domanda perde di senso.
La verità richiede l'esistenza di enti in cui interpretare gli oggetti primitivi e le relazioni. Ma un
costrutto teorico di tipo sintattico non può costringere il mondo a manifestarsi in modo così
"benigno" da verificare il costrutto stesso.
Se ciò avviene, è ottima cosa, ma non è questo lo scopo della teoria.
C. Marchini – Lezioni di Epistemologia e Storia della Matematica I/2
10
Se l'approccio è strettamente sintattico (nella tradizione euclidea) invece di interrogarsi sulla
verità o meglio ancora sulla validità, bisogna porre attenzione ad un altro connotato metateorico:
la coerenza, cioè l'impossibilità di dimostrare un enunciato e la sua negazione.
La domanda diviene ora: assumere (**) da solo o in aggiunta ad altri enunciati fornisce una
teoria coerente oppure no ?
7. Esistenza di ���� e la disputa tra Peano e Hilbert.
Torniamo alla (*). L'accordo generale a ritenerla falsa, se ben si guarda, è ancora più "sospetto".
La giustificazione adottata è di tipo sintattico, quindi alla domanda se (*) sia vera si è risposto
che non è dimostrabile, cortocircuitando il rapporto tra verità e dimostrabilità.
Nella risposta data a (*) si sottintende forse un risultato di Logica matematica (ricompreso nel
Teorema di completezza). Esso afferma che ogni teorema dedotto da postulati risulta vero in
ogni interpretazione che sia modello dei postulati assunti. Per questo basta provare che (*) non è
dimostrabile per concludere che non è vero in un modello dei postulati.
Probabilmente chi risponde immediatamente che (*) è falsa non si pone il problema dei rapporti
tra semantica e sintassi, ma ritiene che i "veri" numeri due e quattro siano tra loro connessi dalla
proprietà indicata, dando così implicitamente una risposta ben più profonda ed impegnativa sulla
esistenza dei numeri. Si noti come nella (*) e qui non si sono scritti i numeri mediante cifre o
altre notazioni, per non confondere l'oggetto con la sua scrittura.
In un colloquio con un giovane studente di prima liceo scientifico, il fatto che un numero si
possa rappresentare con varie scritture (osservazione scaturita dall'esperienza col calcolo
multibase), spinto lo studente a riflettere sul fatto che deve esistere un "qualcosa" che, viene
"rivestito" con un abito differente, secondo la scelta della base. La domanda successiva era dove
si poteva trovare questo "qualcosa", domanda ingenua per porsi il profondo problema
dell'esistenza e della natura del numero, slegato da connotati di attributo o di rapporto.
Infatti mentre punti e rette ed altri enti geometrici hanno un riferimento ad una realtà di cui si
può fare esperienza mediante i sensi, i numeri sfuggono a tale tipo di esperienza, restando
comunque entità astratte.
Affermare che i numeri esistano pone il problema di decidere "dove".
A questo problema sono state date risposte varie.
- Per Kant l‘Aritmetica si basa sul giudizio sintetico a priori del tempo, che è una forma
universale della conoscenza. Quindi i numeri si "trovano" nel soggetto conoscente, ma con
connotati oggettivi.
C. Marchini – Lezioni di Epistemologia e Storia della Matematica I/2
11
- Analoga, ma con un'impronta più psicologica è la proposta del primo Husserl.
Ogni proposta di tipo soggettivo e mentalistico, deve superare il banco di prova della conoscenza
"oggettiva" che sembra comunemente attribuita all'aritmetica.
La proposta di Kant non aveva convinto i matematici del XIX secolo.
- In particolare Cantor ed ancora più Frege proponevano che i numeri avessero origine
come cardinali o ordinali di insiemi finiti (approccio ancora presente nella scuola italiana).
- Frege poi trovava nella Logica l'origine degli insiemi e quindi dei numeri. In questo
quadro si inserisce anche Dedekind.
La comparsa dei paradossi mettendo in discussione l'approccio insiemistico, fa riprendere vigore
alla critica di queste posizioni.
Intanto affermare che i numeri naturali sono legati agli insiemi sposta solo il problema
ontologico, che ora si pone per gli insiemi.
- L'approccio soggettivo riprende vigore con l'intuizionismo, il cui principale esponente,
Brouwer individua nella discriminazione il motore che mediante la duità ci permette di
distinguere il volgere del tempo e stabilire relazioni tra sensazioni. In questa impostazione
la Matematica viene identificata con l'Aritmetica.
Cauchy e poi Weierstrass, Cantor e Dedekind, hanno mostrato come definire o costruire i
numeri reali a partire dai numeri razionali, i quali a loro volta dipendono grazie ad alcune
costruzioni matematiche, dai numeri naturali (Aritmetizzazione dell’Analisi).
In conclusione sembrava che la "giustificazione" dell'Aritmetica potesse avere "a cascata" effetti
positivi su tutta l'Analisi (identificata al tempo con la Matematica, visto che Hilbert aveva
provato, la coerenza relativa della Geometria all'Analisi mediante il modello cartesiano).
Lo stesso Hilbert pone il problema metateorico della coerenza dell'Aritmetica (in realtà quello
dell'Analisi, ma per il momento ci si può soffermare su quello più ristretto, relativo
all'Aritmetica).
Peano e la sua scuola ritiene che non si tratti di un problema, dato che esiste un unico modello
dell'Aritmetica, quello identificato in modo unico, a meno di isomorfismi, dai Postulati di
Peano.
I numeri naturali sono, sempre a meno di isomorfismi, gli elementi di tale modello. Sullo sfondo
della polemica ci sono motivi filosofici.
Per Peano un sistema assiomatico aveva il compito di identificare tra le proprietà aritmetiche per
lui valide, quelle che potevano essere assunte (con attenzione anche a sceglierle in "minor"
numero) per riottenere tutte le altre.
Si palesano così in filigrana i postulati aristotelici relativi alla Scienza deduttiva:
C. Marchini – Lezioni di Epistemologia e Storia della Matematica I/2
12
•quello di realtà, cioè i numeri naturali esistono e i postulati della teoria si riferiscono ad essi;
•quello di verità, dato che i postulati sono scelti tra le proprietà vere nei numeri naturali;
•quello di deduttività, in quanto la possibilità di riottenere dai postulati tutte le altre affermazioni
relative ai numeri naturali è garantito indirettamente dal fatto che i postulati identificano
unicamente il modello.
La preoccupazione metateorica dell'economia nell'assumere i termini primitivi e postulati si
giustifica con i due postulati di evidenza. Spesso il problema sopra delineato non viene compreso
da matematici del giorno d'oggi.
Nella polemica entrano due diverse interpretazioni del termine coerenza, quella sintattica e
quella semantica. Si può dire che una teoria
� T è semanticamente coerente se ha modello,
� T è sintatticamente coerente se in essa non è dimostrabile un enunciato e la sua negazione,
oppure, in modo equivalente, se esiste un enunciato che non è dimostrabile.
La coerenza semantica implica la coerenza sintattica, dato che nel modello (la realtà) non è
possibile che sia vero un enunciato e la sua negazione (principio di contraddizione di Aristotele).
Ma in questa affermazione si dà per scontato che se un enunciato è dimostrabile in T, tale
enunciato sia vero nel modello, come si è visto anche a proposito di (*). A prima vista non si
vede come passare dalla coerenza sintattica a quella semantica.
Hilbert proponeva di provare con mezzi puramente sintattici (e quindi finitistici) la coerenza
sintattica dell'Aritmetica, senza fare uso di strumenti semantici (e quindi infinitistici).
La sua richiesta era basata su un progetto che si può dire contemporaneamente più ambizioso e
più modesto di quello dell‘Aritmetizzazione dell'Analisi.
� Più ambizioso perché avrebbe forse dato il colpo di grazia all'intera Matematica, in quanto si
avrebbe avuto uno strumento finitario per decidere sulla dimostrabilità delle proprietà
matematiche.
� Più limitato dato che richiedere la coerenza sintattica è (o sembrava) assai meno che
richiedere quella semantica dato che le pretese ontologiche della semantica introducono
l'infinito in atto e, ammesso che la cosa abbia senso, un infinito "grande".
Un esempio per chiarire: provare che in tutti i gruppi vale il seguente enunciato:
∀x,y,z,t ((x·y)-1·(z·t) = y-1·((x-1·z)·t))
Questo può essere provato invocando i postulati definitori dei gruppi, quindi con una (semplice)
dimostrazione puramente sintattica, oppure facendo ricorso alla semantica e provando così che
in ogni gruppo è vero l'enunciato. Ciò significa che, comunque presi quattro elementi (non
necessariamente distinti tra loro, altrimenti non si potrebbe verificare l'enunciato in ��2,+� e in
C. Marchini – Lezioni di Epistemologia e Storia della Matematica I/2
13
��3,+�) di un gruppo, e quindi fissata un'interpretazione per il simbolo di legge di composizione
interna e per l'operazione di passaggio all'inverso, vale la proprietà.
E' chiaro che si tratta di una verifica infinita, sia perché si possono considerare gruppi infiniti,
ad esempio ��-{0},·�, sia perché preso arbitrariamente un insieme si può considerare su di esso
almeno una struttura di gruppo. Quindi di gruppi ve ne sono almeno quanti sono gli insiemi e la
totalità dei gruppi si avvicina (se non addirittura "supera") la totalità degli insiemi.
Si noti che si è parlato di totalità, per rimanere sul vago. In certe teorie assiomatiche (ad
esempio NBG o MKM) si può parlare più correttamente di classe. In altre (NF) di insieme di
tutti gli insiemi. Si tratta comunque di una totalità "ingombrante" e "grande".
Per contro la dimostrazione sintattica sta in poche righe ed è esaustiva. E' questo un caso in cui
il finito serve a padroneggiare l'infinito.
Al tempo della polemica tra Hilbert e Peano, alcuni aspetti chiariti dall'indagine logica
successiva non erano disponibili e questo può giustificare le incomprensioni di due personaggi
per altro di grande spicco sulla scena mondiale e d’altra parte proprio grazie anche a questa
disputa i concetti di fondo sono stati chiariti dalla ricerca successiva.
Era disponibile, grazie a Frege, un linguaggio formale, purtroppo presentato con un simbolismo
scostante e complesso. Mancava del tutto concetti chiari di interpretazione, soddisfazione,
verità, validità e modello, presentati da Tarski in polacco nel 1933 e in tedesco nel 1935.
Non era neppure chiara la distinzione tra primo e secondo ordine, precisatasi solo in seguito.
Era anche presente una commistione tra Logica matematica e Teoria degli insiemi, data la
presenza di una corrente logicista (ispirata da Frege e poi sostenuta da Russell) che vedeva gli
insiemi come estensione di proprietà. Così il postulato di Peano che sancisce il Principio di
induzione, nella presentazione originale viene formulato facendo uso di una formulazione non al
primo ordine e di qui (come da un analogo alla richiesta della ricursione dovuta a Dedekind) la
categoricità della teoria, cioè l'esistenza di un unico modello, a meno di isomorfismi.
8. Esistenza nel linguaggio.
La garanzia che la coerenza sintattica implichi la coerenza semantica (e quindi l'equivalenza tra
i due tipi di coerenze) pare affermare che metodi infinitistici possano essere sostituiti da metodi
finitistici equivalenti. Inoltre la sintassi si estrinseca in un linguaggio formale, creazione
artificiale, e la coerenza sintattica sembra esclusiva proprietà di tale linguaggio. La coerenza
semantica richiede l'esistenza di un ambito esterno al linguaggio. L'equivalenza tra coerenza
sintattica e semantica parrebbe affermare che il linguaggio è talmente potente ed adeguato al
C. Marchini – Lezioni di Epistemologia e Storia della Matematica I/2
14
"mondo" da garantire, ed in ultima analisi, da descrivere perfettamente ciò che accade nel
"mondo", in un qualche modo imponendo l'esistenza di enti descritti mediante una teoria
sintatticamente coerente.
Una ricerca su questi aspetti è presente nel primo Wittgenstein; nel Tractatus logico-
philosophicus, apparso nel 1921 - 1922, la sua tesi di fondo è la determinazione delle condizioni
di sensatezza del linguaggio in generale e sia dei linguaggi particolari. L'autore intende mostrare
come deve essere il "mondo" per garantire sensatezza al linguaggio. Ma le condizioni a priori
della determinazione del senso delle proposizioni è assunta come un fatto; di conseguenza è il
mondo che deve adattarsi al linguaggio e non viceversa. Il secondo Wittgenstein ripudierà in
parte queste tesi.
Quanto precede dovrebbe servire ad apprezzare la portata del Teorema di completezza di Gödel.
La sua pubblicazione nel 1930 (Gödel aveva 24 anni) suscitò una vasta eco. E' stato forse il
maggiore supporto al programma di Hilbert. E' da notare che la semantica cui Gödel fa
riferimento nel suo lavoro non è formalizzata. La dimostrazione però non è costruttiva, non
viene cioè descritto esplicitamente un modello.
Il Teorema di completezza viene generalizzato da A. Mal’cev (1909 - 1967) nel 1941 ed oggi su
molti testi di Logica matematica viene presentato seguendo la dimostrazione di L. Henkin del
1949.
L'aspetto importante di quest'ultima dimostrazione è che il problema della determinazione del
modello per una teoria sintatticamente coerente viene risolto in modo apparentemente
costruttivo (apparentemente perché viene spostata l'applicazione di principi non costruttivi).
L'idea di fondo, non la dimostrazione che è interessante, ma non rientra negli scopi di questi
appunti, è quella che considerato il linguaggio formale in cui viene presentata la teoria, si
individua un insieme di enunciati che iniziano con un quantificatore esistenziale con opportune
proprietà, si amplia poi il linguaggio con l'aggiunta di nuove costanti in corrispondenza con le
formule considerate e si individuano opportuni termini costruiti nel nuovo linguaggio. Su di essi
(o meglio sulle classi di equivalenza di essi rispetto ad un'opportuna relazione di equivalenza
definita sintatticamente) si costruisce il modello cercato.
Viene così soddisfatto il postulato di realtà, solo che la realtà è puramente linguistica.
Il rapporto tra linguaggio e ontologia, studiato già all'inizio del XX secolo, ha avuto importanti
sviluppi. I linguaggi sono divenuti oggetto di ricerca e di costruzione, come strumento per la
comunicazione con i computer, e su di essi si è sviluppata molta ricerca. Negli ultimi anni,
soprattutto in rapporto alle problematiche dell'Intelligenza Artificiale, è "rispuntato" il problema
ontologico. Al tema sono stati dedicati convegni ed è stato fatto uno sforzo per definire cosa si
C. Marchini – Lezioni di Epistemologia e Storia della Matematica I/2
15
debba intendere per ontologia (anzi si parla al plurale di ontologie) all'interno di un linguaggio
puramente artificiale, quale è un linguaggio di programmazione.
N. Guarino propone un'affascinante proposta. A suo parere, dato un linguaggio logico formale
ed una teoria T in esso, la descrizione completa della teoria viene data dalla totalità dei suoi
modelli (Teorema di completezza).
Ma l'individuazione di un linguaggio e di una teoria in essa non è un atto casuale.
Nella storia della Matematica, la necessità di "teorizzazione" è sorta su alcune parti rilevanti
della Matematica stessa.
Dunque la teorizzazione avviene su un contenuto, su esempi ben specifici, cioè su quelli che, a
posteriori, saranno alcuni modelli della teoria che si sta costruendo.
Questa classe di modelli (che potrebbe avere un solo elemento, come avviene per alcune
importanti enti matematici), viene identificata con la concettualizzazione della teoria T.
La concettualizzazione è una sorta di raccolta di modelli "intesi" della teoria, cioè quelli che
vengono tenuti ben presenti nella individuazione del linguaggio che deve essere adeguato a
descrivere tale concettualizzazione e degli assiomi che costituiscono la teoria T.
L'ontologia viene allora vista come una assiomatizzazione, necessariamente incompleta, nel
linguaggio logico, dei modelli intesi.
Per comprendere il perché di questa incompletezza, si pensi ai numeri naturali ed alla loro
struttura. Il modello inteso è ben chiaro a tutti, ma una volta scelto un linguaggio formalizzato
del primo ordine ed una teoria che può dirsi la versione del primo ordine degli assiomi di Peano
(quella in cui si limita il principio di induzione ad uno schema applicabile a formule ben formate
e si aggiungono assiomi ricorsivi per le operazioni di addizione, moltiplicazione ed elevamento
a potenza) l'insieme delle formule vere nel modello inteso non è esprimibile nel linguaggio
stesso (Tarski).
Si potrebbe tentare di migliorare la situazione prendendo un linguaggio formalizzato di ordine
superiore, basta il secondo ordine, in cui si riescono ad esprimere gli assiomi di Peano,
compresa l'induzione applicata a "proprietà", vale a dire predicati del secondo ordine, mediante
un unico enunciato e non c'è bisogno di definire le operazioni perché sono definibili a partire
dall'induzione. Purtroppo in base al Teorema di incompletezza di Gödel, tale teoria è
incompleta, quindi ci saranno proprietà esprimibili che pur essendo vere nel modello inteso non
sono dimostrabili. Quindi in qualunque modo si proceda una assiomatizzazione completa del
modello inteso non si riesce a trovare.
Quindi l'ontologia è un ente di natura linguistica che può coincidere o includere la
concettualizzazione.
C. Marchini – Lezioni di Epistemologia e Storia della Matematica I/2
16
In questo senso le ontologie vengono viste come costruzioni (artefatti) che hanno un ruolo
significativo nella rappresentazione della conoscenza e nel ragionamento. Le ontologie sono
considerate come lo strumento che individua le definizioni usate nel vocabolario per
rappresentare la conoscenza.
In questo senso si differenziano dall'interpretazione strettamente logica delle definizioni come
strumenti sostitutivi. Nelle definizioni i simboli che intervengono devono essere "eliminabili" a
favore dei simboli primitivi, che solitamente non vengono definiti, se non implicitamente dagli
assiomi. Ma ai simboli primitivi viene assegnato significato richiedendo che si possano
rappresentare, nella concettualizzazione, in ogni interpretazione dei simboli soddisfacente un
dato insieme di enunciati, gli assiomi.
Anche gli assiomi quindi devono esser inclusi nell'ontologia, così interpretata. Ne segue che il
vocabolario usato per rappresentare la conoscenza è direttamente influenzato dalla ontologia.