IL FILO DI ARIANNA - roma1.infn.it · Un nuovo “metodo” di fare politica ... i primi ad aver...

48
0 Il manoscritto di questo libro è stato proposto a molti editori, fra cui PM, Spagnol, Baldini&Castoldi, Donzelli, Giulio Einaudi, Arnoldo Mondadori, Laterza, Il mulino, RCS, Rusconi, i quali non lo hanno accettato per la pubblicazione. Ringrazio pertanto l’Editoriale Pantheon, che invece l’ha pubblicato. gvp GIANFRANCO LEGITIMO GIOVANNI VITTORIO PALLOTTINO Collana diretta da Gennaro Malgieri IL FILO DI ARIANNA Un nuovo “metodo” di fare politica per cambiarla sul serio Editoriale Pantheon “…i primi ad aver bisogno di un corso accelerato di alfabetizzazione scientifica sono proprio i politici” Riccardo Chiaberge, “Corriere della Sera”, 10 aprile 1998 (a proposito di una proposta di legge per la diffusione della cultura scientifica in Italia)

Transcript of IL FILO DI ARIANNA - roma1.infn.it · Un nuovo “metodo” di fare politica ... i primi ad aver...

0

Il manoscritto di questo libro è stato proposto a molti editori, fra cui PM, Spagnol, Baldini&Castoldi, Donzelli, Giulio Einaudi, Arnoldo Mondadori, Laterza, Il mulino, RCS, Rusconi, i quali non lo hanno accettato per la pubblicazione. Ringrazio pertanto l’Editoriale Pantheon, che invece l’ha pubblicato. gvp

GIANFRANCO LEGITIMO

GIOVANNI VITTORIO PALLOTTINO

Collana diretta da Gennaro Malgieri

IL FILO DI ARIANNA

Un nuovo “metodo” di fare politica per cambiarla sul serio

Editoriale Pantheon

“…i primi ad aver bisogno di un corso accelerato di alfabetizzazione scientifica sono proprio i politici” Riccardo Chiaberge, “Corriere della Sera”, 10 aprile 1998 (a proposito di una proposta di legge per la diffusione della cultura scientifica in Italia)

1

Introduzione

È un dato acquisito della cultura attuale che la rivoluzione scientifica negli ultimi secoli ha condotto a risultati assai importanti per la società umana: una esistenza mediamente più lunga e una più alta qualità della vita. È anche noto che questi progressi – che si manifestano in una disponibilità di beni e di servizi quale l’umanità non aveva mai conosciuto prima – sono derivati dagli avanzamenti nella conoscenza dei fenomeni naturali, nonché dalle tecnologie rese possibili da queste conoscenze e dal conseguente sviluppo dell’industria.

Ma solo un’analisi più approfondita mette in luce altri aspetti della rivoluzione scientifica, che sono essenzialmente di natura metodologica.

Meno evidenti, e certamente anche assai meno appariscenti dei risultati “materiali” menzionati prima, essi hanno giocato un ruolo essenziale nei vigorosi progressi di molte discipline, anche al di fuori del campo delle scienze fisiche dove avevano avuto origine. Questi aspetti metodologici, peraltro, presentano oggi potenzialità ancora largamente inesplorate, proprio perché poco conosciute, in molti altri ambiti, alcuni dei quali di grandissimo rilievo per la società. Uno di questi ambiti è sicuramente la politica. Più precisamente: la cultura di governo.

Ora, qualsiasi esame, anche sommario, delle linee effettive seguite nella direzione del nostro Paese negli ultimi decenni – e qui vogliamo prescindere nel modo più assoluto dalle scelte di natura politica e ideologica alla base di quanto è stato fatto – mostra chiaramente una straordinaria trascuratezza, appunto, di qualsiasi riferimento al patrimonio metodologico che costituisce una acquisizione consolidata della scienza moderna. In altre parole, i fatti concreti indicano l’assoluta mancanza di una cultura di governo moderna in Italia.

(Diverso è il caso di altri Paesi avanzati, dove i pubblici poteri mostrano comunque di affidarsi sempre più alle potenzialità dei moderni metodi scientifici, sia nell’indagine dei problemi che nella prassi amministrativa).

Da qui l’opportunità – per un mondo politico ed un’opinione pubblica che vogliano muoversi verso un cambiamento sostanziale – di innovare la stessa impostazione della politica come azione di governo (o come azione mirata al governo).

Che ci sembra un passaggio essenziale affinché il cambiamento, da qualsiasi parte provenga, non rimanga solo figurativo: cioè non si esaurisca in semplici sostituzioni di etichette e di uomini, pur di diversa ispirazione, ma accomunati dalla medesima arretratezza culturale nell’approccio alla politica.

L’imperatore Carlo Magno, per decidere il da farsi, non aveva bisogno di molti dati e di elaborati metodi di analisi. Bastavano le informazioni che, dalle marche più remote dell’impero, gli portavano i “missi dominici” e che i saggi della corte palatina elaboravano per trarne gli elementi di scelta e di decisione. Oggi, a fronte di situazioni incomparabilmente più articolate, comportarsi come quel saggio imperatore sarebbe tutt’altro che saggio. Eppure molte scelte di governo sono effettivamente basate su criteri non molto diversi da quelli di Carlo Magno (quando, naturalmente, non entrino in gioco altri aspetti, di natura perversa).

Allorché si pone un problema, a volte si decide come affrontarlo seguendo semplicemente l’impulso del momento. Altre volte si costituisce una commissione che svolga, insieme, il ruolo

2

dei missi dominici e della corte palatina, raccogliendo un po’ d’informazioni e fornendo qualche indicazione su come procedere. E poi si decide.

Ma di tempo, da quel tempo, ne è passato parecchio. È aumentata enormemente la complessità dei problemi da affrontare – con un intreccio che si estende addirittura a livello globale – e si è arricchito in misura straordinaria anche l’armamentario della “strumentazione metodologica” impiegabile per affrontarli con efficacia.

Non è altrettanto cresciuto, invece, il livello culturale della classe politica media. Che di questi strumenti ha solo vago sentore e forse ha anche qualche diffidenza nei loro riguardi. Come accade naturalmente a qualsiasi essere umano per ciò che non conosce.

Ma che cosa s’intende per “strumentazione metodologica”? S’intende l’insieme dei mezzi, più precisamente dei metodi di studio e di analisi, che nei secoli la scienza ha elaborato per poter arrivare a quei progressi che oggi tutti conosciamo. E questo è il punto chiave. Nella cultura odierna, come si è accennato prima, esiste certamente qualche cognizione dei risultati materiali conseguiti dalla scienza e dalla tecnologia. Vi è, invece, largamente carente la nozione e la consapevolezza dell’importanza dei progressi conseguiti dalla scienza a livello metodologico.

Progressi evidentemente immateriali, non percepibili direttamente come i voli spaziali o i moderni strumenti di comunicazione. E tuttavia del più alto valore culturale, in quanto attinenti alle più elevate facoltà umane di riflessione, di analisi e di giudizio, oltre che catalizzatori essenziali dei risultati materiali visibili.

La conseguenza è che questo patrimonio culturale giace inutilizzato o largamente sottoutilizzato, salvo rare eccezioni. Relative, per esempio, a quelle situazioni particolari – i conflitti militari fra le nazioni – che riguardano più la patologia che la fisiologia delle vicende umane.

Nel nostro Paese, comunque, la carenza di cui parliamo è particolarmente forte, assai più che altrove. Mentre risulta evidente, certo a chi scrive e ci auguriamo anche a chi legge, che nel nostro Paese un’azione politica e un’azione di governo funzionali ad un autentico libero sviluppo non possono prescindere, innanzitutto, proprio da un deciso mutamento di metodo: attraverso una forte e consapevole ispirazione, appunto, al patrimonio metodologico della scienza.

Di questa esigenza e di questa prospettiva il nostro libro vuole essere niente più che una sintetica rappresentazione: accessibile a tutti, ma, almeno negli intenti, abbastanza significativa per fungere da stimolo a riflettere e, auspicabilmente, ad agire di conseguenza.

3

1. Conoscere per decidere Un criterio tanto elementare quanto disatteso, che oggi deve tener conto di un patrimonio

scientifico non disponibile in passato. Per cui oggi “conoscere” significa farsi carico di una analisi scientifica della realtà, così come “decidere” significa modulare le scelte in funzione di rapporti complessi a più livelli. Il caso dell’alta velocità (Tav) e altri. Il tecnico e il politico. Politica delle cose e politica delle apparenze. I media e la ricerca del consenso. Informazione e democrazia.

Che sia necessario “conoscere” prima di prendere qualsiasi decisione è un criterio davvero

elementare e noto da sempre all’uomo pensante, eppure assai spesso, nei fatti, disatteso. Tanto più colpevolmente quanto più gravi e complesse sono le questioni in gioco. E tanto più colpevolmente ancora, quanto più è esteso l’arco di futuro che simili scelte vanno ad investire.

I guasti causati da decisioni non meditate possono, infatti, ricadere anche in maniera pesante sulle generazioni successive, che costituiscono il vero convitato di pietra delle grandi scelte politiche: assente, perché evidentemente privo del diritto di voto, ma gravemente coinvolto.

Un esempio assai forte a questo proposito riguarda la scuola, un settore dove la maggior parte dei provvedimenti degli ultimi decenni sono stati presi per accontentare l’una o l’altra categoria (scontentandole poi, in realtà, tutte). Senza porre, invece, la necessaria attenzione verso l’obiettivo strategico di dare ai futuri cittadini la migliore possibile formazione, dal momento che da essa dipende l’avvenire del Paese.

Badando a risolvere i problemi del presente, in altre parole, si sono trascurati quelli del futuro. È difficile valutare il costo per la Nazione, in termini economici oltre che culturali, di una formazione inadeguata impartita a un’intera generazione. Risulta però facilissimo stabilire che questo costo è destinato a ripercuotersi per vari decenni.

È certo, d’altra parte, che qualsiasi progetto che voglia condannare un Paese al sottosviluppo prevede come misura essenziale un drastico ridimensionamento del suo sistema scolastico: questo era stabilito nei piani hitleriani per il futuro dei popoli slavi, e alla stessa idea era ispirato anche un piano degli Alleati per la Germania sconfitta nell’ultimo conflitto mondiale.

E questo è quanto, seppur inconsapevolmente e senza dubbio in maniera non così drastica, è stato fatto in Italia.

Può anche succedere che decisioni molto ben studiate, considerando però solo determinati problemi, possano poi risultare fonte di guai inaspettati per i loro risvolti in altri ambiti, come vedremo meglio nel capitolo 6. Si tratta, in questi casi, della classica decisione che crea più problemi di quanti ne risolve.

Sicché l’einaudiano “conoscere per deliberare” andrebbe modificato in “conoscere e valutare prima di deliberare”, proprio per sottolineare la necessità di tener conto al meglio di tutte le possibili conseguenze, presenti e future, di qualsiasi scelta.

Più precisamente, qualsiasi azione importante dovrebbe essere preceduta da una accurata analisi scientifica della realtà esistente, dei suoi sviluppi futuri e delle sue interrelazioni con le

4

altre realtà, impiegando tutti gli strumenti oggi disponibili. E le scelte dovrebbero essere modulate attentamente in relazione ai rapporti che esistono fra queste realtà.

Un esempio varrà a chiarire meglio questi concetti. Come è noto, in Italia vari anni fa venne avviato un progetto per l’alta velocità ferroviaria (Tav). (Esulano naturalmente dalla nostra citazione i fatti di cronaca giudiziaria che da un certo momento in poi sono venuti ad investirlo). Non occorre essere esperti per comprendere che la sua realizzazione era tale da incidere notevolmente sulla concorrenza del treno con gli altri mezzi di trasporto: soprattutto, data la conformazione della Penisola, con i collegamenti aerei longitudinali fra Roma e Milano. In Francia, ad esempio, la realizzazione del Tgv (treno di grande velocità) fra Parigi, Lione e la Costa Azzurra ha provocato un deciso calo del traffico aereo sulla stessa tratta.

Nonostante ciò, lo Stato italiano – nella sostanza proprietario sia delle Ferrovie promotrici del Tav sia della compagnia di bandiera Alitalia, principale concessionaria di tali collegamenti – dette il via all’operazione senza il conforto di uno studio ufficiale al riguardo. Che poi il progetto alta velocità ferroviaria sia rimasto largamente inattuato, privando a tutt’oggi l’Italia di una struttura comunque preziosa, è un altro discorso.

Si potrebbe immaginare, per quanto detto finora, che il ruolo del politico debba modificarsi, rispetto all’attuale, venendo ad assumere una connotazione di natura prevalentemente tecnica. Nulla di più lontano dai nostri intenti. Non si vuole suggerire alcuna confusione fra i ruoli, entrambi essenziali nella loro specificità, del tecnico e del politico. Al politico infatti spetta la responsabilità delle scelte; alle quali contribuiscono sia tutti gli elementi di giudizio resi disponibili dai tecnici competenti, sia gli elementi di valore che sorreggono la sua visione generale. Per cui al politico, a differenza che al tecnico, non si chiedono competenze specifiche in determinati settori, bensì essenzialmente la capacità di armonizzare fra disponibilità ed esigenze, fra possibilità ed aspirazioni.

Ma, affinché questo si realizzi, è necessario che si colmi il divario – di metodo e di linguaggio – fra il tecnico e il politico. Senza di ciò, l’interazione tra le due figure non si può svolgere efficacemente. E allora, a seconda di chi venga a prevalere, il politico resta alla mercé dei tecnicismi dello specialista; oppure le sue scelte risultano prive di qualsiasi fondamento tecnico.

D’altra parte il politico, ancora a differenza del tecnico, è soggetto a verifica: una verifica continua da parte dell’opinione pubblica e una verifica periodica da parte dell’elettorato. Sicché è inevitabile che l’esigenza della ricerca del consenso in qualche modo si rifletta nelle sue scelte.

E qui occorre grande saldezza nei principî, affinché la politica delle cose non sia sopraffatta da quella delle apparenze, che la ricerca del consenso potrebbe sollecitare. È questa saldezza, del resto, quello che distingue gli statisti, attenti soprattutto all’interesse generale, dai politici di rango inferiore, che si preoccupano solo del contingente.

Un classico esempio di politica delle apparenze, in russo “pokazuka”, sono i villaggi modello per i contadini che il ministro Potemkin mostrò trionfalmente all’imperatrice Caterina di Russia, avendone peraltro fatto costruire soltanto le facciate. La pokazuka raggiunse il suo apice nell’Unione Sovietica, quando l’efficacia della propaganda staliniana arrivò a convincere la gran parte degli sfortunati abitanti di quelle terre che le loro condizioni di vita erano le migliori del mondo. Ma la politica delle apparenze non è soltanto un ricordo del passato, una caratteristica dei regimi totalitari.

5

Sappiamo bene, per esempio, che le cerimonie denominate “posa della prima pietra” sono sempre assai ambite dei politici alla ricerca del consenso, che a questi “show” si accalcano vivacemente, anche per non perdere l’occasione di una comparsa in diretta Tv. E sembra anche che queste cerimonie siano sopportate passabilmente dall’opinione pubblica, che dovrebbe ad esse preferire piuttosto la posa dell’ultima pietra, o meglio ancora l’inaugurazione del servizio, si tratti di un ospedale [1], di una nuova scuola o di qualsiasi altro servizio pubblico. Infatti, innumerevoli volte, anche in tempi relativamente recenti, è successo che alla prima pietra non sia mai seguita l’ultima. Lo testimoniano, in tutte le parti d’Italia, scuole mai utilizzate, ospedali restati a mezzo, superstrade monche. Che ci appaiono come monumenti innalzati per glorificare la politica delle apparenze (e delle “tangenti”, che non poche volte sono arrivate addirittura a motivare l’avvio di determinate imprese).

Politica delle apparenze, e non “delle cose”, può essere anche l’approvazione di una nuova legge, legata al nome di un determinato uomo politico che vorrebbe così passare alla storia; legge la quale si rileva poi tanto carente e inefficace nei fatti, da doversi poi modificare a breve, proprio come un edificio mal fatto. Gli esempi a tale proposito non mancano davvero. Basti citare una “riforma” sanitaria di qualche tempo fa; ricordando che proprio il ministro che l’aveva proposta e attuata, quando ne ebbe bisogno, scelse di farsi curare all’estero.

D’altra parte, il contrasto fra politica delle cose e politica delle apparenze – alla luce dell’esigenza di acquisire e mantenere il consenso popolare – sembra derivare da un problema di natura strutturale della democrazia. Il popolo sovrano, che in democrazia rappresenta appunto la suprema istanza, fino a che punto è posto in grado di discernere effettivamente fra politica delle cose e politica delle apparenze? E, ancora, dispone esso di elementi sufficienti a valutare l’impatto futuro della politica in atto?

Quesiti che trovano ulteriore complicazione nel ruolo svolto dai grandi mezzi di comunicazione.

Questi, infatti, per loro natura e per le loro esigenze, tendono sempre a privilegiare l’informazione relativa agli “eventi” – come la posa, appunto, della prima pietra – rispetto alla valutazione dello “status”, cioè della situazione corrente, dei fatti sociali. La quale è quella che più incide, invece, sulla vita dei cittadini.

2. Oltre l’empirismo

Fra l’intrico degli steccati e il caos della tuttologia: le contraddizioni della specializzazione ad ogni costo (spesso solo verniciata di scientificità) e del trasversalismo superficiale.

Una delle conseguenze più rilevanti di una non buona interazione fra il politico ed il

tecnico, cui abbiamo accennato nel capitolo precedente, è l’emergere nella vita politica di una singolare schizofrenia.

Da un lato – con l’affermarsi delle argomentazioni tecniche sulle valutazioni politiche – la politica perde la propria impronta di attività globale, anche se articolata in campi applicativi diversi. Il quadro di riferimento sfuma fino a rendere difficile percepire direzione e senso dei singoli atti posti in essere. Il particolare prevale sul generale, il dettaglio sull’insieme. L’

6

“esperto” che – più che aiutare – giunge ad influenzare il politico, lo porta a camminare ed a chiudersi sul terreno specialistico dal quale partono le indicazioni che gli fornisce.

Non è detto che ciò debba accadere in maniera intenzionale: può anche discendere da un comportamento involontario. L’effetto non cambia. L’azione del politico viene comunque a risentire delle caratteristiche di quel terreno. Guadagna in capacità ad aderirvi puntualmente; ma perde in possibilità di perseguire, e spesso perfino di scorgere, il pur necessario raccordo con i terreni circostanti. Aumenta di rigore analitico, ma cala di forza di sintesi.

Da un altro lato – allorché l’azione del politico trascura gli indirizzi tecnici – nella stessa misura la politica si svolge in termini che potremmo dire rarefatti, con scarsa attenzione alla realtà, ai bisogni ed ai mezzi per soddisfarli. L’astrattezza della politica, la sua retorica ed i suoi imperativi tentano invano di supplire alla mancanza di concretezza. In termini politici generali tutte le cose che si vanno a fare, grandi o piccole, si vorrebbe allora che sembrassero il frutto di un’unica necessità storica in grado di giustificarle.

In effetti si obbedisce ogni volta all’estro del momento, oppure ad una grigia ripetitività sorretta dalla falsa sicurezza del “precedente”. Il politico esercita allora competenze che come tale non possiede. Si autopromuove giudice in questioni di cui ignora l’essenziale. Decide ad arbitrio, talvolta con effetti negativi irreversibili, su aree a lui estranee.

Non si tratta sempre di presunzione e di superficialità soggettiva. Può trattarsi anche del frutto di una certa cultura del sospetto verso “chi sa”, visto come portatore di un potere, quello della conoscenza, difficile a fronteggiare. L’esito è il medesimo: una rimessa netta sul piano pratico. Solo nei casi migliori si riesce a salvare una qualche coerenza fra i vari interventi. Sempre, però, si sottrae a questi ultimi lucidità, rigore, efficacia.

Quando invece le scelte politiche soggiacciono ai tecnicismi, la politica si frammenta ed i confini fra i vari domini che ne sono oggetto equivalgono a degli steccati. Il panorama complessivo diventa sempre meno leggibile perché i percorsi potenziali appaiono via via più confusi. In questo enorme labirinto, seguire percorsi lineari è impossibile.

Ogni più ambiziosa strategia cede ad una serie di tattiche magari impeccabili ma scollate fra loro. Tutto si relativizza: la tutela degli interessi generali – il vero traguardo della politica – trova sempre meno posto rispetto ad interessi, anche legittimi in sé, di natura settoriale. I problemi di più vasta portata, i grandi problemi sociali, finiscono col rimanere così senza risposta. Gli “specialisti” se ne disinteressano (“debbono” disinteressarsene). I politici, che pur se ne diano responsabilmente carico, vengono deviati dal gioco delle “compatibilità” – fra obiettivi differenti o fra obiettivi e strumenti – suggerite loro non come vincolo, il che sarebbe logico, bensì come contenuto stesso del loro agire. Prendiamo un governo che voglia ridurre la spesa, divenuta eccessiva, per la sanità. Se i “tecnici” gli prendono la mano, l’erogazione dei servizi medico-ospedalieri gratuiti o sotto costo potrà venire ad essere limitata indipendentemente dal grado delle esigenze dei destinatari. Qualche tempo addietro in Gran Bretagna, una bambina nata prematura venne lasciata morire senza cure perché secondo i medici l’operazione chirurgica occorrente presentava “meno di venti probabilità su cento di riuscita”, vale a dire meno della soglia ritenuta il minimo per considerarla economicamente ammissibile. Caso limite? No, unicamente la conseguenza coerente di determinate premesse.

Una condizione di supremazia della tecnica sulla politica, si noti, trova tanto spazio per affermarsi, quanto più in precedenza la condizione opposta, ossia una politica avulsa da preoccupazioni tecniche, si sia tradotta in squilibri ed in sprechi su larga scala: insomma, abbia

7

generato dissesti o addirittura disastri. Allora il ricorso ai “tecnici” è visto come una misura di salvezza. La colpa di alcuni o di molti politici, fosse pure di una intera classe dirigente, assurge a colpa “della politica”. La politica, nel sommario giudizio che ne deriva, viene condannata alla subalternità.

E con essa qualsiasi criterio di giudizio e di condotta che non passi attraverso il filtro dei parametri tecnici, che vengono così, di fatto, assolutizzati.

Poco importa se non sempre gli “specialisti” sono effettivamente portatori di un abito scientifico adeguato (anche perché è più facile che emergano i “presenzialisti” che i veri studiosi).

Poco importa se non sempre la loro autonomia intellettuale è così piena da impedire che essi possano fungere da strumenti di categorie o di centri di potere – soprattutto economico-finanziario – sottratti comunque alla verifica del consenso democratico. Quando, direttamente o indirettamente, diventano affidatari delle chiavi dell’automobile della politica, vengono in risalto soltanto le “performances” che riescono ad ottenere. Il resto retrocede in seconda o terza linea.

Un Paese può subire una pressione fiscale esorbitante, segnare il passo nell’espansione produttiva, registrare una disoccupazione patologica, vedere crescere al proprio interno le distanze di reddito e di qualità della vita fra aree territoriali e fra gruppi di cittadini. Ebbene, tutto ciò – nel caso di cui sopra – viene considerato un epifenomeno secondario rispetto al punto nodale su cui viene richiamata l’attenzione.

Il deficit del bilancio statale è calato, poniamo, di uno-due punti percentuali? Ebbene, in questa visione distorta non conta se ciò sia avvenuto per aumento delle entrate o per riduzione delle uscite. Né conta se l’aumento delle entrate sia dovuto ad ampliamento della produzione e dei redditi, quindi dell’imponibile, ovvero ad ulteriore inasprimento delle aliquote fiscali (è il caso dell’Italia di questi ultimi anni). Né se, per contro, la riduzione delle uscite dipenda da razionalizzazione ovvero piuttosto da tagli indiscriminati della spesa.

L’inflazione è cresciuta di due-tre punti? Nessun problema: era previsto e dunque essa sta sotto controllo. Vai poi a vedere se sia stata indotta da aumenti di tasse su beni e su servizi essenziali, o se a seguito di crescita del prezzo di materie prime.

Naturalmente tutto ciò vale, ed a maggior ragione, quando si utilizzano le conseguenze e gli strumenti tecnici per “coprire” i risultati negativi di una certa linea politica fino addirittura a renderli apparentemente positivi. Si pensi al “paniere” delle varie voci di spesa per calcolare l’indice dei prezzi al consumo per le famiglie utilizzato ai fini del rilievo periodico del tasso d’inflazione. Questo tasso risulta meno alto se nel paniere si attribuisce più peso ai prodotti e servizi amministrati o controllati dall’autorità pubblica, piuttosto che a prodotti o servizi soggetti alle oscillazioni del libero mercato.

Così, a fine 1995 l’Istat, l’Istituto nazionale di statistica italiano, ha estromesso dal paniere 23 voci inserendone 22 nuove: il capitolo di spesa “servizi sanitari e spese per la salute”, ad esempio, che prima aveva un peso pari all’1,98%, è venuto a pesare per il 5,50%: più o meno – si noti – quanto quello di tutte le carni. Ma poiché i prezzi nel settore sanitario sono sottoposti a controllo governativo, è chiaro che la loro crescita è più lenta. Di conseguenza il maggior peso loro attribuito nel paniere ha avuto come risultato di contribuire a “raffreddare” figurativamente la crescita del tasso di inflazione complessivo.

8

Rovesciamo ora lo scenario considerato sopra ed abbiamo l’ipotesi contraria: il politico che ignora il metodo e i contenuti della tecnica o che utilizza il tecnico per pura facciata senza in realtà tenere conto dei suoi pareri. Ogni cosa, in questa prospettiva, diventa politica. Ogni cosa rientra nelle valutazioni, nei canoni, nelle categorie della politica. Il politico fa il tuttologo.

Non si accontenta di definire gli obiettivi e di rapportarvi le dovute risorse sulla scorta di un ventaglio di opzioni che gli viene sottoposto dai tecnici.

S’illude forse che il potere di decidere contenga anche la facoltà di modificare a piacimento i nessi logici fra le cose. Poiché sente di dover garantire la continuità fra i vari settori della vita nazionale, entra o tenta di entrare trasversalmente in ciascuno di essi anche violandone le peculiarità, per omologarli alla propria misura. I gravi problemi sembrano trovarne tutela, ma poi vengono a mancare i requisiti per renderla consistente. Sia che le soluzioni prospettate vengano viste in una cornice ambiziosa di grandi strategie, sia che, più spesso, le si faccia risiedere nel banale tentativo di accontentare tutti, presto o tardi il fattore tecnico sottovalutato si vendica perché la realtà delle cose è stata trascurata. Gli sforzi si rivelano velleitari. I calcoli saltano. Le grandi aspettative vengono deluse. Le più mirabolanti ipotesi di soluzione falliscono. La collettività subisce i contraccolpi dell’insuccesso e della frustrazione.

Esempi in proposito se ne possono citare a iosa in tutto il mondo. Si pensi alle economie stataliste dell’Est, dove un robusto apparato tecnico al servizio della dirigenza politica non è valso a procurarle rimedi adatti ad impedire il crollo generale. L’ha solo aiutata a procrastinarlo nel tempo, addirittura nei decenni, rendendolo così ancora più clamoroso.

Oppure, per venire in casa nostra, si pensi all’esplodere del debito pubblico italiano nel periodo 1981-1993. In quegli anni si è formato l’80% degli oltre 2,3 milioni di miliardi del deficit della seconda metà degli anni ’90. Intanto il fisco arrivava a spremere il 49% del Pil o prodotto interno lordo (la media dell’Unione Europea senza l’Italia è del 40%) colpendo per il 78% il lavoro dipendente; cosicché sui due terzi delle famiglie, in buona parte a reddito medio-basso, sono stati addossati i tre quarti del prelievo totale. A prescindere dall’impostazione politica seguita, evidentemente i campanelli tecnici d’allarme, che avrebbero potuto invitare alla prudenza, o non hanno suonato o il loro segnale non è stato raccolto. La politica ha snobbato la tecnica, con i risultati visti.

Fra Scilla (la politica tecnocratica) [2] e Cariddi (la politica senza fondamenti tecnici), lo sviluppo di un Paese moderno deve obbedire ad una rotta affidabile. Una politica all’altezza del proprio ruolo, e insieme rispettosa dei propri limiti, non può che guardarsi dal cadere nell’uno o nell’altro dei due estremi. Razionalizzare la politica non è piegarla alla tecnica: è solo metterla in grado di essere efficiente senza cessare di essere libera.

Meglio: di essere più efficiente per essere più libera.

9

3. Una normativa praticabile I comportamenti dei singoli come oggetto di disposizioni e di adempimenti obbligati, di

sempre più difficile comprensibilità. Per contro, la necessità di un quadro di riferimento chiaro e percorribile con i moderni mezzi informatici. Le 150 mila leggi italiane. La burocratizzazione della vita industriale. La crescita della burocrazia e della spesa pubblica.

Ciascuno di noi desidera di dover sopportare il minor numero possibile di vincoli. La libertà

è un’esigenza interiore ed universale. Peraltro una libertà assoluta è impossibile. La ragione ci fa comprendere che la convivenza sociale comporta necessariamente delle limitazioni alla nostra autonomia. Ma, proprio perché tali limitazioni sono accettate in quanto ragionevoli, ci ribelliamo di fronte a quelle che ragionevoli non sono (o non ci paiono). Così come ci ribelliamo di fronte ad una quantità eccessiva (o che tale ci sembra) di adempimenti obbligati, che assorbano una frazione sempre crescente del tempo a nostra disposizione.

La legge (positiva) è la regola generale del comportamento sociale, fissata dal diritto (positivo) promanante dallo Stato come massima espressione politico-giuridica di una comunità.

Sia che formuli comandi (fare una cosa) sia che imponga divieti (non fare una cosa), la legge impatta sempre con la libertà dei singoli. Ebbene, è di comune osservazione che la legge, negli anni, è venuta a coprire un’area vastissima dei comportamenti umani. Attività un tempo decise secondo discrezione dagli interessati, o rapporti interpersonali già affidati al semplice accordo delle parti nel quadro di semplici norme di base, oggi incontrano una serie di prescrizioni. Sono soggette a controlli di vario tipo. Debbono rispettare procedure spesso molto dettagliate e a volte addirittura estremamente complicate.

Ciò naturalmente raggiunge un massimo laddove siamo in presenza di un potere totalitario che minimizza o annulla ogni libertà. Ma il fenomeno si riscontra anche in società comunemente definite libere e democratiche. E’ l’effetto in parte dell’oggettiva tendenza a disciplinare una vita collettiva resa via via più complessa da profondi cambiamenti: industrializzazione avanzata, formazione di grandi aggregati metropolitani, intrecci fra settori economici e sociali, rapidità delle trasformazioni di struttura legate allo sviluppo, ecc. In larga misura, però tale fenomeno dipende dall’ampliarsi - maggiore o minore nei vari casi, ma sempre rilevante - del ruolo della mano pubblica nella vita sociale. Sia in forma diretta: assumendo in proprio determinate attività, ad esempio mediante aziende pubbliche economiche. Sia in forma indiretta: promuovendo, stimolando, coordinando le attività private verso obiettivi ritenuti utili socialmente.

Il cittadino moderno è abituato a considerare normale tutto questo; e ordinariamente lo accetta, più o meno a malincuore.

Condizione affinché, invece, non lo rifiuti è che ne siano chiari i motivi, oltre ovviamente ad essergliene sopportabile il peso.

Gli strumenti informatici permettono ormai di acquisire in tempi strettissimi la conoscenza delle norme cui attenersi. Il che facilita enormemente non solo la loro osservanza, ma anche l’auspicabile diffondersi di una “cultura del rispetto della legge”. Cultura la quale non contrasta con l’umano desiderio del massimo di libertà, ma ne rappresenta il necessario corrispettivo sul piano della consapevolezza sociale.

10

Tuttavia neanche un calcolatore che ci informi puntualmente riesce a ridurre il numero delle leggi quando sono troppe, né a renderne lineare il dettato quando sia tortuoso e magari contraddittorio rispetto ad altre o addirittura in se stesso. Il problema verte, appunto, sull’entità e sui contenuti della normativa. Non riguarda i mezzi per apprenderla, che sono in buona misura già disponibili.

Le oltre 150.000 leggi vigenti in Italia costituiscono probabilmente un primato mondiale: in Francia sono 7.000, in Germania 5.000. E’ una situazione palesemente anomala, indipendentemente dalle possibilità di avvalersi di mezzi informatici per conoscerle. E’ una vera e propria selva selvaggia di regole quella che circonda il cittadino e ne avviluppa il comportamento, come la tela di un ragno invischia e alla fine immobilizza la malcapitata preda che vi sia incorsa. Si può davvero pensare che una simile massa normativa - eterogenea, intricata, confusa e per di più sottoposta a continui cambiamenti nel tempo - riesca a fungere da stella polare per un corretto comportamento sociale? Non ne viene piuttosto un incentivo ad eluderla, la legge: per dolo, ma anche per disperazione, se non per materiale impossibilità a comprenderne esattamente il dettato? Come può nascere nel nostro Paese quella cultura del rispetto della legge di cui dicevamo, se non si cambia la situazione?

Il grado di confusione è tale, oggi, che il cittadino quasi mai è in grado di “leggere” la normativa che lo riguarda.

Quando ne ha necessità, e questo si verifica più spesso di quanto si vorrebbe, egli deve ricorrere a un avvocato che gli indichi a quali leggi fare riferimento e che gli spieghi cosa è scritto nelle norme. Ma neppure un comune avvocato, il più delle volte, è in grado di farlo. Occorre allora il giurista specializzato nel ramo specifico che concerne il caso di interesse.

Lo Stato stesso, del resto, assai spesso non sa farlo. Sono numerosissimi i casi in cui le disposizioni che emette sono in difformità, o addirittura in antitesi, come si è accennato, con leggi in vigore la cui esistenza viene semplicemente dimenticata. Un esempio , fra i tanti, fu il bando di concorso per professori universitari che venne sospeso nel 1996 quando risultò che era in palese contrasto con una legge di appena pochi anni prima. L’effetto negativo di questi fenomeni sul funzionamento della macchina dello Stato e sulla società stessa è dirompente: si pensi che quel concorso mirava a sanare carenze didattiche delle Università che erano state individuate ben tre anni prima e che, inoltre, si trattava di oltre tremila posti, coinvolgendo quindi le aspettative di almeno ventimila candidati, molti dei quali studiosi di elevata qualificazione. E’ immaginabile che almeno alcuni di loro, nel frattempo, abbiano scelto di dedicarsi ad altra attività oppure di emigrare in altri Paesi.

Per questo appare addirittura patetica la figura del politico che, posto di fronte a un qualsiasi problema, escogita trionfalmente di risolverlo con una apposita proposta di legge, avendo scarsa o nulla nozione del quadro complessivo che abbiamo descritto. La strada della “leggina” è certamente più facile, più immediata e anche più fruttuosa in termini di immagine presso l’elettorato. Ma non è più ragionevole, anziché aggiungere un altro tassello all’esistente, modificare opportunamente le varie disposizioni precedenti secondo l’obiettivo prefissato?

Il monito del monaco Guglielmo di Occam: ”entia non sunt moltiplicanda praeter necessitatem (gli enti non vanno moltiplicati al di là della necessità)” non sembra abbia avuto alcun riflesso nella nostra produzione legislativa, che, proprio in termini di leggine, si è sbizzarita negli ultimi decenni. E fra queste leggine, giova ricordarlo, ne sono passate non poche che esprimevano solo gli interessi, non sempre legittimi, di piccole categorie assai

11

influenti, di gruppi o addirittura di persone specifiche: le cosiddette “leggi ad personam”. Quelle per cui si devia il percorso di un’autostrada affinché attraversi un determinato feudo elettorale; per cui si finanzia la costruzione di un porto al servizio di un insediamento industriale nel frattempo cancellato; per cui si stabiliscono avanzamenti di carriera a dipendenti pubblici con requisiti talmente specifici da identificarsi in un singolo individuo (il figlio, l’amica o il portaborse di qualcuno?).

Ad accrescere la numerosità, e il grado di polverizzazione, delle norme di legge, rendendone ancor più impenetrabile l’intrico complessivo, si sono aggiunti negli ultimi anni due nuovi mezzi che i governi adottano sempre più di frequente.

Si tratta delle “leggi omnibus” in cui viene messo assieme un gran numero di norme disparate riguardanti i casi più vari [3]: se almeno una di queste norme riveste carattere di reale e riconosciuta urgenza, allora diventa facile far digerire ai parlamentari anche tutto il resto. E si tratta anche delle leggi finanziarie, qui usate in modo del tutto improprio: in questi documenti di grande spessore (svariati centimetri di carta) il governo inserisce una miriade di norme - anch’esse relative ai casi più vari e quasi sempre prive di rilevanza effettiva ai fini del bilancio dello Stato - in modo che possano sfuggire al controllo dei parlamentari e giungano poi ad approvazione assieme al resto, cioè alla parte essenziale della legge finanziaria stessa.

Ma il problema non riguarda solo il rapporto del cittadino con le leggi. Riguarda anche il suo rapporto con l’attività di quel complesso di uffici che costituisce la pubblica amministrazione, ossia quella che si dice (non senza un sottinteso negativo) la burocrazia [4]. Più la sfera delle attività e dei controlli da parte della mano pubblica si estende, e più si moltiplicano per il cittadino le occasioni di dover avere a che fare con tali uffici: certificati, permessi, concessioni, è un susseguirsi di adempimenti spesso inspiegabili che disorienta, irrita, scoraggia, finendo con il minare la fiducia nelle istituzioni.

Quello che impressiona non è soltanto l’entità degli adempimenti burocratici a cui i cittadini e le imprese sono sottoposti, ma il ritmo della loro crescita con il passare degli anni, che deriva a sua volta dalla crescita continua delle norme e delle disposizioni di legge. Chissà se il Legislatore, la mitica figura che impersona la funzione legislativa della politica nel suo complesso, ha mai riflettuto sul fatto che con questa crescita abnorme il cittadino finirà col dedicare la maggior parte del suo tempo a svolgere i doverosi adempimenti di legge, così come a trasferire al fisco la quasi totalità dei suoi redditi? Ma come potrebbero produrre redditi, cittadini e imprese, se impegnati quasi a tempo pieno nel produrre carte per lo Stato?

E anche qui è lo Stato stesso che ignora le sue leggi. Un caso addirittura plateale è quello della legge sulla autocertificazione che è stata introdotta ormai da parecchi anni. Una norma tanto ragionevole - in quanto affida al cittadino stesso, e sotto la sua responsabilità, di certificare un certo numero di fatti che lo riguardano direttamente - quanto disattesa dagli uffici dello Stato.

I quali continuano a pretendere, invece, la presentazione di certificati ufficiali rilasciati da altri uffici (mai collegati fra loro). Si è arrivati al punto di dover svolgere un’azione informativa presso i cittadini, mediante “spot” televisivi, per renderli edotti del diritto all’autocertificazione.

Non sarebbe stato più semplice, più appropriato e meno costoso, compiere analoga opera d’informazione presso gli uffici dello Stato, i cui funzionari, del resto, sono retribuiti proprio per conoscere ed applicare le leggi?

12

Recentemente ulteriori sforzi sono stati avviati per semplificare la macchina burocratica. Ma il più resta ancora da fare. Lo ha sottolineato, in un’intervista pubblicata dal “Corriere

della Sera” l’11 settembre 2000, il già ambasciatore, ministro, uomo d’impresa e poi direttore generale dell’Organizzazione mondiale del commercio (Wto) Renato Ruggiero, notando come, nonostante alcuni ammodernamenti, “Siamo lontani da quello che servirebbe al mondo d’oggi”.

Quanto costa alla società globalmente presa, e quanto a ciascuno di noi, una macchina del genere? Impossibile calcolarlo con esattezza. Ma, per esempio, si sa che ogni anno vengono prodotti oltre 200 milioni di certificati e che il 95% è destinato al altri uffici pubblici. Il semplice recapito da un ente all’altro delle “carte” comporta per le medie e piccole imprese un aggravio non inferiore al 2% dei costi di esercizio, per circa 27 mila miliardi di lire all’anno. I soli obblighi fiscali rappresentano più del 70% delle attività amministrative svolte dal personale aziendale: dunque una imposta occulta sulle imposte dichiarate. Il suo ammontare in lire varia a seconda delle dimensioni e del tipo d’impresa: nel 1997 un’azienda manifatturiera con qualche decina di addetti spendeva al riguardo non meno di 120-130 milioni all’anno. Quanto al costo globale per la società dovuto alle disfunzioni della pubblica amministrazione, si è stimato che raggiunga annualmente i 15 mila miliardi di lire.

Certo è che la crescita della dimensione burocratica ha comportato e comporta un parallelo aumento della spesa pubblica in generale, nonché della spesa delle famiglie e delle imprese.

Evidentemente, qui non c’è che da seguire il processo inverso: alleggerire lo Stato, renderlo più snello e più efficiente. E, quindi, “sburocratizzare” la vita individuale e sociale, cancellando tutti quegli impatti obbligati con la burocrazia che non siano strettamente indispensabili. Ma si deve anche e soprattutto sfrondare la giungla legislativa. E’ una riforma gratuita: basta dar vita a dei testi unici che raccordino la normativa settore per settore, semplificandola e fondendola.

Vien voglia, a questo proposito, di proporre l’esempio del grande imperatore Federico II. Tornato nel suo prediletto regno di Sicilia (che a quel tempo comprendeva tutta l’Italia

meridionale) dopo aver trascorso alcuni anni in Germania a riconquistare il trono imperiale, Federico si rese subito conto del caos legislativo creato in quegli anni e delle dilapidazioni del patrimonio nazionale fatte a vantaggio di baroni e ecclesiastici. Sicché, non appena arrivato a Capua, la prima città entro i confini del regno, emanò il severissimo decreto “De resignandis privilegis”. Con esso sospendeva tutte le leggi emanate in sua assenza, affidando poi alla cancelleria imperiale il compito di esaminarle una per una, per decidere quali mantenere in vigore e quali abolire definitivamente.

Per quel che poi resti di una ineliminabile funzione burocratica (posto che innegabilmente vi sono interessi generali il cui perseguimento può essere garantito solo dallo Stato e dagli altri enti pubblici), occorre una profonda, autentica riforma della pubblica amministrazione. Questa va razionalizzata secondo criteri di funzionalità, trasparenza, produttività, effettiva considerazione del merito nelle carriere, applicazione su larga scala dei processi e dei mezzi informatici che permettano connessioni all’interno e con l’ambito postale, bancario, con le imprese, col mondo della ricerca ecc., in una maglia di reti integrate ad alta velocità. L’Italia è agli ultimi posti nell’incidenza sul Pil della spesa per l’informatizzazione degli uffici pubblici: rappresenta appena l’1,3%, a fronte del 4,2% della Spagna, del 4,3% della Gran Bretagna e del 7,7% degli Stati Uniti. Inoltre quel poco di informatizzazione attuata nello Stato è giunta ad

13

utilizzare ben 74 “linguaggi informatici” diversi. E’ così potuto accadere che l’ufficio X si dotasse di particolari tipi di macchine e di particolari programmi, mentre l’ufficio Y preferisse altri tipi di macchine e altri programmi: scelte tutte in sé magari ragionevoli, ma nel loro insieme sbagliate perché in tal modo si è impedito che i diversi uffici “dialogassero” fra loro. Anche su questo terreno da qualche tempo ci si è incominciati a muovere positivamente. Ma con molta, troppa lentezza.

Un passaggio obbligato nella razionalizzazione normativa e burocratica appare il decentramento funzionale. Purché, beninteso, sotto tale nome non abbia a passare una pura e semplice duplicazione dal centro alla periferia (come è già ampiamente accaduto qualche decennio fa, quando furono istituite le Regioni a statuto ordinario). Sarebbe qui fuori luogo valutare i termini possibili di una realizzazione in concreto. Ma non sembra che si possa prescindere dal rimodulare poteri e funzioni gestionali in rapporto ad esigenze di maggior vicinanza con gli amministrati sul territorio, per una migliore conoscenza dei problemi ed un migliore controllo [5].

Una pubblica amministrazione agile, pronta, efficace, tempestiva nel suo agire, restituisce in servizi validi quello che costa. Diffonde fiducia e spirito costruttivo. E’ fondamentale condizione di competitività delle imprese, di sviluppo economico, di vita sociale migliore. Un obiettivo che non sembra irraggiungibile a chi conosce il funzionamento della pubblica amministrazione in altri Paesi. Ma che appare assai difficile da conseguire in mancanza di quel tipo di “cultura” che invochiamo.

4. Cultura di sistema La realtà è costituita da aggregati interagenti a livelli diversi, dove i vari elementi si

esprimono in funzione reciproca e concorrono ad un significato complessivo. Ciò vale oggi più che mai nelle interdipendenze regionali e nazionali dell’economia e della politica. Cause ed effetti: post hoc, ergo propter hoc? La nozione di complessità dei sistemi. Sistemi e modelli. Il sistema Italia.

Il mondo della natura è essenzialmente un mondo di interconnessioni. Non c’è bisogno di

ricordare i classici esempi di simbiosi mutualistica in senso stretto fra determinati animali o piante. Si sa che qualsiasi soggetto vivente esiste in quanto il ciclo delle sue funzioni vitali è raccordato al ciclo vitale di altri organismi suoi simili e di altre specie viventi, così come si avvale dei grandi cicli inorganici/organici ambientali: il ciclo dell’acqua, il ciclo del carbonio e via dicendo.

Che sono a loro volta tutti strettamente interconnessi. La coscienza ecologica tanto diffusa ai nostri giorni è basata proprio sulla visione complessiva di questo integrarsi e condizionarsi di fattori ambientali su larga scala. Tutto ciò esprime un’idea di “sistema”, che etimologicamente significa appunto: “entità differenti tenute insieme da un unico denominatore”. Addirittura ciascun organismo vivente può essere considerato in chiave di sistema. Così pure ogni organo del nostro corpo svolge dei compiti specifici, ma tutti gli organi sono interconnessi da apparati (di alimentazione, di ossigenazione, di controllo e consumo, ecc.) comuni; e tutti concorrono al fine generale, che è la nostra vita.

14

Analogamente accade nel mondo sociale. E’ a tutti noto l’apologo di Menenio Agrippa che valse a smontare la secessione sull’Aventino in nome della reciproca necessità fra le diverse classi dell’antica Roma.

Nella società, così come del resto in natura, si riscontra anche il conflitto. Ma lo stesso contrasto di interessi, la stessa lotta politica che li incarna, mettono in risalto il significato della società come sistema. Non vi sarebbe conflitto, se non vi fosse interazione e, al limite, interdipendenza. Non si deve confondere sistema con “sinergia”: non occorre che le forze convergano potenziandosi a vicenda, per fare un sistema. Si ha un sistema anche in presenza di forze confliggenti. Basta che esse siano interne ad un medesimo quadro di riferimento, per cui in qualche modo si richiamino fra loro, magari solo in negativo, per opposizione.

Il concetto di sistema sociale, intuitivamente facile da avvertirsi, vien spesso trascurato nella prassi politica. Si pensi alla politica tributaria. Le varie voci impositive non possono essere viste ciascuna a sé. La loro applicazione si somma nelle quantità (non mi curo tanto dei singoli addendi: mi preme di più quanto pago al fisco in totale, e può darsi che la somma ad un certo punto mi diventi insostenibile). Ma si intreccia altresì nelle implicazioni qualitative (se da un lato il mutuo per l’acquisto della casa di abitazione mi consente una detrazione fiscale sul reddito e dall’altro lato la stessa prima casa è soggetta ad una imposta specifica, contestualmente ne avrò là un incoraggiamento e qua uno scoraggiamento ad acquistarla). Non per niente si parla di “sistema fiscale”. Ebbene, quante volte esso è trattato come tale e non invece come un luogo di interventi eterogenei, del tutto disorganici e non di rado contraddittori (vedi l’esempio fatto sopra per la prima casa)? Forse una sola volta nella storia di questi ultimi decenni: quando venne attuata, effettivamente nel quadro di una visione di insieme, la riforma fiscale ricordata con il nome di Vanoni.

La realtà di sistema dei fenomeni della vita politica ed economica è straordinariamente rilevante oggi. Il progresso scientifico e tecnologico ha, come si dice, accorciato le distanze facilitando enormemente le comunicazioni e gli spostamenti di uomini e merci. La Terra, si dice anche, è diventata più piccola. Ciascuno di noi può asserire di essere virtualmente prossimo a tutto ciò che accade sul pianeta. Non solo le occasioni di informazione, ma anche le interdipendenze materiali si sono enormemente moltiplicate. Si pensi a ciò che, da questo punto di vista, rappresenta la “globalizzazione”.

Ogni progresso nella ricerca trova rapido trasferimento da un Paese all’altro. Anche i rischi si sono moltiplicati: non ci sono più guerre locali che non minaccino di estendersi, mentre gli inquinamenti dell’aria e delle acque marine rappresentano uno degli incubi a livello mondiale.

I temi della crescita socio-economica, in particolare, hanno ormai portata planetaria. Lo sviluppo dei Paesi arretrati non costituisce un problema che tocca soltanto loro: coinvolge anche i Paesi sviluppati, nel senso che richiede di essere incluso nelle loro dirette prospettive in una correlazione di sistema. Si guardi al problema dell’immigrazione massiccia dal Terzo Mondo ai Paesi più avanzati: sarebbe evidentemente illusorio pretendere di risolverlo solo giocando in difesa. La soluzione non può che essere cercata nell’inserimento dello sviluppo del Terzo Mondo fra gli obiettivi delle economie più ricche. E ciò, appunto, in chiave sistemica.

Ugualmente, e tanto più, per quanto riguarda i temi della crescita di regioni arretrate interne ad un Paese sviluppato. Sarebbe un grave errore scorgere in esse un capitolo separato, e non, invece, una componente comune che attraversa tutti i capitoli settoriali della politica economico-sociale nazionale (dalla politica delle attività produttive alla politica del lavoro, alla

15

politica del credito e via dicendo). Il problema delle aree da sviluppare, quindi, non è il problema del loro “inseguimento” delle condizioni socio-economiche delle aree più avanzate: è il problema dell’impegno di queste ultime a favorire, nelle prime, condizioni idonee al realizzarsi delle potenzialità endogene di sviluppo per una più equilibrata crescita complessiva.

Essere consapevoli della sistemicità nel campo politico ed economico vuol dire avere ben presenti le ripercussioni che eventi relativi ad un versante di un sistema possono provocare su versanti anche lontani. Ma vuol dire avere ben presente anche il diverso tipo di risposta che uno stesso intervento può incontrare in rapporto a diverse situazioni. Un sensibile calo della mortalità infantile ottenuto grazie alle conquiste della medicina, al miglioramento delle condizioni di vita e via dicendo, si ripercuoterà di lì a qualche anno in un fabbisogno di nuovi insegnanti e di nuova edilizia scolastica. Il ribasso del prezzo della benzina genererà effetti tonificanti sui trasporti di un Paese relativamente motorizzato; mentre potrà contribuire a congestionare ancor più le strade di un altro a forte tasso di automobilizzazione.

Talvolta, del resto, si prendono provvedimenti per ottenere determinati risultati senza curarsi di possibili effetti negativi in seguito, anche quando questi sono facilmente prevedibili. Un caso abbastanza recente è quello dei sussidi pubblici alla sostituzione delle vecchie automobili (la “rottamazione”), che nel corso del 1997 hanno tonificato vivacemente il mercato e l’industria del settore (con un aumento delle vendite del 9% sull’anno precedente). Ma nel 1998, quando le vendite automobilistiche sono crollate, se ne è avuto un impatto fortemente negativo sull’economia nazionale, la cui crescita (1,4%) è stata assai inferiore sia alle previsioni iniziali (2,5%) e sia al loro successivo ridimensionamento da parte del governo (1,8%).

Tra le cause e gli effetti interni ad un sistema, peraltro, la connessione non riflette necessariamente né una sequenza immediata né una sequenza monolineare. Non sempre ciò che viene dopo è la conseguenza di ciò che immediatamente lo precede. Se si riducono gli oneri fiscali a carico delle imprese, sicuramente se ne potrà avere un beneficio per l’occupazione. Ma un netto aumento di posti di lavoro che si riscontri appena qualche settimana dopo, è probabile che sia piuttosto provocato da una ripresa produttiva cominciata in precedenza. La crisi di un’attività industriale di rilievo imperniata sull’importazione via mare di grande masse di materie prime non si traduce solamente in una crisi delle attività economiche indotte in via diretta (in questo caso le imprese di navigazione e le imprese portuali): se persiste a lungo o magari diventa definitiva, si ripercuote anche sull’indotto indiretto (sempre nel nostro caso, i cantieri che producevano le navi impiegate per quel trasporto).

Una caratteristica immancabile di qualsiasi sistema nel campo politico-economico è la sua complessità. Un sistema politico-sociale all’apparenza semplice deriva probabilmente da una lettura disattenta dei suoi elementi.

Per esempio, un sistema elettorale imperniato sul metodo maggioritario uninominale non si discosta da un sistema imperniato sul metodo proporzionale plurinominale soltanto perché da un collegio elettorale escono, rispettivamente, un solo parlamentare e più parlamentari. Tra le due formule le differenze non si limitano all’aspetto tecnico-elettorale. Riguardano anche l’aspetto politico generale, che distingue i metodi maggioritari (mirati soprattutto a permettere la governabilità) dai metodi proporzionali (rispondenti soprattutto allo scopo di garantire rappresentanza alle minoranze). Ma si estendono altresì ad altri profili: a quello del

16

radicamento dei candidati sul territorio, a quello della diversa “taglia” di personale politico che ne viene mediamente valorizzato, a quello della diversa consistenza del messaggio che le liste concorrenti debbano lanciare all’opinione pubblica per acquisirne il consenso, e via dicendo.

La complessità dei sistemi richiede un’adeguata metodologia per affrontare i problemi. Un approccio semplicistico ad un sistema complesso non è solo riduttivo: è snaturante. Non fa correre solo il pericolo di non padroneggiarlo completamente, ma anche quello di deviarlo. Un sistema economico, per essere sano, non basta che non sia eroso dall’inflazione: occorre che la difesa dall’inflazione si accompagni ad una serie di misure che dal terreno finanziario si estendano al terreno dell’economia reale. Si dovranno infatti sostenere adeguatamente la produzione dei beni e dei servizi adeguati ai bisogni dei cittadini, nonché l’impiego del lavoro disponibile. La lotta all’inflazione in termini puramente finanziari potrebbe portare alla deflazione, ossia al malanno opposto, con conseguenti crisi produttive, chiusura di aziende, disoccupazione, ecc.

L’idea di sistema riferita al terreno politico-economico permette di applicarvi le tecniche della modellistica. Le componenti di un sistema sono assimilabili alle varie parti di un disegno logico che assume forma proprio dalla loro interconnessione. Tale disegno possiamo renderlo “animato” supponendo di modificare talune delle sue parti e calcolando come in un simile caso verrebbero a cambiare di conseguenza le altre parti ad esse collegate. Ciò assume speciale importanza nella valutazione del cambiamento in sistemi soggetti a fattori evolutivi operanti in altri sistemi.

Per esempio, è accertata la dipendenza fra andamento del prodotto interno lordo (Pil) e andamento della domanda di trasporto in un Paese [6].

Un’analisi su modello del sistema trasportistico dovrà allora tenere conto del diverso atteggiarsi delle esigenze di mobilità delle persone e delle merci in funzione di diverse ipotesi di “trend” economico. Il che porterà a definire una fascia di possibilità comprese fra un minimo ed un massimo, all’interno dei quali collocare probabilisticamente la domanda di trasporto a determinate scadenze future. E in tal modo consentirà di predisporre gli interventi infrastrutturali ed organizzativi eventualmente necessari.

Quando poi sul terreno politico-economico si tratta del “sistema nazionale”, è come se si fosse saliti di un gradino, all’altezza di un “sistema di sistemi”. Così si parla abbastanza comunemente di un “sistema Italia” per indicare la dipendenza del benessere, della stabilità, della qualità della vita nell’intero nostro Paese dal concorso di molteplici condizioni, ciascuna delle quali a sua volta subordinata ad altre. In effetti, al funzionamento del “sistema Italia” cooperano fattori diversi e numerosissimi, che obbediscono a criteri tecnico-operativi propri, ma che sono tutti necessari.

Gli squilibri interni a detto sistema, anche quando si incentrano in aree geografiche specifiche (principalmente, Mezzogiorno; ma non vanno trascurate realtà di depressione anche nel Centro-Nord), sono nondimeno squilibri comuni, che non possono che essere superati dal sistema nella sua interezza. Voler eliminare alcune questioni tagliando via dal sistema le aree sulle quali esse più gravano, anche a prescindere dalla considerazione di altri profili, risulterebbe comunque negativo: infatti toglierebbe alle altre aree risorse insostituibili (di mercato interno, di incidenza globale nei rapporti con l’estero, di potenziale sviluppo comune). E così ne risulterebbe più debole la valenza sistemica complessiva.

17

5. “Feedback” Il concetto di “feedback”, o retroazione, nei sistemi artificiali, naturali e sociali. Reazione

negativa e positiva. La retroazione come mezzo (“feedback” intenzionale) e come schema interpretativo.

Certe parole, che nel linguaggio scientifico hanno un significato ben preciso, vengono usate

comunemente con tanta larghezza quanta improprietà di linguaggio. Sicché ne risulta una perdita del significato che esse dovrebbero esprimere.

Una di queste è il termine “feedback”, in italiano “retroazione”7, che viene spesso inteso semplicemente, e dunque banalizzato, come “risposta” (...aspetto ancora un “feedback” su quanto ti ho chiesto...). Una buona comprensione del significato effettivo di questo termine, delle sue implicazioni e della sua generalità, che lo rende vantaggiosamente applicabile nei contesti più vari, sarebbe invece assai utile e fruttuosa nella cultura comune, e ancor più in quella di governo e di amministrazione.

Un esempio assai semplice varrà a introdurre gli elementi essenziali del concetto di “feedback”.

Immaginiamo di voler rendere confortevole la temperatura di una stanza, mentre fuori fa freddo, usando una stufetta. Conoscendo la differenza fra la temperatura esterna e quella interna, si potrebbe stabilire l’entità delle dispersioni di calore verso l’esterno per determinare quindi la potenza che la stufetta deve fornire (un calcolo, peraltro, certamente non banale). Così procedendo, tuttavia, la temperatura dell’ambiente è evidentemente destinata a cambiare, anche di parecchio, quando varia la temperatura esterna; come, d’altronde, avviene normalmente fra il giorno e la notte (o si verificano altri eventi, quali l’accensione di elettrodomestici che immettono calore nell’ambiente). Una temperatura sempre confortevole si ottiene invece assai semplicemente usando un termostato. Esso, infatti, provvede in via automatica ad azionare l’impianto di riscaldamento non appena la temperatura della stanza si abbassa ed a disattivarlo quando s’innalza.

Il punto essenziale è che, in questa nuova situazione, si ha un effetto di “reazione”, nel senso che la temperatura della stanza viene ad agire su se stessa. Prima essa dipendeva solo da altre variabili (il calore prodotto dal riscaldatore e quello disperso attraverso le pareti). Ora, con l’introduzione del termostato, è diventata anche funzione di se stessa. E la reazione, in questo caso, è una reazione “negativa” (così chiamata, sebbene il risultato risulti invece per noi assai … positivo): nel senso che a ogni variazione della temperatura, dovuta alle più varie cause esterne, corrisponderà una azione correttiva di segno opposto, col risultato di attenuarne l’effetto.

Diverso è il caso della reazione “positiva”, in cui la reazione tende invece ad esaltare, ampliandolo, l’effetto di qualsiasi variazione. Il caso estremo della reazione positiva è poi l’instabilità (fenomeno peraltro assai poco … positivo).

L’instabilità si verifica quando il minimo disturbo agente su un sistema – sempre presente, nell’ordine naturale delle cose – produce effetti che crescono nel tempo, idealmente senza limiti, assumendo infine carattere dirompente. Questa crescita può essere molto veloce, anche a carattere esplosivo, o assai lenta; ma è sempre inesorabile, arrestandosi soltanto quando si verificano fenomeni di rottura oppure di saturazione. Un buon esempio è quello della crescita

18

iniziale di una popolazione di animali in una determinata regione (come i conigli importati in Australia dai colonizzatori): di generazione in generazione il numero degli animali cresce con legge esponenziale [8], come avviene nella maggior parte di questi fenomeni, per stabilizzarsi poi un livello di saturazione, che è determinato dai limiti delle risorse presenti nella regione (ossia il cibo disponibile).

E, in effetti, tutti i fenomeni di crescita con legge esponenziale sono un palese indizio di instabilità.

Tornando al termostato, vogliamo porre in rilievo come l’introduzione di questo dispositivo – che rappresenta il cuore del “feedback” – abbia modificato profondamente la natura stessa del controllo. Prima, infatti, l’azione di controllo era basata su una valutazione preventiva del calore occorrente per riscaldare l’ambiente, trascurando qualsiasi altro effetto che potesse influire sul risultato. Usando il termostato, invece, l’azione di controllo è basata sul confronto fra la temperatura impostata sul regolatore e quella effettiva, cioè fra quanto desiderato e quanto ottenuto: ben più rispondente a ciò che ci interessa davvero.

Qui viene spontaneo chiedersi se l’esistenza di questo importantissimo principio di controllo abbia mai sfiorato la mente di qualche legislatore.

Non sembra davvero, dal momento che le leggi sono sempre orientate a ottenere determinati risultati sulla base di quanto si immagina dovrebbe verificarsi, anziché di quanto avviene poi realmente. Di conseguenza l’applicazione delle leggi, per quanto minuziose, non può che tradursi, per l’assenza di “feedback”, in risultati che sono sostanzialmente incontrollati. Se non avviene anche di peggio, come si vedrà nel capitolo 6.

Nella storia della scienza e della tecnologia non mancano esempi di dispositivi basati sulla retroazione. Il più noto è certamente il regolatore che James Watt, agli albori della rivoluzione industriale, utilizzò per stabilizzare la velocità delle macchine a vapore, e che in seguito fu analizzato matematicamente dal grande fisico James Clerk Maxwell. Assai più remoto nel tempo è l’“inseguitore di posizione” che un ignoto agricoltore di molti millenni fa realizzò apponendo un anello al naso di un animale da traino: tirando l’anello con una corda, egli poté trascinare senza sforzo un aratro o un altro carico pesante (qui l’elemento “sensibile” è costituito dal naso dell’animale, che è, appunto, estremamente sensibile alla differenza fra la sua posizione e quella dell’anello).

L’introduzione esplicita del concetto di retroazione è invece più recente, dato che viene attribuita all’ingegnere americano Harold S. Blake nel quadro di ricerche svolte negli anni ’20 del XX secolo, quando si stava diffondendo la telefonia interurbana. L’attenuazione introdotta da cavi di lunghezza sempre maggiore richiedeva l’impiego di amplificatori elettronici utilizzanti le valvole, dispositivi il cui “guadagno” si riduce però gradualmente man mano che esse si esauriscono. Le conversazioni telefoniche, pertanto, risultavano spesso inintellegibili: una amplificazione troppo alta dava luogo a fastidiose distorsioni, una insufficiente rendeva non più udibile il segnale. Fu allora che Blake giunse a realizzare amplificatori il cui guadagno si manteneva pressoché costante nel tempo nonostante le variazioni alle quali erano soggette le valvole che li costituivano. Blake ottenne quanto occorreva applicando all’ingresso dell’amplificatore, anziché il segnale da amplificare, la differenza fra questo e una opportuna frazione del segnale amplificato, prelevato all’uscita del circuito stesso, realizzando appunto un sistema a retroazione.

19

Non mancarono, tuttavia, gli inconvenienti. In certi casi, infatti, il circuito controreazionato si portava in condizioni di instabilità, diventando sede di oscillazioni indesiderate (in pratica, emettendo un fischio lacerante: lo stesso che si ode in una sala quando il microfono viene avvicinato all’altoparlante). Il fatto è che in determinate condizioni la reazione si trasforma da negativa in positiva, fino a provocare l’insorgere di autoscillazioni. Tale problema fu risolto in seguito da Harry Nyquist, che chiarì la natura del fenomeno dell’instabilità nei sistemi con retroazione e indicò i criteri per affrontarlo.

Da questi stessi studi derivò un risultato importantissimo: l’azione di controllo, non soltanto non può prescindere dalla considerazione dei suoi stessi effetti, ma deve anche essere sufficientemente pronta, agendo dunque senza ritardo apprezzabile. Quando questo ritardo diventa eccessivo, infatti, si va a compensare un disturbo laddove il suo effetto si è già esaurito. Il risultato del controllo, allora, è quello di creare un ulteriore disturbo, opposto a quello che si intendeva compensare. Un disturbo che il controllo cercherà poi, ma sempre in ritardo, di compensare a sua volta, dando così luogo a una serie di oscillazioni.

Gli inconvenienti del “feedback ritardato” risultano evidenti considerando quanto avviene quando si controlla la temperatura dell’acqua di una comune doccia agendo sul miscelatore caldo/freddo. Qui accade spesso di scottarsi, o di gelarsi, proprio a causa del ritardo (dovuto alla propagazione dell’acqua dal miscelatore all’uscita della doccia) con cui si esercita l’azione correttiva.

Il concetto di retroazione, in seguito, trovò largo uso, in particolare nella realizzazione di sistemi di controllo per gli impieghi più vari: da semplici apparecchi casalinghi, come le macchine lavatrici, a sistemi enormemente più complessi, come quelli che provvedono a produrre l’elettricità per distribuirla poi nelle abitazioni a una tensione prefissata.

La straordinaria precisione che permette di ottenere la retroazione, quando s’impiegano mezzi di altissima tecnologia, è stata poi ampiamente dimostrata a tutti dalle imprese spaziali. Un esempio di particolare interesse è l’incontro fra due navicelle spaziali a grandissima distanza dalla Terra: nella fase di avvicinamento, e poi di contatto, il controllo viene esercitato contemporaneamente sulla posizione e sulla velocità di ciascuna delle due navicelle, manovrando in modo che al momento del contatto si annullino assieme sia la differenza fra le due posizioni che quella – più importante ancora per evitare urti rovinosi – fra le due velocità.

Di grandissima portata per la società umana è risultato l’impiego di controlli a retroazione nei processi di fabbricazione dell’industria: macchine utensili che eseguono lavorazioni in modo completamente automatico secondo un programma prefissato, mezzi raffinati per verificare la rispondenza dei prodotti a quanto desiderato, e cosi via. Infatti è proprio l’automazione dei processi produttivi, spinta oggi all’impiego di sistemi robotizzati, che consente la produzione di grandi quantità di beni a costi assai più bassi del passato. Basti pensare che, sessanta anni fa, per costruire un’automobile occorrevano molte migliaia di ore di lavoro; oggi, grazie al largo impiego di sistemi automatici, ne bastano meno di cinquanta.

Ora, quella di “controllare” certe grandezze in modo che si comportino nel modo desiderato è una esigenza che trascende gli ambiti, pur vastissimi, della scienza e della tecnologia. Essa infatti, investe anche molte delle problematiche di qualsiasi società umana organizzata. A questo proposito basta pensare alla natura stessa dell’azione di governo di qualsiasi Stato, che è sempre mirata a raggiungere determinati risultati, assai spesso quantificabili nei termini dei valori numerici di opportune grandezze economiche e sociali. Non è un caso, d’altra parte, che

20

l’origine della parola “governo” sia la medesima del termine introdotto dal matematico Norbert Wiener per indicare le discipline relative al controllo e alle comunicazioni: ossia “cibernetica” [9].

Si deve, però, sottolineare che le effettive possibilità di controllo sono assai diverse, e dunque assai diversi sono anche i risultati conseguibili, a seconda che i sistemi “ controllati” siano sistemi fisici, naturali o artificiali, oppure sistemi economici o sociali. Il fatto è che il controllo di un determinato sistema richiede una buona conoscenza del sistema stesso, formalizzata in quello che si chiama il suo “modello matematico”. Ciò vuol dire che occorre anche conoscere le diverse variabili esterne che possono influire sul sistema, compresi i “disturbi” che tendono a far deviare le grandezze controllate rispetto a quanto si desidera.

Sfortunatamente, il grado di accuratezza con cui si arriva a costruire i modelli è, nel caso dei sistemi economici e sociali, assai inferiore rispetto ai sistemi fisici. Il che è evidente, sia per la maggiore complessità dei fenomeni in gioco, che per la nostra scarsa conoscenza delle leggi che li governano. Sicché i risultati del controllo non potranno essere altrettanto efficaci. Ma questo non è certamente un motivo perché il concetto di “feedback” non possa trovare impiego, almeno come guida metodologica, nella progettazione degli interventi. Anche nei sistemi sociali, come in qualsiasi altro tipo di sistema, valgono infatti i principî generali della retroazione che abbiamo esposto prima. E cioè: qualsiasi azione correttiva risulta scarsamente efficace se a) non è resa dipendente dalla valutazione dei risultati che essa stessa produce e b) non interviene con la necessaria prontezza.

Consideriamo infine un aspetto importantissimo del concetto di “feedback” (assai diverso dal suo impiego intenzionale nei sistemi di controllo su cui ci siamo soffermati sinora), ossia come “schema interpretativo” per la comprensione di un gran numero di fenomeni. La retroazione può essere intesa infatti come chiave di lettura – sempre molto stimolante e spesso anche assai proficua – dei fenomeni più vari. E ciò proprio grazie alla grande generalità di tale concetto [10].

Anche il problema del riscaldamento globale del nostro pianeta causato dall’“effetto serra” derivante dalla crescita del contenuto di anidride carbonica nell’atmosfera, a cui tanto spazio dedicano sovente i media, può essere esaminato assai utilmente in termini di retroazione [11]. Qui è importante rendersi conto della presenza di numerosi effetti di reazione, negativa e positiva, che agiscono contemporaneamente (dal che deriva l’enorme complessità dei fenomeni in gioco), per non stupirsi troppo circa le differenze, anche notevoli, fra le valutazioni sull’entità del riscaldamento previsto, effettuate dai diversi gruppi di ricerca che si occupano dell’argomento. Questi studi sono basati su modelli matematici, non soltanto estremamente complicati, ma anche basati su dati di partenza che presentano notevoli incertezze. Tuttavia, i problemi maggiori sull’attendibilità dei risultati forniti dai diversi modelli derivano proprio dalla presenza di molteplici effetti di reazione – sia positiva che negativa – che, per di più, si manifestano su scale temporali assai diverse [12].

Lo stesso schema interpretativo può essere usato a proposito della democrazia, intesa come meccanismo per controllare il funzionamento di un sistema politico: più precisamente la qualità delle prestazioni offerte da una classe dirigente. I più gravi inconvenienti dei sistemi totalitari – a prescindere dalla natura delle ideologie che li ispirano – derivano, infatti, dall’assenza di retroazione: cioè di mezzi efficaci per la valutazione e il controllo dell’azione di governo in termini di risultati prodotti. Questi mezzi, invece, sono alla base dei sistemi

21

democratici, che li attuano periodicamente attraverso il meccanismo delle elezioni politiche, dove la valutazione espressa dai cittadini si traduce in una forma di controllo basata sul mantenimento ovvero sull’avvicendamento della classe dirigente.

E’ importante osservare che il buon funzionamento del sistema richiede però che il segnale di controllo sia quanto più possibile rispondente ai fatti. Occorre, cioè, che esso si appoggi su una valutazione reale e non distorta – per esempio, dai mezzi d’informazione – circa il confronto fra risultati effettivi e risultati attesi. Altrimenti il “feedback” relativo al sistema democratico s’inceppa: esattamente come s’incepperebbe un termostato al quale venisse falsata l’informazione sulla effettiva temperatura dell’ambiente che s’intende controllare.

Il sistema democratico rappresentativo si potrebbe criticare per il ritardo con cui si attua l’azione di controllo, dato l’intervallo di tempo (alcuni anni) che intercorre fra una votazione e la successiva. Per quanto detto prima, in effetti, potrebbe risultare più efficace un controllo in tempo reale: quale garantirebbe una democrazia diretta, attuata, per esempio, mediante sondaggi svolti su tempi più ravvicinati. Ma questo ritardo svolge, entro certi limiti (che non escludono l’utilità funzionale di una più estesa “partecipazione” popolare alle decisioni pubbliche), un’azione benefica. In primo luogo, esso è in qualche modo commisurato alla grandissima “inerzia naturale” dei meccanismi alla base del funzionamento del “sistema Paese”, che impedisce di cogliere il reale effetto di una azione di governo con osservazioni a breve termine: perché i suoi risultati si concretizzino, o perché almeno assumano sufficiente visibilità, può essere necessario un tempo anche considerevole. Il ritardo svolge, poi, la stessa azione di “filtraggio del rumore” sulla linea del segnale di controllo che viene spesso attuata nei sistemi di controllo usati nella tecnica: si evita, così, che la valutazione complessiva dell’opera di governo venga falsata dalle mutevolezze dell’opinione pubblica derivanti dal prevalere momentaneo dell’uno o dell’altro di una molteplicità di elementi soggetti a continue fluttuazioni nel tempo.

Il paradigma della retroazione può essere utilmente impiegato anche nell’interpretazione di fenomeni riguardanti l’economia.

Un esempio a tale proposito è la vivacissima diffusione, negli ultimi decenni, dei prodotti dell’industria elettronica. In passato questi prodotti risultavano assai costosi: il loro impiego era quindi limitato a settori particolari, come la difesa e lo spazio. Ma poi essi cominciarono a entrare in un numero via via più esteso di impieghi, e allora la crescita della loro diffusione agì come catalizzatore del loro stesso sviluppo: l’aumento dei volumi di produzione condusse a riduzioni di costi tali da estenderne ancora i campi d’impiego, attraverso un meccanismo che si interpreta bene in termini di reazione “positiva”.

E’ proprio il crollo dei costi di produzione dei circuiti integrati [13] a spiegare come in una normale abitazione si trovino oggi calcolatori aventi prestazioni ben superiori di quelle delle macchine che in passato costituivano l’orgoglio dei centri di ricerca.

Anche qui, come nel caso della crescita di popolazioni considerata all’inizio del capitolo, interverranno prima o poi fenomeni limitanti.

Ma è facile ipotizzare che allora si affermerà qualche tecnologia del tutto nuova, che prenderà, a sua volta, la rincorsa.

Da ultimo, se interpretiamo anche il sistema giudiziario in termini di “feedback”, cioè di azioni correttive conseguenti a devianze rispetto alle norme di legge, è facile, soprattutto nel nostro Paese, leggere nella realtà dei fatti le conseguenze delle disfunzioni che conseguono ai

22

paurosi ritardi con cui vi opera questa retroazione (vedi sopra a proposito del “feedback ritardato”). Si pensi che un processo civile di primo grado dura da noi mediamente quarantasei mesi, contro quindici in Francia e sei in Germania.

6. Eterogenesi dei fini

Comportamento controintuitivo dei sistemi complessi, in particolare dei sistemi sociali: effetti di reazione impreviste, di reazioni ritardate, di reazioni contraddittorie. Il caso dei ghetti urbani Usa studiati da J. Forrester.

In passato si era giunti a pensare che il comportamento di un sistema, quando si

conoscessero le leggi fisiche che lo governano e dunque fossero perfettamente note le equazioni che ne costituiscono il modello matematico, si potesse perfettamente prevedere, con precisione infinita.

Questa visione è ben rappresentata dalla famosa affermazione del matematico e fisico francese Pierre Simon de Laplace, che rappresenta il trionfo del determinismo illuminista: “Noi possiamo considerare lo stato attuale dell’universo come l’effetto del suo passato e la causa del suo futuro. Un’intelligenza che a un certo istante conoscesse tutte le forze che animano la natura e le posizioni rispettive degli esseri che lo compongono, e che inoltre possedesse lo strumento per analizzare tutti questi dati, potrebbe condensare in una sola formula il movimento dei corpi più grandi dell’universo e quello dell’atomo più piccolo: per una simile intelligenza nulla sarebbe incerto, e il passato e il futuro sarebbero egualmente davanti ai suoi occhi”.

Un tale punto di vista, peraltro assai suggestivo, subì in seguito una serie di rovesci. Il primo, all’inizio del secolo appena concluso, quando i progressi nella conoscenza dell’infinitamente piccolo condussero alla nascita della meccanica quantistica: a una causa determinata non consegue più un effetto determinato, ma un effetto che è descrivibile soltanto in termini probabilistici. Venivano, così minate le basi della visione deterministica.

Ma il risultato non turbava troppo le coscienze, dal momento che gli effetti di indeterminazione risultavano effettivamente vistosi solo sulla scala dei fenomeni atomici; viceversa, non erano in alcun modo apprezzabili su scale più prossime all’esperienza comune.

Altre picconate riguardano scoperte più recenti. Un primo risultato riguarda l’evoluzione nel tempo, a partire da un certo stato iniziale, di sistemi anche semplicissimi: basta una minima indeterminazione nella conoscenza del loro dato di partenza perché, dopo un tempo sufficientemente lungo, il loro comportamento risulti praticamente indeterminato e dunque imprevedibile a tutti gli effetti. Da ciò deriva il noto “effetto farfalla”, per cui un battito d’ali di questo insetto, in un dato luogo, potrà determinare l’insorgere di una tempesta che spazzerà tutt’altra regione a un tempo futuro imprecisato.

Sistemi appena più complicati, inoltre, presentano nella loro evoluzione irregolarità caotiche, che, ancora, ne rendono imprevedibile il comportamento. Queste irregolarità - non dovute al caso, ma alla natura stessa di tali sistemi - presentano quel fascino particolare che ci porta a soffermarci ad osservare il comportamento irregolare di una fiamma o il frangersi delle onde del mare sulla riva.

23

Altri risultati, ancora più interessanti, riguardano il comportamento dei sistemi complessi costituiti da un gran numero di elementi e, in particolare, dei sistemi disordinati, in cui questi elementi sono collegati fra loro in modo irregolare.

Proprio studiando questi sistemi, si è compreso che il punto di vista riduzionistico - voler dedurre il comportamento complessivo di un insieme di elementi dalla conoscenza dei comportamenti elementari dei suoi costituenti - spesso non funziona affatto. Un esempio evidente, a questo proposito, riguarda il cervello umano. Il comportamento dei singoli neuroni (le cellule che costituiscono questo organo) è oggi abbastanza ben compreso. Ma non ci è affatto chiaro perché 10 miliardi di neuroni, strettamente collegati fra loro da centomila miliardi di interconnessioni, formino un cervello che pensa.

Si comprende dunque facilmente la difficoltà grandissima di governare con efficacia, cioè controllare affinché evolvano nel modo desiderato, i sistemi sociali, che presentano evidentemente complessità ben maggiori di quella dei sistemi fisici visti prima, e pongono altre difficoltà ancora. La complessità di questi sistemi deriva da un profondo intreccio di dinamiche relative a fattori diversissimi (psicologici, culturali, economici, politici ecc.) ed è certamente assai maggiore nella società d’oggi rispetto a quella del passato. A questo si aggiunge la nostra ignoranza, a differenza dei sistemi fisici, anche dei più elementari meccanismi di funzionamento dei sistemi sociali, nel senso che non conosciamo “leggi fisiche” che li determinino. Sicché un approccio riduzionista allo studio del loro comportamento non può neppure essere considerato.

D’altra parte, questa problematica, da quando esiste una società umana organizzata, viene affrontata costruendo modelli mentali del comportamento dei sistemi sociali che si intendono governare, e stabilendo quindi le norme di legge e le azioni di governo che si ritengono più adatte ad ottenere i risultati desiderati. Questo è, infatti, quanto compiono usualmente il legislatore e l’amministratore pubblico: sebbene la fase preliminare della costruzione dei modelli non sia generalmente né esplicita né evidente e sia, anzi, largamente inconsapevole.

Notiamo anche che questi modelli mentali - che rappresentano in qualche modo l’insieme delle conoscenze disponibili sui fenomeni considerati, ricavate dall’esperienza (sebbene per lo più filtrate attraverso le convinzioni politiche) - sono inevitabilmente assai sommari e grossolani.

Anche perché in essi le considerazioni qualitative prevalgono decisamente su quelle di natura quantitativa, che invece sono decisive ai fini del controllo. E inoltre, come già osservato, l’azione di controllo esercitata sulla società attraverso le leggi, benché mirata ad ottenere determinati risultati, nella sua attuazione non tiene alcun conto di quali risultati si ottengano poi realmente. E’ infatti priva di quel meccanismo di retroazione (vedi il capitolo precedente) che rende così efficace il controllo in altri contesti.

L’effetto combinato delle carenze dei modelli alla base delle leggi, dell’assenza di “feedback” e di altri elementi ancora, fa sì che l’applicazione delle norme conduca spesso ad effetti collaterali imprevisti e indesiderati: non di rado, anche, a risultati che, addirittura, hanno segno opposto rispetto agli obiettivi, ossia vanno in verso contrario a quanto desiderato. Questi casi presentano grande interesse concettuale oltre che ampia rilevanza pratica. Essi rientrano nel quadro più generale della così detta “eterogenesi dei fini”, cioè delle conseguenze non intenzionali delle azioni dell’uomo.

24

Il concetto di eterogenesi dei fini, che il filosofo tedesco Wilhelm Max Wundt introdusse come principio generale, si ritrova nelle opere dei vari studiosi di filosofia e di scienze sociali. Già intuito da Giovambattista Vico, costituì il fondamento di molte osservazioni di Joseph de Maistre (in particolare a proposito degli sviluppi della Rivoluzione francese) e condusse Karl Popper a sostenere addirittura che “il compito principale delle scienze sociali teoriche... consiste nel delineare le ripercussioni sociali, non intenzionali, che seguono alle azioni umane intenzionali” [14].

Nell’epoca attuale, a fronte di una società umana molto più complessa e articolata del passato, appare veramente dubbio perseguire la strada basata su modelli mentali intuitivi. Viene dunque proposto di costruire i modelli dei sistemi sociali utilizzando mezzi più formali: per esempio sfruttando le possibilità offerte dai calcolatori elettronici. Fra i primi a sostenere questo punto di vista, così scrive lo scienziato americano Jay W. Forrester: “Nessuno penserebbe mai di inviare un’astronave verso la Luna senza aver prima verificato l’equipaggiamento mediante prove su prototipi e simulazione delle rotte spaziali all’elaboratore elettronico. ...Prototipi e prove non rappresentano una garanzia assoluta, ma sono molto utili per individuare molti inconvenienti che possono così venire corretti prima di diventare la causa di veri e propri disastri. .... I sistemi sociali sono di gran lunga più complessi di quanto non lo siano i sistemi che si incontrano nella tecnica: perché non far ricorso ad essi allo stesso modo, costruendone dei modelli ed effettuando su tali modelli delle verifiche prima di applicare nuove leggi e nuovi programmi governativi?” [15].

Proprio seguendo questa impostazione, cioè utilizzando metodi di simulazione al calcolatore per costruire modelli e verificarne il funzionamento, Forrester svolse uno studio sulla dinamica dei centri urbani negli Stati Uniti. Questo studio condusse a risultati di notevole interesse ed a conclusioni di grande valore metodologico, proprio nel quadro dell’eterogenesi dei fini. Ma vediamo meglio di che si tratta. Qualsiasi visitatore non frettoloso delle città americane ha modo di osservare che determinate zone di questi centri presentano un degrado impressionante e sono abitate da una popolazione con bassissimo tenore di vita. La presenza di queste aree depresse, inoltre, si mantiene nel tempo, nonostante gli interventi delle amministrazioni pubbliche.

Un risultato fondamentale del lavoro di Forrester è consistito nell’evidenziare come i provvedimenti delle autorità risultassero inefficaci, o addirittura dannosi, proprio a causa di quello che egli ha chiamato “comportamento controintuitivo dei sistemi sociali”. Il motivo, nelle parole di Forrester, è che: “Si discutono e si approvano leggi con grandi promesse e speranze, ma molti programmi, una volta messi alla prova, risultano privi di efficacia: l’esito risulta spesso estraneo alle attese che hanno accompagnato la pianificazione, a volte addirittura opposto a quello auspicato.” [16].

Eppure i sistemi adottati per combattere la stagnazione delle aree depresse dei centri urbani, risultati inutili e controproducenti, ci appaiono sensati: sviluppo dei trasporti per favorire la mobilità verso le zone suburbane dove sono disponibili posti di lavoro, corsi di formazione professionale, aiuti finanziari e sussidi, costruzione di abitazioni a basso costo, ecc.

Il fatto è che questi programmi sono basati sull’intuizione, cioè su modelli mentali semplificati, a cui sfugge l’essenza del comportamento del sistema urbano, a causa della complessità delle interazioni e delle dinamiche in gioco, che si manifesta anche in fenomeni di retroazione.

25

Soltanto lo studio dettagliato di questo sistema, svolto mediante un modello al calcolatore, ha portato a chiarire il suo comportamento e di conseguenza a spiegare i motivi dell’inefficienza dei programmi anzidetti.

Dallo studio è risultato che la causa principale della stagnazione di determinate aree cittadine non è la carenza, ma la sovrabbondanza di alloggi a basso costo. Man mano che una certa zona si degrada (in USA questo fenomeno è assai più vistoso che in Europa per la diversa qualità delle costruzioni), l’invecchiamento dei fabbricati industriali provoca una riduzione delle occasioni d’impiego. Ciò mentre l’invecchiamento delle abitazioni provoca una crescita della popolazione dovuta all’aumento della densità di occupazione degli alloggi. Nella zona, così, si crea una sorta di “trappola sociale” che richiama un numero crescente di persone di basso reddito, a cui offre però sempre minori prospettive di lavoro. Intanto il tenore di vita si abbassa gradualmente, fino a scoraggiare ogni ulteriore afflusso.

Dal degrado economico complessivo della zona, poi, deriva la difficoltà di far fronte alla manutenzione degli edifici, che in parte vengono addirittura abbandonati, laddove gli altri sono sovraffollati.

In queste condizioni, qualsiasi provvedimento che conduca al miglioramento del tenore di vita sortisce alla lunga effetti negativi: infatti richiama nuovi afflussi e conduce a nuovo degrado. Il sistema è dunque soggetto ad un “feedback” di natura perversa: questo tende a mantenere un equilibrio, per cui le condizioni di vita siano sufficientemente basse da impedire un aumento degli abitanti. La costruzione di alloggi economici, per esempio, non può che contribuire a richiamare nella zona altre persone, riducendo così la disponibilità di impiego per abitante. Mentre la tendenza ad accrescere le tasse sul reddito e sulle vendite, rispetto a quelle sui beni immobili, non favorisce l’abbattimento dei vecchi fabbricati, che vengono abbandonati al degrado, contribuendo così a peggiorare l’economia della zona.

Il suggerimento avanzato da Forrester inverte totalmente la pratica usuale. Egli propone di eliminare una parte delle costruzioni più vecchie, per destinarne l’area ad attività industriali che vengano a costituire fonti di reddito nella zona.

Ma, nel contempo, propone anche di ridurre il numero di alloggi, in modo che la carenza di abitazioni abbia un’azione stabilizzatrice sul numero di abitanti e impedisca che possa tornare ad innescarsi la spirale involutiva verso la stagnazione.

Quali sono, in sintesi, le conclusioni generali a cui arriva Forrester a seguito dei suoi studi? I sistemi sociali, in primo luogo, sono sostanzialmente insensibili alla maggior parte dei

cambiamenti di indirizzo che vengono adottati nel tentativo di modificarne il comportamento. Un sistema sociale, in effetti, tende ad attirare la nostra attenzione proprio dove ogni tentativo d’intervento è destinato all’insuccesso, perché la nostra esperienza, formatasi dalla consuetudine con sistemi semplici, ci porta a cercare la causa di un qualsiasi inconveniente in prossimità dei sintomi. L’inconveniente ci appare dovuto ad una causa ben determinata e assai plausibile: invece si tratta solo di un effetto concomitante, prodotto, assieme al sintomo stesso che ci ha attratto, dalla dinamica delle retroazioni di un sistema più esteso e complesso.

In secondo luogo, tutti i sistemi sociali sembrano caratterizzati da alcuni punti sensibili a influenze esterne, attraverso i quali può esserne modificato il comportamento.

Tuttavia è assai probabile che, per intuizione o per ragionamento, s’intervenga nella direzione sbagliata.

26

Una terza caratteristica dei sistemi sociali è la presenza di una contraddizione di fondo fra le conseguenze a breve e a lungo termine di un mutamento d’indirizzo. Una linea politica che dia luogo a miglioramenti nell’arco di qualche anno, generalmente, è tale da provocare una degradazione del sistema a più lunga scadenza.

Questa circostanza è particolarmente ingannevole, giacché il breve termine è più visibile, ha quindi più peso e reclama a gran voce attenzione immediata.

La conseguenza è che molti dei problemi che ci troviamo a fronteggiare oggi sono il risultato finale di provvedimenti adottati non più di due o tre decenni addietro.

Quest’ultimo punto, in particolare, più che concludere un discorso sembra aprirne un altro, assai delicato, sul funzionamento del sistema democratico: quale amministrazione di governo è disposta a rischiare l’impopolarità a breve termine in vista di risultati che si manifesteranno socialmente utili solo nel lungo termine?

7. Numeri e statistica

Significato dei dati statistici e delle loro variazioni nel tempo. Non significatività di dati istantanei e di estrapolazioni. La vita difficile della statistica in Italia ed i suoi cattivi rapporti con la politica. La sondaggistica. La variabile tempo e le previsioni sociali. Dall’utopismo all’analisi dei vettori del futuro.

Nella cultura della nostra società la matematica trova scarsa cittadinanza. Non è affatto raro

che persone tutt’altro che illetterate possano addirittura far vanto di non capire nulla di questa materia. Ancor meno considerata, e coltivata, è la statistica. Al fondamento matematico di questa disciplina, che la rende oscura ai più, si unisce infatti la considerazione di fatti reali: a cui, in genere, si preferiscono le disquisizioni filosofiche, oppure le chiacchiere.

L’atteggiamento più comune nei confronti della statistica, inoltre, è quello di ritenerla menzognera. Lo suggerisce in crescendo il noto detto “bugie, bugie dannate e statistiche”; per non ricordare l’ancor più nota poesia di Trilussa riguardante il consumo pro-capite di gallinacei, tanto nota che non è il caso di riproporla. Un atteggiamento che trova conforto in errori marchiani che, a volte, commettono anche organizzazioni assai reputate: che dire della notizia diffusa dal Fondo monetario internazionale secondo cui nel 1996 il commercio mondiale avrebbe registrato un deficit “complessivo” di ben 124 miliardi di dollari? (Deficit nei confronti di chi, forse dei marziani? Come se i partecipanti a una partita a carte affermassero, al termine del gioco, di aver perso complessivamente una grossa cifra).

E invece la statistica, nella società moderna, presenta straordinaria importanza. Certo ben maggiore che nelle prime società umane, dove aveva avuto origine come materia d’interesse per lo Stato (da cui, appunto, il nome) riguardante il computo della popolazione, delle terre e dei beni.

Del resto, se oltre quattromila anni fa il leggendario imperatore cinese Yu decise, come riferisce Confucio, di misurare l’estensione delle sue terre e di enumerarne gli abitanti, distinguendoli a seconda delle loro attività, avrà certamente avuto dei buoni motivi. Gli stessi che spinsero gli antichi ebrei a compiere i censimenti ricordati nella Bibbia, gli egizi a stabilire un catasto, e via dicendo.

27

Il cattivo uso che della statistica si fa spesso, soprattutto sui giornali, può spiegare, ma non giustificare, le reazioni di rigetto per tale argomento.

Questo cattivo uso riguarda soprattutto il modo con cui i dati vengono presentati al pubblico; modo che sembra attentamente studiato per renderli non significativi o addirittura incomprensibili (ma non è così: si tratta soltanto del risultato di una cultura mediocre).

Diciamo subito che un dato statistico presentato isolatamente sfugge quasi sempre alla comprensione del lettore, in quanto sganciato dal contesto a cui si riferisce e dunque privo di elementi di raffronto. Apprendere, per esempio, che l’Italia dedica ogni anno alla ricerca scientifica circa ventimila miliardi [17] risulta veramente incomprensibile a chiunque (con l’eccezione, forse degli addetti alla compilazione del bilancio del ministero competente). Qualcuno, fra i pochissimi a cui l’argomento arriva a destare qualche barlume d’interesse, si chiederà per un attimo se questa cifra sia eccessiva, congrua o sufficiente; ma subito dopo, per la mancanza di qualsiasi elemento di raffronto, passerà ad occuparsi d’altro. Sulle cifre assolute, del resto, è facile ingannarsi. La maggior parte delle persone non saprebbe ricordare l’entità del debito pubblico nazionale: migliaia di miliardi o milioni di miliardi? E la differenza non è poca cosa, dal momento che prima o poi saremo noi a doverlo ripianare.

Risulta certamente più significativo fornire lo stesso dato di prima espresso in rapporto alla spesa totale degli italiani, cioè come percentuale del prodotto interno lordo (Pil).

Sapere che l’Italia dedica alla ricerca l’1,0% della sua spesa complessiva già apre qualche spiraglio alla comprensione. Ma lo spiraglio è ancora sottilissimo, posto che mancano altre possibilità di confronto. Infatti, volendosi orientare in qualche maniera per valutare la cifra anzidetta, sarebbe utile sapere quale sia la spesa corrispondente negli altri Paesi europei simili al nostro. E, anche, se la spesa italiana per la ricerca, negli ultimi anni, stia registrando aumenti oppure diminuzioni, e di quale entità. Perché soltanto attraverso gli elementi di confronto ci si può fare un’idea del significato di un dato statistico. La nostra sensibilità, d’altra parte, è molto maggiore alle differenze e alle variazioni che ai valori assoluti, nella percezione a livello sia sensoriale che intellettuale.

Soltanto quando, finalmente, apprendessimo che gli altri Paesi europei dedicano alla ricerca una spesa che in percentuale del rispettivo Pil è all’incirca doppia della nostra, potremmo provare ad esprimere qualche giudizio, secondo le nostre inclinazioni. Potremmo, allora, sostenere che la nostra spesa è pericolosamente insufficiente per il permanere dell’Italia fra i primi Paesi industrializzati del mondo [18].

Oppure che, siccome l’Italia sta scivolando gradualmente verso il Terzo Mondo, si tratta di un impegno esagerato, che va ridotto per allinearlo appunto agli “standard” di quei Paesi [19]. E allora, per orientarsi meglio, sarebbe utile sapere quanto investe nella ricerca l’Egitto (visione ottimistica) oppure il Congo (visione forse un po’ troppo pessimistica).

A vera e intensa soddisfazione patriottica conduce poi, per concludere questo argomento, la notizia che negli ultimi anni l’Italia ha raggiunto un nuovo primato. Quello della diminuzione della spesa per la ricerca, conseguendo una riduzione del 30% in cinque anni, come ci ha informato il recente appello (giugno 2000) del presidente del Consiglio nazionale delle ricerche e dei responsabili delle altre maggiori istituzioni scientifiche nazionali (cfr. “Le Scienze”, agosto 2000, p. 22).

Dati statistici offerti assai in pasto al pubblico senza elementi di raffronto sono frequenti nei giornali. Quanto si è verificato sulle strade durante un fine settimana di Pasqua, per esempio,

28

viene riferito con il seguente titolo: “Strage sulle strade: 127 morti in quattro giorni”. Il lettore, così, inorridisce anche perché immagina che si tratti di un unico incidente, una vera e propria strage appunto. Se, però, il giornale, oltre a fornire la notizia sensazionale, avesse informato i suoi lettori del fatto che ogni anno in Italia muoiono circa 9.000 persone in incidenti di traffico, sarebbe stato immediato calcolare che quotidianamente, in media, purtroppo ne muoiono 9.000/365 = 24,7. Sicché durante quattro giorni qualsiasi dell’anno ci si deve aspettare – ahimè – che il numero dei morti sulle strade sia attorno a 24,7x4 = 98,8.

La “strage” non si discosta dunque molto dalla, seppur dolorosa, “normalità” quotidiana; e un aumento del 25% risulta del tutto comprensibile in quei giorni di traffico certamente assai più intenso dell’ordinario. (Dunque il problema non sta nei tristi eventi di quel fine settimana: sta, semmai, nell’assetto dei trasporti nel nostro Paese tutto dominato dal mezzo stradale, che rende “normali” 9.000 decessi all’anno per incidenti automobilistici).

A volte, poi, il sensazionalismo gioca brutti scherzi. Come nell’occasione del “disastro del Pendolino” del gennaio 1997, cui tutti i quotidiani dedicarono la prima pagina (e grande spazio per giorni e giorni). Tralasciando, però, di ricordare ai lettori che, nello stesso giorno in cui otto persone avevano perso la vita nell’incidente ferroviario, ben trenta giovani erano morti in incidenti stradali al ritorno dalle discoteche. Notizia “minore”, si capisce, dato che questi incidenti si verificano abitualmente, mentre da una ferrovia moderna ci si aspetta un coefficiente di sicurezza molto più rassicurante.

Facciamo un altro esempio. Nella prima pagina di un quotidiano, immediatamente sotto il titolo a cinque colonne “Spese pazze coi soldi dei pensionati”, il sottotitolo ci informa che l’Inps in otto anni ha investito per l’acquisto dei calcolatori quasi 2.500 miliardi. La notizia ci colpisce vivamente e immaginiamo che un brivido d’indignazione attraversi tutto lo Stivale, al pensiero che le magre risorse dei pensionati vengano depauperate per il sollazzo di maniaci dell’informatica (o per arricchire qualche tangentista incontinente).

Appena un po’ di riflessione dovrebbe tuttavia portare a chiederci, prima di emettere giudizi di fuoco, quale sia la spesa corrispondente in altri Paesi, quali siano le reali necessità dell’Inps, e via dicendo. Ma proviamo ad esprimere i famigerati 2.500 miliardi in termini di spesa annua per ciascuno dei pensionati (o aspiranti alla pensione). Assumendo in prima approssimazione che questi siano 20 milioni, si vede che si tratta di 2.500 miliardi/(8 anni x 20 milioni): ossia di poco più di diecimila lire l’anno a testa. Una cifra forse eccessiva; ma certamente non tale da gridare vendetta.

Diciamo poi, sempre a proposito di cattivo uso della statistica, che i dati presentati hanno spesso una scarsa validità.

In termini tecnici, cioè, il loro “significato statistico” si dimostra insufficiente. E’ il caso dell’aneddoto dell’insigne clinico che informa i colleghi sull’esito complessivamente positivo dell’impiego di un farmaco, asserendo che nel 50% dei casi esso si è rivelato eccellente, mentre solo nel 25% ha dato risultati negativi. All’ovvia domanda circa il restante 25%, lo studioso risponde, senza imbarazzo alcuno, che la quarta cavia, dopo la somministrazione del farmaco, era andata smarrita. Qui, evidentemente, anche il più digiuno di statistica comprende senza difficoltà che il risultato di uno studio siffatto è del tutto privo di significato statistico a causa del numero modestissimo dei soggetti esaminati.

Sospetti allo stesso riguardo sorgono quando vediamo apparire in Tv un distinto signore paludato in camice bianco che afferma con solare certezza che il nuovo dentifricio marca X si è

29

rivelato in grado di ridurre del 67,12% l’insorgere di carie in quanti lo hanno usato correntemente. Quanti erano costoro? Quanto a lungo hanno provato il nuovo dentifricio? Chi ha controllato questo studio? Perché qui ai sospetti circa la validità statistica del risultato si aggiungono i dubbi sulla serietà scientifica dell’indagine, che il camice bianco del presentatore non vale certo a dissipare.

Altri problemi ancora sorgono a proposito dei dati statistici che rappresentano l’andamento nel tempo di una determinata grandezza – l’indice della borsa di Milano, il numero di autoveicoli in circolazione, il prezzo del petrolio, o qualsiasi altra – costituendo quella che si chiama una serie temporale o serie storica. Spesso il singolo dato di una serie presenta un’inevitabile incertezza, che si manifesta in fluttuazioni, anche assai consistenti, dovute alle cause più varie. Il risultato è che l’informazione portata dal dato è mascherata, appunto, dalle fluttuazioni; in altre parole il rumore prevale sul segnale utile. (Si ricordi anche quanto detto al capitolo 2 circa il variare del tasso d’inflazione ufficiale in ragione del criterio compositivo del paniere dei prezzi).

Questo fenomeno è noto nelle scienze fisiche. In esse è ben acquisita, e usata comunemente, la metodologia per combatterlo, basata sulle idee introdotte più di un secolo fa dallo scienziato tedesco Karl Friederich Gauss. Nella esecuzione di qualsiasi misura, in sostanza, si tratta di non accontentarsi di compierla una volta soltanto, ma di ripeterla più volte, assumendo poi come risultato finale il valor medio dei singoli risultati [20]. Da ciò deriva il requisito – per dare senso alle statistiche svolte su “campioni” (come quelle sugli esiti dei farmaci, sugli effetti di un nuovo dentifricio o sui risultati dei sondaggi) – che il numero dei campioni esaminati sia sufficientemente grande. Requisito che non è impossibile soddisfare, sia pure a fronte di un maggior costo.

Per quanto, invece, riguarda i dati relativi a serie temporali, l’obiettivo di renderli più significativi eseguendone delle medie non è attendibile, neppure in linea di principio. Non è evidentemente possibile mediare (con cos’altro?) un dato istantaneo come l’indice della borsa di Milano alla chiusura di un dato giorno. Lo si potrà certamente mediare con i dati degli altri giorni della settimana, invece, ottenendo così un dato certamente più affidabile (perché meno soggetto, per esempio, agli effetti di azioni speculative a breve termine), ma diverso: l’indice settimanale di borsa.

Presentare dati istantanei, intrinsecamente inaffidabili, per trarne poi dotte e succose considerazioni sull’operato del governo, sulla congiuntura internazionale, o su quant’altro, costituisce dunque un altro esempio di cattivo, anzi pessimo, uso della statistica.

Ancora più atroce, sempre dal punto di vista statistico, è usare la differenza fra due dati istantanei successivi per stimare la variazione nel tempo della grandezza considerata. Se ciascun dato di partenza contiene poco segnale e molto rumore, la loro differenza conterrà il doppio del rumore e un segnale, la variazione “vera” che si vuole stimare, certamente ancora più debole. Un esempio? Il medico tranquillizza il paziente grazie ai risultati dell’ultima analisi del sangue: il conteggio dei globuli rossi è salito da 44 a 47. Ma non sa che qualsiasi conteggio statistico presenta un errore intrinseco di fluttuazione dell’ordine della radice quadrata del conteggio stesso. E dunque dire che 47 è significativamente maggiore di 44, quando entrambi i dati hanno un’incertezza di circa sette punti, è una grande ingenuità, per non dir peggio.

Altrettanto dubbio è pretendere di estrapolare nel futuro un dato statistico poco affidabile. Per esempio: usare le variazioni mensili dell’indice dei prezzi al consumatore, per dedurre le

30

corrispondenti variazioni annuali. Anche qui, infatti, gli effetti di rumore che influenzano il dato istantaneo vengono potentemente amplificati da una procedura scorretta.

In tutto questo, bisogna dirlo, entrano in gioco anche altri fattori. Sono spesso proprio le tesi politiche che si vogliono sostenere che portano a scegliere, come elemento “scientifico” di dimostrazione, a seconda dei casi l’una o l’altra statistica; tutte accomunate però dalla medesima scarsa affidabilità. Vogliamo sostenere il governo? Allora evidenziamo il fatto che nell’ultima settimana la disoccupazione giovanile nel Sud si è ridotta dello 0,25% (un’inezia a fronte di un valore assoluto del 54%). Vogliamo dimostrare che la sua condotta è inefficace? Basta informare il pubblico che negli ultimi giorni l’indice di borsa è diminuito (magari di una variazione irrisoria).

Molti dei problemi anzidetti si ritrovano a proposito della sondaggistica, che negli ultimi anni ha trovato da noi così larga diffusione. In questi sondaggi si utilizzano le opinioni raccolte presso un certo numero di persone, per stabilire stime e percentuali che dovrebbero rappresentare l’opinione pubblica nel suo insieme. Le tecniche di scelta del campione dovrebbero, innanzitutto, garantire una sufficiente rappresentatività: tanti meridionali e tanti settentrionali, tanti uomini e tante donne, tanti giovani e tanti anziani, tanti occupati e tanti disoccupati, e via dicendo, sempre in proporzione al loro numero nella popolazione complessiva. E i quesiti dovrebbero essere posti nel modo più neutro possibile, per non influenzare le scelte degli intervistati.

Queste tecniche sono state molto perfezionate nel corso degli anni, sicché sono improbabili errori clamorosi come quello che condusse a prevedere la vittoria di Hoover su Roosvelt nelle elezioni presidenziali americane del 1932 (la scelta del campione era stata molto accurata, ma la base dei dati di partenza, gli elenchi telefonici, aveva introdotto una pesante selezione per censo, da cui appunto derivò il fiasco del sondaggio).

Ma il pericolo di commettere errori è sempre in agguato. Un esempio relativamente vicino nel tempo sono gli esiti di un “exit poll” (sondaggio svolto fra i votanti all’uscita dei seggi elettorali) che sottostimavano fortemente i risultati di determinate formazioni politiche. Il motivo era l’ovvia reticenza degli elettori a dichiarare il loro voto a favore di movimenti che i più diffusi mezzi di comunicazione avevano bollato per anni come deleteri per il Paese.

Non mancano, del resto, esempi di sondaggi televisivi, anche recenti, dove i quesiti vengono posti, deliberatamente, in modo da favorire certi risultati piuttosto che altri. Nei sondaggi svolti in Tv, poi, il campione manca certamente di rappresentatività: infatti, di necessità, vi si considerano soltanto le opinioni degli ascoltatori che seguono un determinato programma. Per di più raccolte mentre la trasmissione si sta svolgendo secondo una determinata regia.

Nonostante quanto detto, o forse proprio alla luce di ciò, resta il fatto che la statistica, intesa correttamente, costituisce un mezzo potentissimo d’informazione e di guida alle scelte politiche. Il problema è lo scarso uso che ne vien fatto in positivo.

La statistica, del resto, risulta importante anche per l’influenza che può suscitare sulle aspettative economiche.

Nell’economia moderna agiscono infatti vari meccanismi di indicizzazione: per esempio le imprese, nel fissare i prezzi, tengono conto delle previsioni riguardanti l’inflazione. Così, un dato statistico che sovrastimasse l’inflazione prevista potrebbe contribuire ad accrescere i prezzi: quindi, ad innalzare poi effettivamente l’inflazione. Ad esempio, secondo un documento presentato al governo degli Stati Uniti nel settembre 1995 (Rapporto Boskin), il

31

tasso d’inflazione di quel Paese sarebbe stato sopravvalutato di circa 1,5 punti all’anno nell’ultimo ventennio, con pesanti effetti accrescitivi sulla spesa, proprio per questi meccanismi.

Sappiamo bene, come ha scritto Winston Churchill, che “fare delle previsioni è difficilissimo... soprattutto a proposito del futuro”. Eppure la statistica offre a tale riguardo elementi di indubbia utilità. Che certamente meriterebbero qualche attenzione. Invece, anche in questioni di grande rilievo per il Paese, si arriva a verificare nei fatti previsioni scontate da decenni trovandosi impreparati. E questi fatti, appunto, vengono presentati come emergenze inaspettate, da affrontare d’urgenza, nel solito modo tanto affrettato quanto inefficace che caratterizza tanti interventi governativi.

Un esempio clamoroso a questo proposito riguarda l’effetto combinato del prolungamento della vita e della riduzione della natalità degli italiani, che presenta una varietà di conseguenze di grande rilievo per la nostra società; ciascuna delle quali viene affrontata, non appena si manifesta, come una sconvolgente novità a cui occorre far fronte urgentemente.

Per esempio, i programmi di edilizia scolastica sviluppati in passato e i piani di impiego del personale docente della scuola hanno mai soppesato efficacemente il fatto che il numero degli allievi si sarebbe, come poi è accaduto, considerevolmente ridotto negli anni? Oggi sappiamo che in dieci anni, fra il 1986 e il 1996, il numero degli allievi della scuola elementare si è ridotto del 43%. Una diminuzione che i demografi avevano ampiamente previsto, con largo anticipo e ottima accuratezza, ma di cui non si è tenuto assolutamente conto. Infatti nel frattempo il numero dei docenti aumentava del 17% e la spesa reale per gli stipendi degli stessi cresceva del 42%. Ma quali sono stati i provvedimenti? Solo dopo che il fenomeno ha cominciato a manifestarsi, e solo allora, si è pensato di risolvere il problema nel modo più dispendioso: affidando ogni classe delle elementari a più insegnanti anziché, come in passato, a uno solo.

Le conseguenze degli stessi mutamenti demografici risultano ancora più rilevanti per l’economia del Paese considerando quanto avviene, anzi è già avvenuto, nel settore previdenziale. L’invecchiamento della popolazione si è tradotto, infatti, sia in una riduzione del numero degli occupati, e dunque in una diminuzione dei contributi versati alla previdenza sociale, e sia in una crescita del numero dei pensionati, e dunque in un aumento delle pensioni erogate.

Gli effetti a carico del bilancio complessivo della previdenza sono ovvie, come è testimoniato dal deficit dell’Inps.

Tutto ciò era ampiamente previsto da molti anni. Non avrebbe condotto a guasti eccessivi, se a tempo debito si fossero presi provvedimenti adeguati anziché distribuire “pensioni baby” o addirittura incentivare prepensionamenti. E invece il problema, ignorato a lungo, è stato poi affrontato soltanto quando i suoi effetti sono arrivati a un livello talmente catastrofico da incidere in modo inaccettabile sul bilancio, più precisamente sul deficit, nazionale. Ma, anche allora, non sembra che le ovvie previsioni fornite dalle statistiche demografiche fossero giunte a conoscenza dei nostri governanti, se un ministro del Lavoro poté dichiarare a un quotidiano che fra qualche anno si sarebbero dovuti “valutare gli andamenti strutturali della popolazione” in vista di nuovi provvedimenti a proposito delle pensioni. “Andamenti strutturali” perfettamente noti da tempo...

La medesima mancanza di attitudine previsiva viene mostrata riguardi all’immigrazione di extra-comunitari: vista come una sorta di dato ineluttabile, e quindi come una variabile

32

indipendente, anziché come un fenomeno da analizzare e controllare nelle sue dimensioni, nel suo andamento, nei suoi effetti a breve, medio e lungo periodo.

Altri problemi che investono il sistema Italia sono, del resto, assai facilmente prevedibili per la loro natura periodica; come quelli che si manifestano, puntualmente, al ricorrere delle stagioni dell’anno. Tutte le estati, per esempio, il Bel Paese è teatro di incendi rovinosi, talvolta di origine naturale ma più spesso dolosa, che mandano in cenere molte decine di migliaia di ettari. E ogni volta si constata l’impreparazione ad affrontare la contingenza, perché le leggi contro i piromani risultano inefficaci, gli aerei antincendio sono pochi (e nessuno si è curato in tempo della loro manutenzione), scarseggiano i piloti addestrati allo scopo e via dicendo. Allo stesso modo, quando arriva la stagione delle piogge autunnali, frane e inondazioni provocano altri disastri, con costi economici pesantissimi e spesso anche con perdita di vite umane (ieri a Sarno, oggi a Soverato, domani...). Ma anche in queste occasioni si constata, ogni volta, che la prevenzione è debolissima, in particolare per quanto riguarda la gestione e l’uso del territorio (perché si consente di costruire edifici a ridosso di corsi d’acqua male imbrigliati? Di quanti geologi dispongono le amministrazioni pubbliche per gestire seriamente il problema?). Si manifesta insomma la mancanza di una seria impostazione della prevenzione idrologica, che è aggravata proprio dalle 150 mila leggi ricordate nel capitolo 3, il cui effetto è quello di polverizzare competenze, poteri e responsabilità anche in questo delicatissimo settore.

Vale la pena di notare, per concludere, che, mentre le previsioni statistiche che hanno reale fondamento vengono generalmente ignorate, altre previsioni, sebbene assai più fumose, trovano buona accoglienza, purché in linea con gli orientamenti politici e culturali dominanti. E’ questo il caso, in particolare, delle previsioni catastrofiche sul futuro dell’umanità elaborate nel quadro degli studi sui “limiti dello sviluppo”, di cui ci occuperemo nel prossimo capitolo. Il motivo per cui vogliamo citarle qui è che le previsioni dell’ideologia catastrofista, a lungo in voga da noi, si traducevano in una forma di noemalthusianesimo che potrebbe aver contribuito in qualche modo al crollo della natalità in Italia.

Fare figli, in quegli anni, oltre che impegnativo e costoso (per la scarsezza delle provvidenze dello Stato), risultava infatti “politicamente scorretto”. Ma chi sta versando, oggi, i contributi che serviranno, domani, a pagare le pensioni a quelli che si adoperavano, ieri, contro la natalità?

8. Sperimentazione e simulazione

Necessità, possibilità e limiti della sperimentazione nel campo sociale. Programmi scolastici ed editoria scolastica. Il fallimento dei “limiti dello sviluppo”.

Sappiamo bene che il metodo scientifico seguito nell’antica Grecia era basato sul

ragionamento deduttivo, che d’altra parte si era rivelato potentissimo nello sviluppo della geometria.

Qui, partendo da “assiomi” (verità autoevidenti che non richiedono dimostrazione), risultò possibile dedurre un gran numero di conseguenze, i “teoremi”. Si arrivò così, per esempio, a costruire quel perfetto edificio logico che è la geometria euclidea. Nello studio della natura, invece, il metodo deduttivo si rivelò poco efficace. Esso presupponeva infatti che i fenomeni

33

naturali fossero semplici e che quindi dalla loro osservazione si potesse risalire alla giusta interpretazione, per poi ricavarne tutte le conseguenze, stabilendo leggi naturali e facendo previsioni.

E’ anche noto che una svolta metodologica, di eccezionale portata per le sue conseguenze, si ebbe solo nel Rinascimento. Vari scienziati compresero che la semplice osservazione dei fatti era insufficiente: lo studio dei fenomeni naturali richiedeva l’esecuzione di appositi esperimenti.

Fu in particolare Galileo Galilei a impostare le basi del nuovo “metodo sperimentale” e ad utilizzarlo magistralmente nei suoi studi sulla caduta dei corpi. Anche qui, naturalmente, il punto di partenza consiste nell’osservazione diretta del fenomeno che s’intende studiare. I risultati dell’osservazione conducono poi a formulare delle ipotesi che spiegano come e perché il fenomeno avviene.

Occorre però, a questo punto, controllare la validità delle ipotesi, predisponendo a tal fine esperimenti atti a cogliere gli effetti essenziali del fenomeno evitando qualsiasi effetto accessorio. I risultati degli esperimenti, infine, vengono confrontati con le previsioni delle diverse ipotesi stabilite prima. Se una di tali previsioni sarà verificata, rivelandosi esatta, l’ipotesi corrispondente potrà venire assunta come legge scientifica.

Un aspetto fondamentale di questo metodo è l’aggancio con la realtà che permette di verificare l’una o l’altra ipotesi. Sicché, in fisica, le divergenze di opinioni, naturalmente sempre lecite, si compongono facilmente sulla base dei fatti.

Mentre in altre discipline, e in altri ambiti, le diversità di opinioni sono destinate a permanere, manifestandosi in interminabili dispute.

Il metodo sperimentale, sviluppato nell’ambito della fisica, venne poi assai proficuamente impiegato nelle altre scienze della natura - segnando così l’avvio della Rivoluzione scientifica - e, successivamente, anche nell’ambito di varie altre discipline, a volte con successo, altre volte incontrando difficoltà, anche di principio. Nelle stesse scienze fisiche, d’altra parte, l’impiego del metodo sperimentale galileiano in senso stretto incontra problemi. E’ chiaramente impossibile, per esempio, eseguire esperimenti di laboratorio sul collasso di una stella, che si verifica al termine della sua evoluzione: un fenomeno che può essere, invece, soltanto osservato e che per di più accade solo assai di rado (e senza alcun preavviso agli sperimentatori...).

Problemi analoghi e, anzi, assai maggiori sorgono evidentemente nelle scienze sociali. La pura osservazione dei fatti, anche qui, si rivela insufficiente, mentre le possibilità di sperimentazione presentano limiti evidenti. Si pensi soltanto ai tempi caratteristici di gran parte di molti fenomeni sociali - anni o addirittura decenni - che richiederebbero esperimenti di durata smisurata, i cui risultati sarebbero dunque disponibili soltanto alla generazione successiva. E, d’altra parte, molti esempi che la storia offre di tentativi di “sperimentazione” politica e sociale su larga scala - per la verità non propriamente ispirati al metodo galileiano - sono per noi fonte di orrore (vengono alla mente la Russia di Stalin, la Germania di Hitler e la Cambogia di Pol Pot) piuttosto che di riflessione scientifica.

Non vogliamo, tuttavia, sostenere che il metodo sperimentale sia del tutto inapplicabile nel contesto sociale.

34

Rileviamo unicamente che le sue possibilità d’impiego appaiono circoscritte a studi specifici: relativi a fenomeni che presentino tempi caratteristici sufficientemente brevi, dove, anzi, il suo impegno corretto può rivelarsi assai fruttifero.

Ma il metodo sperimentale, ripetiamo, deve essere impiegato correttamente: formulando ipotesi, eseguendo prove mirate, analizzando i risultati delle prove e arrivando infine a conclusioni. Un esempio di cattivo impiego di questo metodo riguarda la cosiddetta sperimentazione scolastica, su cui vale la pena di soffermarsi.

Anche perché certe sue conseguenze costituiscono, a loro volta, un caso esemplare dell’eterogenesi dei fini della quale abbiamo parlato nel capitolo 6.

Nell’attesa della riforma della scuola superiore, la cui struttura era rimasta finora sostanzialmente quella derivante dalla riforma Gentile attuata oltre settanta anni fa, si pose il problema di aggiornare almeno i programmi, e in qualche misura anche l’articolazione, dei corsi esistenti. A questa esigenza si volle rispondere appunto con la sperimentazione, cioè con l’introduzione di corsi e di programmi nuovi, generalmente ispirati a proposte di riforma restate a mezz’aria che si intendeva verificare sul campo per trarne le necessarie indicazioni. Nuovi corsi e nuovi programmi “sperimentali” - alcuni sensati, altri alquanto cervellotici - vennero così introdotti in vari settori delle superiori, ma senza far poi delle accurate verifiche dei risultati ottenuti, che fornissero elementi per aggiustare il tiro.

Continuando, anzi, a “sperimentare” sempre differenti proposte man mano che venivano formulate, indipendentemente dai risultati di attuazione delle precedenti. Mentre la sperimentazione veniva fortemente incentivata grazie ai vari tipi di provvidenze che si garantivano agli istituti scolastici impegnati in tale attività. Qui un recente episodio riguarda addirittura la cancellazione (sempre in via “sperimentale”) della geografia dal novero degli insegnamenti impartiti in numerose scuole. Per valutarne gli effetti si dovrà aspettare qualche lustro; ma soltanto, purtroppo, per dover prendere atto dell’abbassamento di cultura generale di un’intera generazione.

Notiamo per inciso che nella riforma del sistema scolastico che si è recentemente impostata si registra una certa ispirazione al modello statunitense, almeno per quanto riguarda la forte autonomia degli istituti che prevede anche la scelta a livello locale del 20% dei programmi. Anche qui ci si chiede se siano stati esaminati i risultati dell’attuazione di norme simili negli Stati Uniti, il che per noi costituisce l’equivalente di una vasta sperimentazione. Perché è ben nota la debolezza del sistema scolastico americano, che non molti anni fa è stata rappresentata in un rapporto al presidente dal significativo titolo: “A Nation at Risk (Una nazione in pericolo)”.

Conseguenze non molto appariscenti, ma pure assai delicate, delle “sperimentazioni” scolastiche riguardano la qualità dei libri di testo. In primo luogo la necessità di adeguarli a programmi ministeriali raffazzonati ne peggiora evidentemente l’efficacia didattica. E ciò si potrebbe considerare che faccia parte dei “costi” della sperimentazione. Ma quello che più influisce negativamente è l’effetto delle continue variazioni nel tempo dei programmi stessi, buoni o cattivi che siano.

L’impegno editoriale è infatti, di necessità, teso a produrre testi sempre nuovi, in ossequio ai programmi sempre diversi, anziché a raffinarne la qualità attraverso successive revisioni ed a verificarne l’efficacia avvalendosi dei pareri dei docenti che li utilizzano. Anche nell’editoria

35

scolastica, quindi, si è diffusa la cattiva abitudine dell’”istant book”, del libro di testo “usa e getta”.

Altre conseguenze riguardano l’appesantimento (in senso sia figurativo che letterale) dei libri di testo. Questi, affinché restino validi a fronte dei continui cambiamenti dei programmi (e dei diversi programmi adottati nelle scuole dello stesso tipo), vengono estesi a dismisura nei contenuti; mentre aumenta il numero delle pagine e cresce anche il relativo peso, fino a diventare insopportabile per le schiene dei ragazzi, per non parlare dei costi a carico delle famiglie.

In alternativa al metodo sperimentale, prospettive interessanti offre certamente lo studio dei fatti sociali in termini statistici. Come si legge sulla Enciclopedia Italiana, la più alta finalità dell’indagine statistica consiste infatti, in base all’osservazione dei fenomeni collettivi, nello scoprire le cause che li producono e nell’individuare, qualora esistano, le relazioni, o leggi statistiche, fra quei fenomeni e le cause o le circostanze che li influenzano. Queste leggi, che rappresentano soltanto ciò che vi è di regolare e permanente nella manifestazione dei fenomeni statistici, hanno grande importanza anche al fine di prevedere il verificarsi del fenomeno al ripetersi in altro tempo o luogo delle cause e circostanze già osservate.

Ma anche l’indagine statistica (vedi il capitolo precedente) presenta limitazioni, soprattutto perché, nell’evolvere delle vicende della società, l’insieme delle circostanze è sempre diverso. E dunque arrivare a stabilire leggi attraverso l’individuazione di regolarità nei comportamenti dei sistemi sociali, è compito tanto difficile quanto insidioso.

Nonostante ciò, sono stati ottenuti risultati assai interessanti esaminando le statistiche relative all’impiego delle fonti di energia e all’entità di determinati artefatti (automobili, ferrovie, ecc) [21]. Si è trovato, in sostanza, che la diffusione nella società di certe innovazioni segue lo stesso andamento, chiamato curva logistica, che negli anni ‘20 il matematico italiano Vito Volterra aveva individuato analizzando la dinamica delle popolazioni animali (e qui merita ricordare che questi studi di Volterra anticiparono i tempi, costituendo oggi la base matematica della moderna ecologia delle popolazioni)

Così, la crescita del numero delle automobili in circolazione in Italia, dei televisori in Germania e dell’impiego del gas naturale nel mondo seguono una stessa legge matematica (sebbene, evidentemente, con parametri diversi) caratterizzata da una crescita iniziale assai veloce, con andamento esponenziale, a cui segue un graduale rallentamento finché si raggiunge una condizione di saturazione (quella che per le popolazioni biologiche è stabilita dal nutrimento disponibile nell’area considerata). L’aspetto più interessante di questi risultati è che, avendo a disposizione dati statistici sufficienti, si possono fare delle previsioni di massima sugli sviluppi futuri, anche a lungo termine, delle “popolazioni tecnologiche”.

Previsioni assai migliori di quelle usuali, basate sull’ipotesi semplicistica che anche nel futuro si manifestino “le stesse” linee di tendenza registrate nel passato.

Previsioni che potrebbero risultare assai utili ai decisori politici, se solo avessero qualche nozione di questa possibilità.

Un approccio completamente diverso, infine, è costituito dalla simulazione dei fenomeni mediante l’uso del calcolatore, che è diventato possibile solo negli ultimi decenni, e praticamente attuabile in tempi relativamente recenti, grazie agli straordinari progressi della tecnologia. Le applicazioni di questa metodologia d’indagine, che è stata definita il terzo metodo della scienza, dopo il metodo deduttivo dell’ antichità e il metodo sperimentale

36

galileiano, sono innumerevoli nelle scienze fisiche come nelle scienze dell’ingegneria, dove risultano straordinariamente efficaci.

La simulazione al calcolatore, infatti, costituisce una forma di sperimentazione virtuale che in molti casi può essere sostituita alla sperimentazione di laboratorio tradizionale. Mentre in altri, in particolare quando la sperimentazione di laboratorio risulta impossibile, rappresenta l’unico mezzo di studio a disposizione.

Pensiamo, per esempio, a esperimenti che rivestano un alto grado di pericolosità o che presentino un altissimo costo d’esecuzione, oppure agli studi su fenomeni, come quelli astrofisici, che non sono accessibili, come già ricordato, all’indagine di laboratorio.

I problemi che pone l’impiego di questo metodo nel campo sociale (a parte le questioni di principio ricordate nel capitolo 6) derivano essenzialmente dalla necessità di disporre di conoscenza “formalizzata” almeno a proposito dei fenomeni elementari in gioco. Si deve, infatti, poter fornire al calcolatore un modello, sia pure semplificato ed approssimativo, di quanto si intende studiare, su cui eseguire appunto gli esperimenti di simulazione. E questo, in generale, è tutt’altro che agevole, come s’intuisce facilmente.

Gli errori che si commettono nella costruzione del modello, d’altra parte, si riflettono evidentemente nei risultati: se le premesse non sono valide, i risultati della simulazione non potranno che risultare illusori. In accordo con il detto “Garbage in, garbage out”, ben noto agli esperti di informatica, che significa “Robaccia in ingresso, robaccia in uscita”. Da ciò deriva il pericolo che le conclusioni degli studi di simulazione vengano accettate come valide, anche quando potrebbero essere viziate da premesse inefficaci, e siano presentate poi al pubblico come indiscutibili, da accettare quasi dogmaticamente in quanto risultati di metodi scientifici altamente progrediti.

Un esempio interessante a questo proposito riguarda gli studi sui “limiti dello sviluppo” [22] svolto attorno il 1970 dal gruppo internazionale chiamato Club di Roma, usando i metodi di simulazione introdotti da Jay Forrester (vedi capitolo 6). Questi studi miravano ad esaminare le conseguenze dello sviluppo materiale in un pianeta di dimensioni finite, ad individuare i diversi modi nei quali può svolgersi l’evoluzione a lungo termine della società, ed a determinare le migliori condizioni del suo passaggio verso una condizione di stabilità entro un ambiente ed un complesso di risorse limitati. La scelta di affrontare un progetto così ambizioso, come la simulazione del futuro della società umana su tutto il pianeta, derivava dalla consapevolezza della natura globale dei maggiori problemi in gioco: deterioramento dell’ambiente, crescita incontrollata degli agglomerati urbani, divario crescente fra ricchi e poveri, e altro ancora.

I risultati dello studio sono rappresentati dall’andamento nel futuro, fino al 2100, di alcune variabili-indice essenziali, come la popolazione mondiale, il livello delle risorse naturali, il grado d’inquinamento. Ogni simulazione, più precisamente, rappresenta l’evoluzione di queste variabili sulla base di una diversa ipotesi normativa: procedere come in passato senza cambiare le regole del gioco oppure attuare interventi di varia natura (riducendo il tasso di natalità, il grado di sfruttamento delle risorse naturali, ecc.).

Parecchie delle situazioni così ottenute corrispondono a vere e proprie catastrofi. In un caso, per esempio, l’effetto combinato della diminuzione delle risorse naturali e dell’aumento della popolazione si manifesta col provocare una graduale, ma inesorabile, diminuzione della popolazione. In un altro caso, una forte crescita dell’industrializzazione permette di

37

allontanare nel tempo, ma non di scongiurare, il peggioramento della qualità della vita, prima, e la diminuzione della popolazione, poi, che crolla bruscamente per gli effetti deleteri dell’inquinamento. In altre situazioni, infine, interventi rivolti a rallentare la crescita economica riescono a garantire una transizione graduale verso una condizione di equilibrio in cui i valori delle diverse grandezze-indice si assestano a livelli accettabili.

Sebbene gli autori dello studio avessero precisato che i suoi risultati non costituivano certamente una risposta definitiva, perché andavano intesi solo come un contributo ad una migliore comprensione del problema, le idee dei limiti dello sviluppo trovarono ampia eco e larga accettazione, venendo a costituire la “base scientifica” dell’ideologia della “crescita zero” in voga in quel tempo. Mentre la visione catastrofista risultante dalla volgarizzazione di queste idee - e, d’altra parte, specchio delle insicurezze di un’epoca - esercitò, per parecchio tempo, un’influenza tutt’altro che trascurabile.

Proprio in quegli anni, d’altra parte, si era manifestata una crisi energetica di grande portata, dovuta a un brusco aumento del prezzo del petrolio [23], che ebbe effetti assai gravi sull’economia di molti Paesi e sembrò confermare le più nere previsioni sugli effetti dell’esaurimento delle risorse naturali.

Le critiche ai limiti dello sviluppo che possiamo fare oggi, oltre un quarto di secolo dopo, sono anche troppo facili e sarebbe impietoso approfondirle. Ma non si può dimenticare un punto essenziale: la scarsa fiducia nell’uomo, e in particolare nella sua capacità innovativa, espressa nell’impostazione del modello e riflessa nei risultati della simulazione.

Questo aspetto aveva ispirato, per esempio, lo studio puntiglioso dell’entità delle principali risorse naturali e del tempo necessario per esaurirle. Senza considerare che quasi tutte le risorse possono essere sostituite con altre, grazie a processi innovativi, mentre l’entità stessa delle risorse naturali è sempre soggetta ad essere sottostimata. Trent’anni fa non si diceva forse che le riserve mondiali di petrolio erano destinate ad esaurirsi [24] nel giro di trent’anni?

Così pure, i problemi dell’inquinamento dell’ambiente vengono affrontati come una novità pericolosa legata allo sviluppo dell’industrializzazione, con scarse possibilità di ovviare ai suoi inconvenienti. Eppure l’inquinamento è tutt’altro che una novità [25] nella storia dell’uomo. E, d’altra parte, in molte occasioni mezzi adeguati hanno consentito di debellarne le conseguenze: esempi spettacolari sono il disinquinamento delle acque del fiume Tamigi, a Londra e la “rinascita ambientale” di città industriali come Pittsburgh, Usa. E vero che oggi taluni fenomeni di degrado ambientale si presentano con caratteristiche e con un’estensione tale da apparire non solo una novità storica, ma un dato di variazione difficilmente reversibile: si pensi al disboscamento dell’ Amazzonia, alle desertificazioni di intere regioni, ecc. Ma anche in questo caso può essere perseguita una strada di riequilibrio.

Può essere utile, per concludere un discorso sui metodi scientifici, un breve cenno ai metodi non scientifici adottati talvolta, anche di recente, dai governanti. Non vogliamo ricordare qui gli aruspici della tradizione etrusco-romana, i maghi delle corti medievali e neppure i Rasputin della corte imperiale russa alla vigilia della grande rivoluzione.

Ricordiamo piuttosto fatti di appena pochi anni fa, come la consultazione di indovini da parte del presidente Usa R. Reagan, e il ricorso a sedute spiritiche da parte di importanti uomini politici italiani per individuare il nascondiglio dove le Brigate Rosse tenevano imprigionato Moro.

38

Si può umanamente comprendere come una famiglia alla disperazione possa rivolgersi ad una cartomante; risulta meno chiaro come politici e studiosi possano - oggi - anche solo pensare di seguire una strada siffatta per risolvere problemi riguardanti lo Stato.

9. Cultura della programmazione Idee e cose. Obiettivi e risorse. La programmazione come progettazione del futuro basata

sulla conoscenza. Diversi livelli e limiti della programmazione. Programmazione settoriale e intersettoriale. Cultura dell’improvvisazione ed insofferenza per i vincoli programmatici. I vuoti di programmazione: il caso dell’energia.

Quanto di ciò che accade in politica e, più generalmente, nella società dipende davvero dalla

volontà deliberata e consapevole degli uomini o non è piuttosto la risultante del loro continuo tentativo di contrastare o favorire forze impersonali (il mercato, il progresso, ecc.) così rilevanti da rendere tale tentativo quasi sempre inefficace? La domanda chiama in causa l’atteggiamento filosofico che possiamo avere circa la storia, secondo che vi scorgiamo l’effetto di realtà oggettive agenti in modo meccanico, ovvero l’effetto di fattori soggettivi volontari.

Probabilmente le due posizioni estreme – la meccanicistica e la volontaristica – sono viziate entrambe da un eccesso: è più facile pensare che gli eventi sociali siano comunque riconducibili all’opera umana, ma che questa si dispieghi ora in via immediata, ora in via mediata. Laddove, ad esempio, l’opera umana abbia avviato processi estesi e profondi al punto di sviluppare un’intrinseca forza di trascinamento generale, è chiaro come successivi interventi contrari trovino particolare ostacolo ad affermarsi. In montagna io posso provocare una valanga: ma una volta che l’ho provocata, non sono più capace di arrestarla.

Certo è che le idee, prima o poi, riescono a cambiare le cose. Ma affinché ciò si verifichi, le idee debbono tenere conto dell’assetto delle cose stesse. E’ quello che si chiama “realismo”; il quale – si badi – non deve riguardare solo i dati di partenza, ma anche il traguardo cui si tende.

La politica in senso lato è creatività. Però non crea dal nulla. Può costruire (non sempre accade...) servendosi di materiali da costruzione vecchi e/o nuovi, su superfici dove già sorgono o sorgevano edifici, oppure su superfici mai praticate: ma sempre muovendo dallo “stato dell’arte” preesistente.

Inoltre, per costruire sul serio, deve prefiggersi obiettivi concretamente raggiungibili in un arco temporale che possa essere ragionevolmente controllato e governato: è ragionevole in tal senso, al massimo, quello che gli economisti chiamano “medio periodo”: cioè all’incirca un quinquennio.

Chi in politica proponesse risultati che richiedono tempi sensibilmente maggiori, dimenticherebbe la battuta di Keynes secondo la quale “nel lungo periodo saremo tutti morti”.

Un obiettivo politico-sociale può essere raggiunto in un tempo ragionevole non solo se risponde ad esigenze effettive, ma anche se sono proporzionate ad esso le risorse da impegnare per conseguirlo. Un Paese arretrato desertico può puntare davvero ad almeno avviare in un tempo relativamente ristretto un’agricoltura capace di offrire lavoro e alimenti, solo se (ad esempio, nell’ambito della cooperazione internazionale) trova i mezzi finanziari e

39

tecnici per le opere di irrigazione indispensabili. La pratica del “project financing”, oggi tanto diffusa a causa della drastica diminuzione delle possibilità di finanziamento pubblico in molti Paesi, mira appunto a permettere in concreto, attingendo al capitale privato, la formazione di uno “stock” di risorse tale da rendere possibile la realizzazione di infrastrutture.

Proporsi un obiettivo significa guardare al domani. Proporsi un obiettivo politico-sociale implica che si pensi ad una fase di convivenza futura nella quale esso risulti, oltreché possibile, anche, se non altro dal punto di vista di chi lo sostenga, socialmente utile. Ed implica, in parallelo, che questa utilità sociale sia reputata superiore al sacrificio insito nel costo delle risorse (finanziarie, materiali, umane) investite.

Poiché le risorse sono in genere limitate e spesso addirittura scarse, il rapporto obiettivi/risorse porta necessariamente a stabilire una duplice graduatoria: a) degli obiettivi raggiungibili mediante l’uso di uno stesso tipo e quantità di risorse; b) del tipo e quantità di risorse da dedicare al raggiungimento di un medesimo obiettivo. Tale graduatoria è quella che si dice “scala di priorità”. Ciò vale già per i singoli: disponendo di sole 100 mila lire, mi converrà decidere se spenderle tutte nell’acquisto di una cravatta alla moda, oppure ripartirle fra l’acquisto di una cravatta di media qualità e l’acquisto di un libro, secondo l’importanza che attribuisco a queste voci di spesa. Sentendo il bisogno di sfamarmi, sceglierò se provvedervi mangiando le mele che posso cogliere nel mio giardino; oppure chiedendo delle uova in prestito al mio vicino di casa; oppure con il danaro che mi trovo nel portafoglio andando a comprarmi del pane e della carne; oppure, ancora, combinando in vario modo queste ed altre differenti possibilità.

A maggior motivo, la scala di priorità va stabilita per gli obiettivi e le risorse nel campo sociale, dove il quadro è naturalmente ben più complesso. Le entrate dello Stato vanno ripartite fra le spese correnti (“dovute”, come quelle per il personale) e le spese di investimento (destinate a sostenere gli interventi innovativi): la selezione fra i vari obiettivi acquista valore strategico specialmente a proposito di queste ultime.

Per contro, assunto un obiettivo (ad esempio, l’incremento del turismo nazionale), lo Stato tenderà a rapportarvi proporzionalmente le diverse risorse, finanziarie e non, da destinarvi (politica alberghiera, manutenzione e restauro dei monumenti, messaggi informativi sul patrimonio paesaggistico ed artistico, norme di tutela dell’ambiente, ecc.).

L’elaborazione – ed il successivo rispetto – di una scala di priorità nel campo politico-sociale forma l’oggetto dell’attività e della politica di programmazione. Una politica di programmazione è una politica volta a progettare il futuro in base ad un’analisi della situazione e delle sue esigenze da soddisfare con azioni ben determinate ed incisive: e dunque necessariamente si basa su una approfondita conoscenza delle cose da modificare. Per questo è una politica riscattata dalle banalità del giorno per giorno o dall’eccezionalità dell’emergenza mediante l’osservanza di un “metodo” che fornisca una precisa linea di condotta, imponendo di conseguenza dei vincoli al decisore politico. Se un Paese programma di riservare su un certo arco di tempo il 40% della spesa nazionale complessiva allo sviluppo delle proprie regioni arretrate, è chiaro che nello stesso periodo sarà costretto a considerare tale quota non disponibile per altri scopi.

Per questo molti politici sono guardinghi verso la politica di programmazione, scorgendovi poco più di un impaccio al loro desiderio di avere le “mani sciolte” per scegliere secondo le

40

spinte del momento. Una politica di programmazione, come che sia, mal si presta ai cosiddetti interventi “a pioggia” di natura clientelare.

Ma la politica di programmazione richiede di essere ulteriormente specificata. C’è, evidentemente, programmazione e programmazione.

Innanzi tutto quanto alla sua incidenza sulla sfera di autonomia dei cittadini. Molto dipende dal contesto politico-istituzionale. In uno Stato totalitario, la politica di programmazione si traduce in una “pianificazione” oppressiva che tutto coarta perché i suoi obiettivi sono perseguibili solo attraverso un accentramento delle decisioni integrale. In uno Stato ispirato a libertà e democrazia, la politica di programmazione deve invece tener conto dell’autonomia decisionale di una pluralità di soggetti – dalle famiglie alle imprese, alle categorie, agli enti locali – oltreché dello Stato. Deve, quindi, ispirarsi a quello che oggi si usa chiamare “principio di sussidiarietà”. Potrà “determinare” in via diretta ciò che compete allo Stato come tale; ma per il resto si limiterà a fissare dei punti di riferimento per le attività degli altri soggetti, chiamati a convergere in modo “organico” verso i suoi obiettivi.

Potrà anche incentivare o disincentivate tali attività, ma non sopraffarle. In questo senso, la programmazione in un quadro libero e democratico risulta più difficile. Diviene però anche più feconda di risultati, allorché riesce a coinvolgere efficacemente l’interesse dei centri decisionali ed operativi, delle forze vive economiche e sociali del Paese. Non ogni programmazione è nemica del libero mercato, ma solo una programmazione dirigistica. Il mercato non può che giovarsi, al contrario, di una programmazione rispettosa della libertà.

I tipi di programmazione si distinguono altresì per l’ambito applicativo. Il tipo più ambizioso di programmazione è quello che riguarda l’intero sviluppo socio-economico nazionale. Richiede in primo luogo una pubblica amministrazione efficiente; poi un assetto interno non troppo squilibrato; infine un certo consenso delle parti sociali. Proprio la mancanza di questi requisiti ha causato il fallimento dell’unica esperienza del genere tentata in Italia, nella seconda metà degli anni ‘60. Altrove, come ad esempio nella Francia gollista, la loro presenza ha consentito di disporre di un’economia programmata con risultati sostanzialmente positivi. Più specifico è il tipo di programmazione detto “settoriale”, limitato ad un particolare versante della produzione di beni e di servizi: si hanno allora, a seconda dei casi, piani o programmi nazionali dell’agricoltura, della pesca, della siderurgia, dei trasporti, ecc. Date le relazioni di tipo sistemico (vedi il capitolo 4) che generalmente vi sono fra questi settori, la programmazione relativa a ciascuno di essi dovrà conseguentemente assumere carattere intersettoriale.

Per esempio, un piano per l’industria naval-meccanica non potrà prescindere dagli indirizzi programmatici dell’industria dell’acciaio; infatti la prima consiste prevalentemente in attività di assemblaggio, guidata da un determinato “know how” progettuale, di prodotti siderurgici.

L’attività di programmazione si appoggia di solito su centri di ricerca pubblici e privati che l’iniziativa pubblica stimola e coordina, utilizzando la macchina burocratica, per l’acquisizione dei dati informativi, per il rilievo delle criticità e per la costruzione delle proposte programmatiche intese alla soluzione dei problemi affrontati. A volte le forze operanti che si riesce a mobilitare sono notevoli. Nella metà degli anni ‘80, per la preparazione del piano dei trasporti italiano giunsero a lavorare direttamente e indirettamente circa 2.000 esperti del mondo scientifico e tecnico. Il risultato in termini intellettuali fu, per comune riconoscimento,

41

straordinariamente elevato. Anche sul terreno politico si ebbe, intorno agli obiettivi così definiti, un’adesione pressoché unanime.

Altra è, ovviamente, l’attuazione dei piani o programmi. Il piano dei trasporti, dopo un esordio promettente, è rimasto in gran parte lettera morta. La causa di questa, come di altre “dimenticanze” del genere, non sta tanto nel mutare delle circostanze. Se così fosse, evidentemente si tratterebbe di piani o programmi sbagliati: è implicito in qualsiasi programmazione il suo calarsi in realtà mutevoli e, anzi, il suo scontarne ed influenzarne l’evolvere. La vera causa sta nella cultura dell’improvvisazione radicata nell’ambiente politico.

L’insofferenza per i vincoli programmatici, cui abbiamo accennato prima, in tale cultura viene a volte addirittura giustificata come senso della concretezza e delle opportunità: un sano “stare con i piedi per terra”. Secondo questa impostazione, il politico cura solo il quotidiano perché ritiene di saper inventare di volta in volta la risposta ai problemi che si pongono. Senza dover seguire le “astrazioni” di chi, secondo lui, pretende di predisporre le cose in funzione di ciò che ha previsto. Peccato che le previsioni – ovviamente sorrette da strumenti scientifici rigorosi – costituiscano ormai una tecnica praticata in tutto il mondo civile: come nella vita aziendale, così nella vita politico-sociale.

Nel tracciare delle previsioni, d’altra parte, si può sbagliare anche clamorosamente. Per evitare troppi errori, si segue ormai a preferenza la strada dei “piani processo” o “programmazioni flessibili”, pensati fin dall’inizio per essere riconsiderati a scadenze brevi ed eventualmente integrati e corretti alla luce di dati più recenti. I margini di errore in tale sorta di “programmazione continua” si riducono considerevolmente. Ma, se sbagliare programmando è possibile, un vuoto di programmazione è uno sbaglio sicuro: anzi uno sbaglio “programmato”.

Un esempio veramente clamoroso di vuoto di programmazione e di scelte confuse e contraddittorie in Italia è quello riguardante il problema dell’energia. E qui occorre ricordare che il sistema energetico nazionale svolge un ruolo essenziale per la società e in particolare per l’industria. Le scelte in questo ambito hanno anche una grandissima rilevanza per le finanze dello Stato, data la forte incidenza sul bilancio nazionale della spesa per l’approvigionamento – in valuta pregiata – di combustibile all’estero. Si tratta, però, di un sistema dotato di grande inerzia, nel senso che gli effetti delle decisioni governative (grandi investimenti in centrali e infrastrutture, preferenze per determinate fonti di energia rispetto alle altre, approvvigionamento da certi Paesi o da altri, azioni per il risparmio energetico, ecc.) si ripercuotono poi su un gran numero di anni ipotecando in larga misura tutte le scelte successive.

Queste realtà essenziali, purtroppo, non sembra abbiano inciso in alcun modo nel metodo e nei contenuti della politica energetica dei nostri governi. La quale, nel corso di decenni, si è manifestata invece proprio in una serie di scelte contraddittorie, ciascuna delle quali determinata da infinite mediazioni alla ricerca del consenso delle forze politiche in quel momento più chiassose, dal prevalere di interessi di “lobbies” commerciali e industriali, o semplicemente delle decisioni interne dell’uno o dell’altro dei vari enti interessati al problema.

Prima, trascurando totalmente ogni ulteriore possibilità di sfruttamento della fonte idroelettrica e di altre fonti “tradizionali”, si diede grande impulso alla realizzazione di un gran numero di centrali termiche alimentate dal petrolio: una scelta coerente con gli interessi nazionali o con quelli delle grandi società produttrici? In seguito si intese dotare il Paese di un

42

numero spropositato di centrali nucleari (di quanto potere disponevano allora le società che detenevano il “know-how” di questi impianti?). Appena pochi anni dopo, ci si convertì alla scelta opposta di bloccare totalmente lo sviluppo nucleare con la chiusura delle, peraltro pochissime, centrali che nel frattempo erano state costruite o che erano state quasi ultimate. (La centrale di Montalto di Castro, pur completata all’80% con una spesa di 6.000 miliardi, venne modificata radicalmente, diciamo rifatta ex-novo, trasformandola in un impianto alimentato mediante combustibili fossili).

Il risultato è che siamo costretti ad importare il 15% del nostro fabbisogno di elettricità dalla Francia, che ricorre ampiamente all’energia nucleare. Questa, a cui abbiamo chiuso la porta (e si tratta di una innovazione che ha le sue radici in ricerche svolte proprio in Italia) rientra così dalla finestra... Mentre, d’altra parte, ben poco si è fatto e si fa quanto a sviluppo della ricerca nel campo delle cosiddette “energie alternative” (sole, vento, ecc.)

Tutto ciò quando negli stessi anni, cioè a partire dalla crisi energetica degli anni ‘70, tutti i Paesi del mondo, che disponessero o meno di riserve di combustibili fossili, attuavano misure volte a ridurre la propria dipendenza energetica dall’estero, per motivi sia valutari che di natura strategica. Così la dipendenza media dall’estero degli approvvigionamenti dei Paesi Cee fra il 1973 ed il 1991 si riduceva dal 63% al 49%, laddove per l’Italia la dipendenza si manteneva costante al valore altissimo dell’84%.

In proposito risulta particolarmente significativo il confronto con il Giappone (un Paese ancor meno dotato del nostro quanto a riserve di petrolio, carbone e gas naturale nel suo territorio nazionale): qui con scelte chiare e coerenti, sorrette da adeguata programmazione, si è già riusciti a ridurre la dipendenza energetica dall’estero di 11 punti percentuali, dal 95% all’84%. Ciò, pur registrando una crescita dei consumi interni assai maggiore, in termini relativi, dell’Italia, mentre la tendenza alla riduzione continua.

L’impegno a diminuire la dipendenza dall’estero, d’altra parte, ha anche un importante significato strategico, oltre che finanziario.

Cosa succederebbe all’Italia se certi canali di approvvigionamento dovessero venir meno? Noi dipendiamo infatti pesantemente (gas liquido e metano) dalla Russia, dove la situazione politica è tutt’altro che stabile, e dai Paesi del Magreb, dove lo è forse ancora di meno.

Una programmazione in materia, dunque, sarebbe stata e sarebbe preziosa: non solo per impostare una politica degli approvvigionamenti meno vulnerabile e costosa, ma anche per agire sui consumi spingendoli verso una maggiore economicità. E tuttavia, più di una bozza di piano energetico nazionale è stata predisposta in un quindicennio, senza che nessuna passasse ad una fase veramente operativa. Si è così lasciato ad uno stadio di pura esercitazione uno strumento che, con tutti gli aggiustamenti possibili, avrebbe dovuto fornire una guida ad un settore cruciale per la nostra industria, per le nostre finanze e per la nostra stessa vita di cittadini.

Si vedono oggi nei fatti, del resto, le conseguenze di una politica energetica ondivaga, che non ha seguito l’interesse nazionale primario di ridurre la dipendenza dall’estero. Perché la recente impennata del prezzo del petrolio, se crea difficoltà finanziarie in tutto il mondo, sta risultando particolarmente pesante per il nostro Paese.

43

10. Conclusioni

Abbiamo intitolato questo libro Il filo di Arianna perché, secondo noi, il patrimonio

metodologico della scienza dovrebbe guidare il percorso della politica - di qualsiasi ispirazione - verso un autentico cambiamento, oltre il labirinto mortificante delle astrattezze, degli stereotipi, del non-senso, delle apparenze senza sostanza, della sostanza senza ragioni. Urge una politica più matura, una politica credibile e difendibile perché “fatta bene”. E ciò richiede prima di tutto, appunto, l’attitudine ad apprendere ed a comprendere la lezione offerta da quel progresso, senza l’utilizzo del quale non si può parlare di modernizzazione della politica.

Lungi da noi, ripetiamolo, auspicare soluzioni tecnocratiche. Abbiamo troppo rispetto per la politica come luogo di giudizi di valore per pensare che non debba competerle la responsabilità - suggestiva quanto terribile - della decisione.

Lo abbiamo dichiarato fin dall’inizio. Alla politica, dunque, il compito di scegliere secondo la concezione della società, della storia, del mondo, che è propria alle varie forze che vi si confrontano proponendosi al consenso democratico. Ma su un livello più alto: all’altezza, cioè, delle complessità dei nodi che è chiamata a sciogliere.

Solo così sarà possibile passare dalla politica degli schieramenti di facciata, dalla politica dell’improvvisazione, dalla politica degli “slogan” e delle battute, dalla politica-spettacolo, a quella che nel capitolo 1 abbiamo chiamato una politica “delle cose”. Dove la parola “cose” vuole dire le situazioni che toccano davvicino i cittadini, i meccanismi che le regolano, gli interventi atti ad orientarle. Il che ovviamente non annulla la diversità delle possibili proposte in gioco; anzi la arricchisce, fornendole ulteriori motivi di approfondimento. Serve a riscattare però la politica nel suo insieme dal superficialismo e dall’incompetenza, derivanti dalla persistente arretratezza dei suoi approcci alla realtà.

Utopistico tutto ciò? Siamo consapevoli che si tratta di una svolta radicale, ostacolata da debolezze culturali, chiusure mentali e conservatorismi d’ogni specie. Non ci nascondiamo le difficoltà. Nondimeno, crediamo che un’evoluzione nel senso da noi delineato possa trovare spazio.

Cadute le ideologie, anche le vecchie categorie di “destra” e “sinistra” contano sempre di meno in termini pratici. Salve le legittime e ineliminabili diversità di principî, su grandi temi all’ordine del giorno, a partire dal riassetto istituzionale e costituzionale dello Stato, si potrebbero formare perfino trasversalità inimmaginabili fino a pochi anni addietro. Sulle questioni economiche confliggono posizioni differenti, ma il confronto tende ad avere luogo sempre meno sui nominalismi e sempre più su tematiche reali.

Una qualche “cultura di governo” è sembrata talvolta prendere corpo fra maggioranza e opposizione, pur senza confonderne i ruoli e la specificità dei valori di riferimento.

Bisogna andare avanti in tal senso. Non poco potrà ottenere l’opinione pubblica. Ai politici, senza più lasciarsi incantare dalle parole a vuoto e dalle etichette di comodo, essa dovrà cominciare a chiedere conto del grado di informazione sui problemi, della continuità nell’impegno per risolverli, dei risultati concreti raggiunti.

Anche i media potrebbero contribuire efficacemente, se abbandonassero il cortile del pettegolezzo quotidiano e del teatrino dei pupi della politica, per provocare e stimolare i politici puntando invece, come accade nei Paesi più avanzati, sugli aspetti di fondo del dibattito.

Insomma: non ci illudiamo, ma non disperiamo.

44

D’altronde, in generale, se prescindiamo da una inammissibile volontà di rimanere fermi, alla logica ed all’etica del progresso, inteso non tanto come sequenza di innovazioni, ma piuttosto come crescita d’insieme, non c’è alternativa.

Almeno per chi vorrebbe lasciare ai propri figli un’Italia migliore di quella che ha trovato.

NOTE [1] Uno dei migliori esempi a questo riguardo è costituito dall’ospedale di Pizzo Calabro: un progetto avviato

nel 1949 e mai portato a compimento, nonostante vi sia stato speso, a più riprese nell’arco di 50 anni, l’equivalente di oltre 30 miliardi di lire d’oggi. E non si tratta affatto di un’eccezione: un’ampia documentazione in merito è fornita da Raffaele Costa nel libro L’Italia degli sprechi, Oscar Mondadori, Milano 2000.

[2] Fin dal 1964 il sociologo francese Jean Meynaud con il volume La Technocratie. Myte ou réalité? (trad ital.: La Tecnocrazia, Laterza, Bari 1966) aveva richiamato l’attenzione sulla partecipazione dei tecnici all’esercizio del potere pubblico di comando anche, e appunto, mediante la tendenza a travalicare i limiti del loro compito, consistente “nel formulare spiegazioni puntuali e nel proporre provvedimenti che permettano di raggiungere il fine desiderato, o almeno di avvicinarlo”. Secondo questo autore, la nozione di “tecnocrazia” diffusa a partire dagli anni ‘50, andrebbe però oltre, perché suggerirebbe “l’idea del declino dell’importanza del fattore politico a vantaggio di quello tecnico e forse in definitiva dell’eliminazione del primo da parte del secondo”. Un punto di vista rafforzato oggi dalla caduta delle ideologie.

[3] In una di queste leggi, per esempio, un solo articolo contiene 21 commi diversi, ciascuno relativo a un argomento differente.

[4] Da qualche tempo la nostra amministrazione pubblica ha ricevuto la denominazione di Funzione Pubblica (evidentemente nell’auspicio che si decidesse a funzionare…); ma non sembra che il cambiamento di nome abbia condotto a corrispondenti cambiamenti di fatto. Per questo desta incertezza la proposta, recentemente formulata da Indro Montanelli, di denominarla Servizio Civile (come in Gran Bretagna), nel presupposto che chi vi opera abbia chiaro di essere al servizio del cittadino.

[5] Nemmeno è il caso, ovviamente, di entrare qui nel merito delle forme istituzionali secondo le quali dovrà avvenire un processo del genere (federalismo, decentramento come delega di compiti a regioni ed enti locali, ecc.)

[6] Il premio Nobel dell’economia Wassili Leontief, collaborando alla stesura del Piano dei trasporti italiano (1984-1986), dimostrò che nel nostro Paese il rapporto fra dinamica del Pil e dinamica della domanda di trasporto equivarrebbe all’incirca all’unità: cosicché ad un punto percentuale di aumento del primo corrisponderebbe pressappoco un punto percentuale di aumento della seconda. L’esperienza successiva ha mostrato che un simile rapporto non solo non era eccessivo (come apparve all’inizio ad alcuni), ma semmai fin troppo prudenziale.

[7] “Feedback”, letteralmente, vuol dire “alimentazione all’indietro”, ma il significato è “azione all’indietro”. Le traduzioni più comuni sono “retroazione” oppure “reazione”, mentre fra coloro che si occupano di elettronica e di controlli è molto diffuso il termine “controreazione”

[8] Ricordiamo che una grandezza variabile manifesta crescita con legge esponenziale nel tempo, quando il suo valore aumenta della stessa percentuale al trascorrere di identici intervalli di tempo. In altre parole, se in un giorno la grandezza si raddoppia, essa si raddoppierà ancora dopo un altro giorno; e così via.

[9] L’origine comune del termine greco “kubernetes” e del latino “gubernator”, che significano “pilota, timoniere”, è il sanscrito “kubara” che vuol dire “timone”. Ricordiamo anche che il fisico francese Andrè Marie Ampère (il cui nome, come si sa, è stato scelto per l’unità di misura della corrente elettrica) presentò nel 1834, chiamandola “cibernetica”, una sua teoria dell’arte di governo, che peraltro ebbe scarsa risonanza e di cui rimase ancor più scarsa traccia nella memoria collettiva (tanto è vero che Norbert Wiener non ne era a conoscenza).

[10] Questo punto di vista trova ampio spazio nelle opere di Norbert Wiener. Fra i numerosi esempi al riguardo ricordiamo il seguente: “Quando prendo un sigaro, la mia volontà non è diretta a muovere alcun muscolo in particolare. Il mio gesto si limita ad avviare un certo meccanismo di retroazione, e cioè un riflesso in

45

cui quanto resta ancora per completare l’azione di raccogliere il sigaro è tradotto in un comando nuovo e più energico ai muscoli restii, quali che essi possano essere. In tal modo un comando volontario abbastanza uniforme permetterà che lo stesso compito sia seguito da posizioni iniziali largamente variabili, e indipendentemente dall’affaticamento dei muscoli” (da Introduzione alla cibernetica, Boringhieri, Torino 1953).

[11] Sappiamo che l’effetto serra consiste nel fatto che certi gas, fra cui appunto l’anidride carbonica, sono trasparenti alle radiazioni che ci arrivano dal Sole, ma non ai raggi infrarossi che a sua volta emette la Terra. Man mano che aumenta la loro concentrazione nell’atmosfera, la Terra, a parità di energia ricevuta dal Sole, tende a riscaldarsi sempre di più, perché il suo calore rimane intrappolato dall’atmosfera.

[12] Ai primi (effetti di reazione positiva) contribuisce, per esempio, il ridursi dell’estensione dei ghiacci polari, a cui consegue un aumento dell’assorbimento della radiazione solare (i mari, come le terre, assorbono la radiazione solare assai più dei ghiacci, la superficie dei quali è fortemente riflettente) e dunque un effetto destabilizzante che tende ad esaltare il riscaldamento globale. Ai secondi (effetti di reazione negativa), l’azione delle correnti marine, che rimescolano le acque oceaniche sottraendo calore alla superficie e facilitando al tempo stesso l’assorbimento di anidride carbonica da parte delle acque oceaniche (i gas sono tanto più solubili nell’acqua, quanto più bassa è la temperatura: un fatto che risulta evidente se si stappa una bottiglia di spumante intiepidita).

[13] L’invenzione del circuito integrato (1958) – consistente nel realizzare tutti i componenti di un circuito elettronico all’interno di una lastrina (“chip”) di materiale semiconduttore – ha costituito una svolta eccezionale. Quando si pensi che oggi, con procedimenti totalmente automatici, si fabbricano circuiti integrati che comprendono, come i microprocessori, molti milioni di componenti elementari, si comprende facilmente lo straordinario abbattimento dei costi di fabbricazione rispetto al passato, quando i componenti di ogni circuito dovevano essere assemblati e poi saldati manualmente, uno per uno. All’inventore del circuito integrato, l’ingegnere americano Jack St. Clair Kilby, è stato conferito nel 2000 il premio Nobel per la fisica.

[14] Karl Popper, Congetture e confutazioni, Il Mulino, Bologna 1972 (citato in Domenico Fisichella, De Maistre, Laterza, Bari 1993), dove l’argomento della eterogenesi dei fini trova ampio sviluppo.

[15] Jay W. Forrester, Comportamento controintuitivo dei sistemi sociali, in Verso un equilibrio globale, a cura di D.L. Meadows e D.H. Meadows, Mondadori, Milano 1973.

[16] Jay W. Forrester, Comportamento controintuitivo dei sistemi sociali, op.cit..

[17] Si noti che, di proposito, abbiamo espresso questo numero in forma approssimata, cioè in unità di miliardi, allo scopo di facilitarne la comprensione. Mentre a volte dati simili a questo vengono espressi con tutte le cifre, fino all’ultima lira. Il risultato di questo sfoggio immane di inutile esattezza è che il lettore non si rende neppure conto dell’ordine di grandezza del numero; che invece è l’unica cosa che conta.

[18] La ricerca e la tecnologia avanzata richiedono scienziati e tecnici. In Giappone si laureano 70.000 ingegneri l’anno. Da noi, in rapporto alla popolazione, dovrebbero ammontare a 35.000, mentre sono poco più di un terzo.

[19] Questo punto di vista non soltanto è del tutto legittimo, ma anche assai realistico, dal momento che un vigoroso taglio ai fondi della ricerca è una delle prime ipotesi che sono state esaminate da tutti i governi che si sono avvicendati negli ultimi anni in Italia.

[20] Si badi che questo criterio, ovviamente, è del tutto inefficace se il metodo di misura presenta errori di principio (detti “errori sistematici”), che influenzano allo stesso modo tutte le misure che si compiono, per quanto numerose. Se la bilancia del venditore è truccata, possiamo ripetere una pesata quante volte ci pare, ma il risultato sarà sempre a nostro svantaggio.

[21] Cesare Marchetti, Swings, Cycles and the global Economy, “New Scientist”, 2 maggio 1985, pag. 12. V. anche Cesare Marchetti, Storia e prospettive del mercato delle energie primarie negli atti del convegno “Energia, Sviluppo e Ambiente” della Società Italiana di Fisica, Editrice Compositori, Bologna 1988.

[22] I limiti dello sviluppo, Mondadori, Milano 1972; Verso un equilibrio globale, op. cit.

[23] Si osservi che, in seguito, il prezzo del petrolio è tornato a stabilizzarsi, restando costante a lungo. Inoltre questa risorsa, in molti impieghi, è stata sostituita dal gas naturale. L’impennata del prezzo del petrolio nella seconda metà del 2000 non è dovuta alla scarsità del prodotto, ma a scelte politiche.

46

[24] A molti “esperti” sfugge l’esperienza derivante dalla storia delle vicende umane. Si pensi che nel lontano 1887 su un’autorevole rivista inglese si poteva leggere quanto segue “Non si può dubitare, temo, che si è attinto così largamente dalle riserve di petrolio e di gas che fra non molti anni ne resterà ben poco... E’ praticamente impossibile che si trovino nuovi campi petroliferi confrontabili con quelli noti oggi”.

[25] K. W. Weeber, Smog sull’Attica, Garzanti, Milano 1991.

47

INDICE

Introduzione 1

1. Conoscere per decidere 3

2. Oltre l’empirismo 5

3. Una normativa praticabile 9

4. Cultura di sistema 13

5. “Feedback” 17

6. Eterogenesi dei fini 22

7. Numeri e statistica 26

8. Sperimentazione e simulazione 32

9. Cultura della programmazione 38

10. Conclusioni 43

Note 44