*COMPLESSITA 2003 imp - ENEAold.enea.it/produzione_scientifica/pdf_volumi/V2003... · C. Marino, P....

232
2003 Complessità Sviluppo

Transcript of *COMPLESSITA 2003 imp - ENEAold.enea.it/produzione_scientifica/pdf_volumi/V2003... · C. Marino, P....

2003

ComplessitàSviluppo

L

2 COMPLESSITÀ & SVILUPPO 2003

e considerazioni che come ogni anno – e questo è ormai il set-timo – fanno da premessa-introduzione a questa pubblicazioneche riprende i principali contributi apparsi sul bimestraledell’ENEA “Energia, Ambiente e Innovazione”, potrebbero chio-sare quelle formulate per l’anno scorso.

E tuttavia alcune novità sembrano emergere.

Ne vogliamo segnalare almeno due.

La prima riguarda una relazione tra la ripresa del dibattito ge-nerale sulla questione energetico-ambientale, sollecitato ancheda eventi politici e climatologici eccezionali, e quanto emergedal mondo della scienza e della tecnologia. Mentre si conferma-no le possibilità di un cambiamento tecnologico radicale del si-stema energetico e in particolare il superamento delle fonti pri-marie tradizionali, queste prospettive restano proiettate nellungo periodo. Si accentuano, quindi, le attenzioni sugli aspettinormativi e di uso razionale dell’energia come fattori residualiin attesa di quei cambiamenti, e lo sviluppo delle conoscenze edegli interventi in campo ambientale e della protezione dellanatura come questioni che in qualche misura segnalano vincoliche vanno anche oltre alla questione energetica.

La seconda questione che ci sembra meritevole di qualche at-tenzione e di approfondimenti che, tuttavia, esulano da questapresentazione, riguarda un elemento già in qualche modo se-gnalato e cioè il fatto che sul piano delle acquisizioni scientifichee tecnologiche diventa sempre più improprio parlare di un sin-golo paradigma tecnologico quanto piuttosto occorre prendereatto di un continuo innescarsi di nuove conoscenze e di poten-zialità scientifiche su un terreno preesistente già molto fertile. Èproprio questa condizione di fertilità e di continuo arricchimen-to del terreno la chiave di lettura delle relazioni strutturali tra ri-cerca – innovazione tecnologica – sviluppo economico e sociale.Ed è la complessità di queste relazioni quello che ne giustifica ladizione di “sistema”.

pre

messa

3COMPLESSITÀ & SVILUPPO 2003

Per evidenti motivi istituzionali questa pubblicazione non puòcoprire se non in termini di presentazione di singoli studi, l’arcocomplete delle relazioni sopra ricordate. È positivo ed insiemeun segno di una vitalità per certi versi sorprendente che, purtuttavia, la complessità del “sistema” possa essere rintracciataanche in questa occasione.

Si era a suo tempo rinunciato alla veste editoriale e sostanzialetipica delle riviste scientifiche, cosi come si era abbandonata l’i-potesi della rivista di informazione della vita dell’Ente. La sceltafu quella – discussa e ovviamente discutibile – di coprire unospazio di informazione e documentazione tecnicamente corret-to, rivolto ad un pubblico di persone attente ma non specializ-zate, chiedendo agli autori, che come sempre sono i ricercatoridell’Enea, uno impegno redazionale aggiuntivo rispetto a quellitipici della professione. Una scelta e un impegno motivati dallaconvinzione che le vicende di quel “sistema” giocassero unruolo fondamentale nel mondo civile e certamente anche nelnostro paese.

Ci sembra di poter affermare che non si è trattato di una impo-stazione erronea. L’attenzione che sempre più si riscontra nellapiù diverse sedi verso parole come: qualità dello sviluppo, com-petitività tecnologica, società della conoscenza, ne è una dimo-strazione.

Se è possibile anche a fine del 2003 uscire con questa pubblica-zione il merito va, quindi, interamente a questi colleghi. Nonsappiamo se e come tra i criteri di valutazione di una struttura diricerca possano essere apprezzati anche questi contributi.Quello che possiamo dire, comunque, è che finche sarà data lapossibilità di lavorare e fare ricerca, un ponte con la più ampiacomunità civile dei non addetti è necessario e che anche perquesto fine non verrà meno l’impegno dei ricercatori dell’Ente.

Sergio Ferrari

&complessità sviluppo

COMPLESSITÀ & SVILUPPO 2003

8 L’ITALIA NELLA COMPETIZIONE TECNOLOGICA INTERNAZIONALEITALY IN INTERNATIONAL TECHNOLOGICAL COMPETITIONSergio Ferrari, Daniela Palma

Il Terzo Rapporto, curato dall’Osservatorio dell’ENEA in collaborazione con il CNEL, cirammenta che la scientificazione della produzione risulta l’elemento fondante per uncambiamento radicale che coinvolga sempre più gli altri settori economici, dal primarioal terziario, sfumandone identità e confini. Dal Rapporto, del quale riportiamo unasintesi, si rileva che in questi ultimi anni si sono accentuati gli elementi di debolezzadell’high tech italiano determinati dalla sfavorevole struttura dimensionale del nostrosistema d’imprese e dalla rigidità della specializzazione produttiva

The Third Report, prepared by the ENEA Observatory in collaboration with CNEL, re-minds us that science-intensity in new technology is the basis for radical changes that in-creasingly affect other economic sectors, from manufacturing to services, blurring theiridentities and boundaries. From the Report, of which we publish a summary, it appearsthat the weaknesses of Italy's high-tech sector have been aggravated in recent years byits unfavourable size and the rigid specialisation

27 BARRIERE ALLA DIFFUSIONE DELLA GENERAZIONE DISTRIBUITA E DELLAMICROCOGENERAZIONEBARRIERS TO THE USE OF DISTRIBUTED GENERATION AND MICROGENERATIONGiuseppe Tomassetti

Le esperienze in Italia negli ultimi venti anni hanno evidenziato che i principali ostacolialla diffusione di piccoli impianti di generazione elettrica distribuita, anche i piùinnovativi, sono gli iter burocratici autorizzativi, il basso fattore di carico degli utenti ele scarse competenze tecniche degli stessi

Twenty years of experience in Italy have shown that the major obstacles hinderingwider use of small distributed-generation plants, including the most innovative types,are red tape, low power factors, and potential users' lack of technical knowledge

38 GLI SCENARI ENERGETICI E AMBIENTALI. UN’ANALISI COMPARATAENERGY/ENVIRONMENT SCENARIOS: A COMPARATIVE ANALYSISFrancesco Gracceva

Istituti nazionali e internazionali elaborano scenari per rappresentare le possibilievoluzioni future di sistemi complessi come quello energetico. Scopo degli scenari èquello di fornire ai decisori politici ed economici gli strumenti necessari per prenderedecisioni informate. L’articolo analizza e confronta i principali scenari mondiali eregionali messi a punto a livello internazionale

Italian and international institutes draw up scenarios to represent the possible futureevolution of complex systems such as that of energy. Their purpose is to give politicaland economic decision-makers the tools necessary to make informed decisions. This ar-ticle, a summary of the Report on Energy and Environment Scenarios recently publishedby ENEA, analyses and compares the most recent scenarios developed at the internatio-nal level

58 CAMPI ELETTROMAGNETICI: STATO DELLE CONOSCENZE PER LA VALUTA-ZIONE DELLA CANCEROGENICITÀELECTROMAGNETIC FIELDS: PRESENT STATE OF KNOWLEDGE ON HOW TO EVALUATECANCEROGENICITYC. Marino, P. Galloni, L Gatta, M.R. Scarfì, G.A. Lovisolo

La crescente preoccupazione sull’interazione tra campi elettromagnetici e salutedell’uomo ha condotto alla realizzazione di studi e ricerche sull’argomento. I risultatifinora pubblicati non giustificano revisioni ai limiti di esposizione ai campielettromagnetici stabiliti dalla normativa attualmente vigente

Growing concern about interaction between electromagnetic fields and human healthhas prompted studies and research on the issue. The results published to date do notjustify revising existing limitations on exposure to electromagnetic fieldss

om

mario c

onte

nts

COMPLESSITÀ & SVILUPPO 2003

79 PROBLEMI DI FISICA DELLE NUBI E “GLOBAL WARMING”PROBLEMS IN CLOUD PHYSICS AND GLOBAL WARMINGMaurizio Michelini

La coltre nuvolosa avvolge mediamente il 40% del pianeta. Che ruolo può svolgerenell’evoluzione del riscaldamento globale? Prevarrà l’effetto ombra o l’effetto serra?Qual è il ruolo degli aerosol e quello degli ioni? Il lavoro intende fornire alcune risposteproponendo una teoria del galleggiamento delle nubi basata sulle molecole polari

Clouds cover around 40% of the planet. What role will they play in global warming?Will the shadow effect prevail, or the greenhouse effect? What are the roles of aerosolsand ions? This paper tries to give some answers, proposing a cloud bouyancy theorybased on polar molecules

01 GEOMETRIA DELLO SPAZIO-TEMPO, ETÀ DELL’UNIVERSO E TRANSIZIONEORDINE-CAOS SPACE-TIME GEOMETRY, THE AGE OF THE UNIVERSE AND THE ORDER-CHAOS TRANSI-TIONEmilio Santoro

L’insieme dei dati raccolti in questi ultimi anni dai satelliti Hubble Space Telescope,COBE, Hipparcos e dall’esperimento BOOMERanG, ha fornito un quadro più definito edanche più straordinario dell’universo. Ed è proprio da questi dati che discende unaparticolare relazione tra costanti fondamentali della natura

Data recorded in recent years by the Hubble Space Telescope, COBE, Hipparcos, andthe BOOMERanG experiment provide a better defined and still more extraordinary pic-ture of the universe, and are the basis for a particular relationship among fundamentalconstants in nature

12 GLI INDICATORI DI BENESSERE ECONOMICO SOSTENIBILE: UN’ANALISICOMPARATAINDICATORS OF SUSTAINABLE ECONOMIC WELL-BEING: A COMPARATIVE ANALYSIS Valeria Costantini

Le tradizionali misure del Prodotto Interno Lordo e del reddito pro capite sonoinsufficienti nel valutare il benessere economico sostenibile di una popolazione perchénon tengono conto degli effetti sociali e ambientali delle attività umane. Molti studihanno introdotto variabili relative alle definizioni di capitale naturale e capitale umanoper rendere gli indicatori economici più adatti ad analizzare ed interpretare il benessereinteso come qualità della vita. Nell’articolo viene operata una rassegna di questi studi

Gross National Product and per-capita income, the statistics traditionally used to mea-sure a nation’s standard of living, do not suffice to evaluate sustainable economic well-being because they do not take account of the social and environmental effects ofhuman activities. Many studies have suggested variables that factor in natural capitaland human capital so as make economic indicators more useful in analysing and inter-preting well-being, meaning the quality of life. This article reviews the literature andseeks to identify valid indicators

31 DOMOTICA E INTEGRAZIONE DOMOTICS AND INTEGRATIONGaetano Fasano, Dario Malosti, Michele Zinzi

La domotica è passata dalle prime applicazioni sperimentali degli anni 80 a soluzionicommerciali molto avanzate in attesa del favore del mercato. Tuttavia, nonostantel'evoluzione e i perfezionamenti apportati ai sistemi per l’automazione domestica,rimane irrisolto il vero problema della domotica: l’integrazione dei vari componenti delsistema intelligente e l’ottimizzazione della loro gestione

Domotics, the science of integrating residential electronic devices, electrical appliancesand communication/control systems has progressed from the early experimental applica-tions of the 1980s to very advanced commercial solutions.. Despite all the improvementsmade in residential automation systems, however, the essential problem of domotics –integration and optimised management of smart system components – is still unsolved

som

mario

conte

nts

1

1

1

40 LASER A ECCIMERI SENZA ELETTRODI ELECTRODELESS EXCIMER LASERSNicola Lisi

È oggi possibile realizzare un laser ultravioletto ad alta potenza media basato su unoschema di pompaggio a scarica intrinsecamente pulito? Utilizzando materiali ceramici sipuò arrivare ad operare un laser a eccimeri basato su una scarica priva di elettrodi che,per i bassi costi e la lunga vita media, presenta un notevole interesse nel campo dellaproduzione dei microcircuiti

Is it now possible to build high-power lasers based on an intrinsically clean dialectricbarrier discharge (DBD)? An excimer laser based on the use of ceramic materials andDBD should be of considerable interest to microcircuit manufacturers because of its lowcost and long average life

48 VIBRAZIONI INDOTTE DAL TRAFFICO: UN’INSIDIA PER I MONUMENTI HOW TRAFFIC-INDUCED VIBRATIONS ENDANGER MONUMENTSPaolo Clemente

Il passaggio dei veicoli causa vibrazioni che si trasmettono agli edifici circostanti siaattraverso l’aria sia attraverso il suolo. Nell’articolo sono approfondite le origini dellevibrazioni che si trasmettono attraverso il suolo e gli effetti sulle strutture degli edifici.Viene inoltre sottolineato il ruolo dell’analisi dinamica sperimentale e vengonosuggerite le soluzioni tecniche più adeguate per ridurre le vibrazioni

Vibrations from vehicle traffic are transmitted to nearby buildings through the air andthe ground. This article describes their origin and their effects on building structures,underlines the role of experimental dynamic analysis, and suggests technical solutionsfor reducing them

57 ETANOLO DA BIOMASSA LIGNOCELLULOSICAETHANOL FROM WOODY CELLULOSE BIOMASSFrancesco Zimbardi, Esmeralda Ricci, Egidio Viola, Giacobbe Braccio

L’ipotesi di utilizzare l’alcol etilico di origine vegetale (bioetanolo) in ambito energeticopresenta molti vantaggi, ma deve fare i conti con una disponibilità limitata. Attualmentel’alcol etilico viene prodotto dallo zucchero, dall’amido o, per via petrolchimica,dall’etilene. È possibile ottenerlo anche dal materiale rinnovabile più abbondante cheesista, la cellulosa, ma i relativi processi non sono ancora competitivi sotto il profilotecnico ed economico. L’elevata disponibilità di residui agro-industriali e di alcunetipologie di rifiuti solidi urbani, quali la paglia e la cartastraccia, è un potente stimoloper la messa a punto di processi più efficienti ed economici

Ethanol is currently produced from sugar or starch, but the earth’s most abundant re-newable material, cellulose, could also be used on an industrial scale if certain technicaland economic barriers were lowered

66 LA RACCOLTA E LA CONSERVAZIONE DELLA FRUTTA FRESCA: NUOVI ME-TODI PER PROBLEMI ANTICHIHARVESTING AND STORING FRESH FRUIT: NEW METHODS FOR OLD PROBLEMSDomenico De Martinis

Nell’odierno contesto di mercato globale, la possibilità di sviluppare tecnologie per ilcontrollo della maturazione della frutta riveste importanza strategica nell’industria agro-alimentare. La difficoltà di mantenere la qualità del prodotto durante le procedure diraccolta e trasporto provocano spesso la delusione dei consumatori. Nuove tecnologieper la raccolta e per la conservazione della frutta permetteranno di prevenirne ildeterioramento e verificarne la qualità

In today’s global market, the development of technologies to control fruit ripening is ofstrategic importance to the food industry. The difficulty of maintaining product qualityduring harvesting and shipment often causes consumer dissatisfaction. New highly sen-sitive and speedy harvesting and storage technologies will make it possible to controlfruit quality and prevent spoilage

COMPLESSITÀ & SVILUPPO 2003

som

mario c

onte

nts

1

1

1

1

75 ESPERIMENTO TRADE: SISTEMA DI ACCOPPIAMENTO FRA ACCELERATO-RE DI PROTONE E REATTORE TRIGATHE TRADE EXPERIMENT: COUPLING A PROTON ACCELERATOR AND A TRIGA REACTORGRUPPO DI LAVORO DELLA COLLABORAZIONE TRADEA cura di Stefano Monti ed Emilio Santoro

Uno dei nodi cruciali relativi allo sviluppo dell’energia nucleare è storicamenterappresentato dal problema dei rifiuti radioattivi ad alta radiotossicità. La strada dellatrasmutazione di questi ultimi in elementi a radiotossicità più bassa passa per i grandiprogetti ADS (Accelerator Driven System), di cui TRADE rappresenta un esperimentopilota di rilevanza internazionale

Dealing with highly radiotoxic radioactive waste has always been a crucial problem inthe development of nuclear energy. Transmuting such waste into less radiotoxic ele-ments is the aim of large-scale ADS (Accelerator-Driven System) projects. Among theseis TRADE, a pilot experiment with world-wide implications.

84 LA SCIENZA DELL’INFORMAZIONE GEOGRAFICA E IL GISGEOGRAPHIC INFORMATION SCIENCE AND GISEmanuela Caiaffa

I Geographic Information Systems (GISs), per la loro versatilità nel trattare vari aspettitecnologici e nel gestire vari tipi di dati di natura geografica e non, si rivelano strumentoindispensabile per la pianificazione, la gestione e la valutazione degli aspetti ambientalie socio-economici del territorio oggetto di rappresentazione e di studio

Because of their versatility in dealing with certain technological aspects and managingdifferent kinds of data, geographic and otherwise, Geographic Information Systems(GISs) have become indispensable tools for planning, managing and assessing a giventerritory’s environmental and socio-economic aspects.

COMPLESSITÀ & SVILUPPO 2003

som

mario

conte

nts

1

1

8 COMPLESSITÀ & SVILUPPO 2003

&com

ple

ssità

svilu

ppo

Una strategia per la gestione integrata della terra, dell’acqua e delle risorse viventi che promuove

la conservazione e l’uso sostenibile in modo giustoed equo. Tale concetto, approvato a livello

internazionale, consta di 12 principi generalie di 5 operativi illustrati nell’articolo

LAURA PADOVANI*PAOLA CARRABBA*

FRANCESCO MAURO**ENEA

*UTS Biotecnologie,Protezione della Salute e degli Ecosistemi

**Senior Board

L’approccio ecosistemico:una proposta innovativa per la gestionedella biodiversità e del territorio

2003 Tratto da: ENERGIA, AMBIENTE E INNOVAZIONE 1/03

Nel corso della 5a Conferenza delle Parti(COP 5) della Convenzione sulla DiversitàBiologica, che si è tenuta a Nairobi (Kenya)nel maggio del 2000, è stata approvata ladefinizione su base scientifica di un concet-to che influirà largamente sul modo di im-postare la gestione delle risorse viventi, del-l’ambiente e del territorio: “l’approccio eco-sistemico”.Il concetto e i principi dell’approccio ecosi-stemico sono stati discussi fin dalle primeriunioni dell’Organo Tecnico della Conven-zione sulla Diversità Biologica (SBSTTA 1995e 1996). Nella terza riunione della Con-ferenza delle Parti alla Convenzione (COP3 –Buenos Aires, 1996), le Parti hanno convenutosull’importanza di un approccio regionale edecosistemico per lo sviluppo di linee guida eindicatori per la conservazione e l’uso soste-nibile della diversità biologica.Nel 1998 a Lilongwe (Malawi), sotto gli au-spici del Segretariato della Convenzionesulla Diversità Biologica, si è tenuto un work-shop volto a identificare i principi in gradodi rendere il più possibile operativo l’ap-proccio ecosistemico. La quarta Conferenzadelle Parti (Bratislava, 1998) ha riconosciutola necessità di un’ulteriore elaborazione delconcetto, che ha portato all’organizzazione,nel 1999 a Trondheim (Norvegia), di unaConferenza sull’approccio ecosistemico perl’uso sostenibile della diversità biologica.La Conferenza di Trondheim ha consideratol’approccio ecosistemico come un meccani-smo per garantire un utilizzo sostenibiledelle risorse biologiche nel rispetto degliobiettivi della Convenzione sulla DiversitàBiologica, fornendo un contributo alla com-prensione e all’applicabilità dei principi in-dividuati a Lilongwe.L’approccio ecosistemico, così come defini-to dal documento di lavoro della COP 5(UNEP/CBD/COP/5/23, 103-109), è “unastrategia per la gestione integrata dellaterra, dell’acqua e delle risorse viventi chepromuove la conservazione e l’uso sosteni-bile in modo giusto ed equo”. Questa defi-nizione contiene un riferimento esplicitonon solo alla conservazione ma anche all’uti-

lizzo delle risorse (non solo viventi), con unaccenno alla giustizia e alla equità sociale.Questo riferimento non è un mero eserciziodi stile, in quanto una delle caratteristicheprincipali dell’approccio ecosistemico è ilcoinvolgimento diretto e sostanziale dei por-tatori d’interesse locali (stakeholders) nellagestione del territorio, che è vista come unprocesso integrato non solo dal punto divista ambientale (terra, acqua, atmosfera, ri-sorse viventi) ma anche da quello sociale.Una confusione molto comune tra le perso-ne che sentono parlare dell’approccio eco-sistemico è che questo sia un approccio agliecosistemi, ovvero un modo di gestire varitipi di ecosistema come, ad esempio, fore-ste, savane e zone umide.L’approccio ecosistemico rappresenta, inve-ce, un modo di pensare ed agire in manieraecologica, su base scientifica, integrando leinformazioni biologiche, sociali ed econo-miche per raggiungere un equilibrio social-mente e scientificamente accettabile tra lepriorità della conservazione della natura,l’uso delle risorse e la suddivisione dei be-nefici. In particolare questo approccio tentadi rimuovere le barriere tra l’economiaumana, le aspirazioni sociali e l’ambientenaturale, ponendo fermamente l’uomo al-l’interno dei modelli ecosistemici.L’approccio ecosistemico si basa sull’appli-cazione di appropriate metodologie scienti-fiche focalizzate sui livelli di organizzazionebiologica che comprendono le strutture es-senziali, i processi, le funzioni e le interazio-ni tra gli organismi e il loro ambiente. Essericonoscono che le popolazioni umane, conle loro diversità culturali, sono parte inte-grante di molti ecosistemi.Quest’ultimo concetto, estrapolato a livelloitaliano, fornisce una spiegazione delle dif-ferenze esistenti tra i paesaggi costruiti dal-l’uomo, rendendo conto, ad esempio, delladiversità dei paesaggi agrari e forestali ita-liani del nord, sud ed isole. Queste diversitàsono tanto più evidenti quanto maggiore èla differenza tra usi e costumi delle popola-zioni locali. Il concetto di diversità non sot-tende alcun tipo di giudizio sul livello di cul-

9COMPLESSITÀ & SVILUPPO 2003

L’APPROCCIO ECOSISTEMICO: UNA PROPOSTA INNOVATIVA PER LA GESTIONE DELLA BIODIVERSITÀ E DEL TERRITORIO

tura raggiunto, ma si lega agli aspetti piùqualitativi della cultura.

I principi dell’approccioecosistemico L’approccio ecosistemico consta di 12 prin-cipi, sotto riportati, che devono essere con-siderati complementari e interrelati tra loro.I principi dell’approccio ecosistemico, cosìcome enunciati e descritti, possono avereun senso relativo e di non immediata com-prensione. Di seguito si tenta di proporrecasi esplicativi che aiutino a comprendernele potenziali applicazioni.

1. “Gli obiettivi della gestione del territorio,dell’acqua e delle risorse viventi sonomateria di scelta da parte della società”.Differenti settori della società si rapportanoagli ecosistemi a seconda delle rispettivenecessità economiche, culturali e sociali. Ipopoli indigeni e le comunità locali che vi-vono sul territorio sono importanti portato-ri di interessi (stakeholders) e i loro diritti einteressi devono essere riconosciuti. Sia ladiversità culturale che quella biologicasono componenti centrali dell’approccioecosistemico, e la gestione deve tenerneconto. Le scelte da parte della società de-vono essere espresse il più chiaramentepossibile. Gli ecosistemi dovrebbero esse-re gestiti in modo giusto ed equo per il lorovalore intrinseco e per i benefici tangibili ointangibili che procurano all’uomo.APPLICAZIONE: la conservazione della natu-ra in Italia ha subito una svolta con l’entra-ta in vigore della legge 6 dicembre 1991,n. 394 (legge quadro sulle aree protette),che ha segnato l’inizio dell’affermazionedel principio che la gestione delle areeprotette non può prescindere dal coinvol-gimento delle realtà politiche, produttive esociali locali. Tali forme di partecipazioneprendono corpo mediante l’istituzione diuna Comunità del parco, che rappresental’organo consultivo e propositivo dell’Enteparco, e che promuove iniziative di svilup-po economico e sociale ecocompatibili,

per le collettività residenti all’interno delparco e nei territori adiacenti.

2. “La gestione dovrebbe essere decentra-lizzata al livello appropriato più basso”.I sistemi decentralizzati possono condurrea maggiore efficienza, efficacia ed equità.La gestione dovrebbe coinvolgere tutti iportatori di interesse e bilanciare gli inte-ressi locali con i più ampi interessi pubbli-ci. Maggiore vicinanza vi è tra il livello digestione e l’ecosistema, maggiore risul-terà la responsabilità, la proprietà e l’utiliz-zazione delle conoscenze locali.APPLICAZIONE: un buon esempio relativo alsecondo principio dell’approccio ecosi-stemico è dato dal Communal Areas Ma-nagement Program for Indigenous Re-sources (CAMPFIRE) in Zimbabwe, chepromuove il coinvolgimento delle comu-nità rurali in azioni di conservazione delladiversità biologica per lo sviluppo locale,fornendo loro un’alternativa all’uso di-struttivo del territorio mediante la rivalu-tazione in termini economici della faunaselvatica locale. La comunità rurale, trami-te il Programma CAMPFIRE, ha chiesto alGovernment’s Wildlife Department l’auto-rità legale per gestire direttamente le ri-sorse animali e vegetali naturali della zona,dietro dimostrazione della capacità di sa-perle gestire in maniera conservativa.L’utilizzo che le popolazioni locali fanno diqueste risorse varia dalla vendita delleconcessioni fotografiche o di safari ai touroperator (nel rispetto delle leggi e dellequote stabilite di comune accordo con ilWildlife Department), alla caccia e all’alle-vamento diretto delle popolazioni animali;mentre altri usi sono allo studio per quantoriguarda altre risorse naturali, quali, adesempio, i prodotti forestali. I proventi diqueste attività ricadono, generalmente, di-rettamente sulle popolazioni locali, che inalcuni casi hanno deciso di reinvestirli inaltri progetti di sviluppo locale.

3. “Coloro che gestiscono l’ecosistema do-vrebbero considerare gli effetti (attuali opotenziali) delle loro attività su ecosiste-

10 COMPLESSITÀ & SVILUPPO 2003

LAURA PADOVANI, PAOLA CARRABBA, FRANCESCO MAURO

mi adiacenti e su altri ecosistemi”.Interventi di gestione negli ecosistemispesso hanno effetti sconosciuti o impreve-dibili su altri ecosistemi; perciò, possibiliimpatti necessitano di attenta considera-zione e analisi. Questo può richiederenuovi piani o forme di organizzazione perle istituzioni coinvolte nelle decisioni, alfine di giungere, se necessario, agli appro-priati compromessi.APPLICAZIONE: un esempio negativo legatoagli effetti generati sugli ecosistemi da in-terventi modificativi dell’ambiente è datodal ben noto caso della costruzione delladiga di Assuan (Egitto), che ha modificatoprofondamente il clima di una vasta areaed ha alterato negativamente le condizio-ni ambientali favorevoli all’agricoltura, in-trappolando una buona metà del limo al-l’interno del bacino, riducendo la fertilitàdelle terre a valle della diga e delle acquedel delta, alterando le naturali condizionidell’ecosistema fluviale e lo stile di vita diuna grande quantità di persone. Un effettosecondario della costruzione della diga diAssuan è stato favorire l’ingresso nelMediterraneo, attraverso il Canale diSuez, di specie marine tropicali prove-nienti dal Mar Rosso. Prima della costru-zione della diga, infatti, il Nilo immettevain mare grandi quantità di acqua dolce,che impedivano l’ingresso nel Mediterra-neo alle specie marine del Mar Rosso,abituate ad acque a salinità maggiore.

4. “Riconoscendo i potenziali benefici deri-vanti dalla gestione, esiste in generale lanecessità di comprendere e gestire l’eco-sistema in un contesto economico. Ogniprogramma di gestione degli ecosistemidovrebbe quindi:a) ridurre quelle distorsioni di mercato

che hanno effetti negativi sulla diver-sità biologica;

b) stabilire piani di incentivi per promuo-vere la conservazione e l’uso sosteni-bile della diversità biologica;

c) internalizzare il più possibile i costi e ibenefici dell’ecosistema”.

Il più grande pericolo per la diversità bio-logica consiste nel venire eliminata a se-guito dell’introduzione di sistemi alternati-vi di uso del suolo. Questo spesso accadeattraverso le distorsioni del mercato chesottovalutano i sistemi naturali e le popola-zioni e forniscono incentivi iniqui e sussidiin favore della conversione del territorio insistemi meno diversi. Spesso coloro chetraggono benefici dalla conservazione nonpagano i costi associati alla conservazionee, similmente, coloro che generano costiambientali (ad es. inquinamento) rifuggo-no dalla loro responsabilità. La messa a di-sposizione di incentivi permette a coloroche controllano la risorsa di beneficiarne eassicura che coloro che generano i costiambientali paghino.APPLICAZIONE: il Sesto programma di azio-ne per l’ambiente dell’Unione Europeafissa gli obiettivi e le priorità ambientaliche faranno parte integrante della strate-gia della Comunità Europea per lo svilup-po sostenibile e la politica ambientale. Inquesto contesto un approccio innovativo eil cercare nuovi modi di collaborare conun ampio spaccato della società è consi-derato un approccio strategico per conse-guire gli obiettivi ambientali. È inoltreconsiderata importante l’integrazionedelle tematiche ambientali nelle altre poli-tiche, al fine di rendere le iniziative di con-servazione ed uso sostenibile il più possi-bile efficaci. La collaborazione con il mer-cato attraverso le imprese e gli interessidei consumatori contribuirà a creare mo-delli di produzione e consumo più soste-nibili, penalizzando le imprese inadem-pienti e introducendo regimi che permet-tano di premiare i migliori; di informare iconsumatori perché possano scegliere iprodotti più ecologici orientando così ilmercato in una certa direzione; di soppri-mere i sussidi pubblici a favore di prati-che nocive per l’ambiente; di incoraggia-re le imprese ad innovare, magari co-gliendo le opportunità offerte dall’uso,dallo sviluppo e dalla diffusione di tecno-logie pulite.

11COMPLESSITÀ & SVILUPPO 2003

L’APPROCCIO ECOSISTEMICO: UNA PROPOSTA INNOVATIVA PER LA GESTIONE DELLA BIODIVERSITÀ E DEL TERRITORIO

5. “La conservazione della struttura e delfunzionamento dell’ecosistema, al fine dimantenere inalterati i servizi ambientaliforniti, dovrebbe essere un obiettivoprioritario dell’approccio ecosistemico”.Il funzionamento e la resilienza dell’ecosi-stema dipendono dalla relazione dinamicaall’interno delle specie, tra le specie, e trale specie e il loro ambiente abiotico, cosìcome dalle interazioni fisiche e chimicheall’interno dell’ambiente. La conservazio-ne e, ove appropriato, il ripristino di que-ste interazioni e processi, è di significatomaggiore per il mantenimento a lungo ter-mine della diversità biologica che la sem-plice protezione delle specie.APPLICAZIONE: un buon esempio di questoprincipio è fornito dalle Everglades, inFlorida (USA). Il particolare paesaggioamericano, formato da un vasto sistemaestuario a praterie costiere e mangrovie,si basa sul delicato equilibrio tra il flussod’acqua dolce portato dal fiume Kissim-mee e l’acqua salata del Golfo del Mes-sico. Le Everglades fungono da nurseryper una serie di specie di crostacei epesci che sostengono l’industria dellapesca locale. Il sistema è attualmente inpericolo per l’eccessivo prelievo d’acquaa scopi potabili, irrigui e industriali, perl’inquinamento di provenienza agricola,per la presenza di specie non autoctoneche competono con le specie autoctone,per la crescita dell’urbanizzazione. La ge-stione della risorsa acqua è un fattore cri-tico per la sopravvivenza delle Ever-glades, perché queste possano continua-re a svolgere la loro importante funzioneecologica, lo US Army Corp of Engineersdirige lo Everglades Protection andExpansion Act del 1989, che prevede lamodifica delle attuali modalità di gestionedell’acqua dolce per ripristinare in parteil naturale ciclo stagionale dell’area.

6. “Gli ecosistemi devono essere gestiti neilimiti del loro funzionamento”.Considerando la probabilità o la facilità diraggiungimento degli obiettivi di gestione,

attenzione deve essere posta alle condi-zioni ambientali che limitano la produtti-vità naturale, la struttura, il funzionamentoe la diversità dell’ecosistema. I limiti al fun-zionamento degli ecosistemi possono es-sere influenzati in grado differente da con-dizioni temporanee, non prevedibili omantenute artificialmente e, in accordocon ciò, la gestione dovrebbe essere ap-propriatamente cautelativa.APPLICAZIONE: le tecniche tradizionali di col-tivazione contemplano la pratica del setaside e della rotazione (turnazione) dellecolture. Queste pratiche consentono dimantenere un certo livello di produzionesenza compromettere in modo drastico lerisorse del terreno, ed hanno permesso, inpaesi come il nostro, di conservare la ferti-lità del terreno per millenni. A latitudini ein condizioni socio-economiche diverse, latecnica dello slash and burning (taglia ebrucia), attuata sia per acquisire nuovi ter-reni all’agricoltura che per questioni ener-getiche, ha provocato danni irreversibili adecosistemi con bassa resilienza, in cui lecomponenti chimico-fisiche e biologichedegli ecosistemi richiedono tempi di recu-pero particolarmente lunghi, ed a voltel’alterazione degli ecosistemi di partenzasi è dimostrato irreversibile. Una gestionedel territorio di questo tipo è alla base deifenomeni di desertificazione di un consi-stente numero di aree con problemi di sot-tosviluppo.

7. “L’approccio ecosistemico dovrebbe es-sere intrapreso su scala spaziale e tem-porale appropriata”.L’approccio dovrebbe essere limitato allescale spaziali e temporali appropriate agliobiettivi. I limiti per la gestione sarannodefiniti in modo operativo dai fruitori, daigestori, dai ricercatori e dalle comunità in-digene e locali. La connettività tra aree do-vrebbe essere promossa lì dove necessa-rio. L’approccio ecosistemico è basatosulla natura gerarchica della diversità bio-logica caratterizzata dall’interazione e in-tegrazione di geni, specie ed ecosistemi.

12 COMPLESSITÀ & SVILUPPO 2003

LAURA PADOVANI, PAOLA CARRABBA, FRANCESCO MAURO

APPLICAZIONE: la diversità biologica nellesue diverse componenti può essere con-servata ed utilizzata in modo sostenibilesolo se considerata come parte integran-te degli ecosistemi, e se si tengono inconsiderazione le sue interazioni conl’uomo. Alle nostre latitudini, dove la fram-mentazione dell’ambiente risulta essereuna delle caratteristiche salienti del terri-torio, il livello più idoneo di applicazionedei principi dell’approccio ecosistemicoè il paesaggio. Il paesaggio, inteso anchenella sua componente culturale, rappre-senta il più alto livello di organizzazionedella diversità biologica, con proprietàsintetiche e descrittive in grado di evi-denziare le condizioni di salute/degradoe le interazioni reciproche degli elementiche ne fanno parte.

8. “Riconoscendo il variare delle scale tem-porali e gli effetti ritardati che caratteriz-zano i processi ecosistemici, gli obiettiviper la gestione degli ecosistemi dovreb-bero essere messi a punto su scala tem-porale di lungo termine”.I processi ecosistemici sono caratterizzatidalla variazione lungo una scala temporalee dall’effetto di trascinamento. Ciò entrainerentemente in conflitto con la tendenzaumana a favore di guadagni a breve termi-ne e benefici immediati piuttosto che futuri.APPLICAZIONE: il problema della scala tem-porale di applicazione dell’approccioecosistemico è particolarmente critico.Politici, produttori, comunità, donatori, au-torità nazionali e locali operano spesso suscale temporali completamente differenti.Nei workshop organizzati nell’ambito delprogetto An Ecosystem Approach underthe CBD, from concept to action (2000), icasi studio presentati hanno dimostratoche i progetti cercano di andare incontroalle necessità e alle aspettative di diffe-renti stakeholders coniugando obiettivi amedio-lungo termine con azioni concretea breve termine. Sebbene i partecipantiai workshop convenissero sul fatto chel’approccio ecosistemico necessiti di

obiettivi a lungo termine, le comunità lo-cali coinvolte nei progetti sono molto sen-sibili ai benefici immediati. Le necessitàdella vita quotidiana sono infatti immedia-te; un futuro sostenibile può essere irrile-vante per chi rischia di non avere un futu-ro. La necessità di mettere a punto obietti-vi a breve termine risponde non solo allenecessità degli utilizzatori dell’ambiente,ma può anche venire incontro ai proble-mi legati alla conservazione di specie oecosistemi in condizioni critiche. Unmodo per stemperare la scarsa efficaciadi progetti a breve termine a favore diazioni a medio-lungo termine più signifi-cative ai fini dell’approccio ecosistemico,potrebbe essere: a) far cominciare leparti del progetto autosostenentesi dalpunto di vista economico a medio-lungotermine dopo una parte iniziale finanziataad hoc; b) l’integrazione di progetti pilotadi breve-medio termine in programmi ditipo permanente; c) l’accettazione e ladiffusione delle idee tra i partecipanti lo-cali; d) una realistica strategia di fine pro-getto che preveda la continuazione delleattività cominciate con il progetto.

9. “La gestione deve riconoscere che ilcambiamento è inevitabile”.Gli ecosistemi cambiano, inclusa la com-posizione in specie e l’abbondanza dellepopolazioni. Dunque, la gestione dovreb-be adattarsi al cambiamento. A parte laloro dinamica inerente al cambiamento,gli ecosistemi sono assediati da un com-plesso di incertezze e potenziali “sorpre-se” provenienti dall’ambito umano, biolo-gico ed ambientale. I regimi tradizionali didisturbo possono essere importanti per lastruttura e il funzionamento dell’ecosiste-ma, e può essere necessario mantenerli oripristinarli. L’approccio ecosistemicodeve utilizzare una gestione adattativa alfine di anticipare e provvedere a queicambiamenti ed eventi, e dovrebbe porreattenzione nel prendere qualsiasi decisio-ne che possa precludere delle opzioni ma,allo stesso tempo, dovrebbe considerare

13COMPLESSITÀ & SVILUPPO 2003

L’APPROCCIO ECOSISTEMICO: UNA PROPOSTA INNOVATIVA PER LA GESTIONE DELLA BIODIVERSITÀ E DEL TERRITORIO

le azioni di mitigazione per far fronte aicambiamenti a lungo termine come, adesempio, i cambiamenti climatici.APPLICAZIONE: l’attività principale che èalla base del mantenimento di una partedei paesaggi di montagna nel nostroPaese è l’agricoltura. La sua funzione pro-duttiva tradizionale è la garanzia dellaqualità dell’ambiente ed è l’elementochiave per la manutenzione e lo sviluppodi molte altre attività in aree montane. Lepolitiche nazionali ed europee, semprepiù volte alla liberalizzazione dei mercati,hanno avuto come conseguenza la ridu-zione dei prezzi e l’ampliamento delleaziende agricole, tendenze queste chepenalizzano un’economia come quellamontana, gravata dall’esistenza di svan-taggi naturali permanenti (orografici, cli-matici, di isolamento) che sono all’originedei maggiori costi di produzione, da unaproduttività del lavoro più bassa, da unalimitazione della dimensione delle azien-de agricole. Le difficoltà economiche ge-nerate da queste tendenze sono partico-larmente gravi da un punto di vista am-bientale, a causa dell’importante ruologiocato dall’agricoltura per gli equilibriecologici. La fuga delle forze lavoro versole città e il conseguente abbandono delleattività tradizionali, che rappresentavanoun valido strumento di gestione territo-riale, causa squilibri ambientali difficil-mente recuperabili in tempi brevi, comel’omogeneizzazione dell’ambiente, lamodifica del paesaggio, le difficoltà orga-nizzative per la popolazione che rimane(isolamento, mancanza di servizi ed infra-strutture, perdita di cultura ecc.). Per in-vertire questa tendenza, che rischia dicompromettere la qualità ambientale divaste aree montane, sarebbe necessariomettere a punto nuove strategie (comequelle in discussione nel quadro del-l’Anno Internazionale della Montagna)che coniughino la conservazione dell’am-biente con nuove prospettive di redditolegate all’uso sostenibile delle compo-nenti della diversità biologica nelle aree

montane. Un esempio potrebbe esserequello di promuovere forme di “remune-razione” a fronte di “produzione ecocom-patibile” o “conservazione” di tipologieambientali. Queste remunerazioni potreb-bero essere legate alla conservazione di“funzioni di protezione” o di “fruizione”dell’ambiente montano, visto come gene-ratore di beni ambientali (acqua ed aria dibuona qualità, protezione dal dissestoidrogeologico) o come fornitore di beniambientali (turismo montano).

10. “L’approccio ecosistemico deve ricerca-re il giusto equilibrio e l’integrazionecon la conservazione e l’uso della diver-sità biologica”.La diversità biologica è critica sia per ilsuo valore intrinseco che per il ruolochiave giocato nel procurare gli ecosiste-mi e gli altri servizi dai quali in ultimaanalisi tutti noi dipendiamo. C’è stata nelpassato la tendenza a gestire le compo-nenti della diversità biologica come pro-tetti o non-protetti. Si è manifestata la ne-cessità di indirizzarsi verso situazioni piùflessibili dove conservazione ed uso sonovisti in modo contestuale e l’interagamma di misure viene applicata in uncontinuum da ecosistemi strettamenteprotetti ad altri costruiti dall’uomo.APPLICAZIONE: l’approccio alla conserva-zione della natura è stato storicamenteinteso come conservazione di singolespecie o aree di particolare interesse.Questo approccio non teneva contodelle relazioni imprescindibili esistentitra le componenti di un ecosistema, edel fatto, quindi, che la conservazione diun singolo elemento (ad esempio, unaspecie) è destinato a fallire con l’alterarsidelle situazioni di contorno che ne per-mettono la sopravvivenza. Il ServizioConservazione della Natura del Mini-stero dell’Ambiente, nell’elaborazionedella Programmazione dei fondi struttu-rali 2000-2006 (delibera CIPE 22 dicem-bre 1998), ha steso un rapporto interina-le che rappresenta il documento di base

14 COMPLESSITÀ & SVILUPPO 2003

LAURA PADOVANI, PAOLA CARRABBA, FRANCESCO MAURO

per l’adozione della “Rete EcologicaNazionale”, uno specifico programmanazionale di interventi di tutela attiva e disviluppo ecocompatibile delle risorsenaturali italiane. Il rapporto recita: “…Larete ecologica si configura come una in-frastruttura naturale e ambientale chepersegue il fine di interrelazionare e diconnettere ambiti territoriali dotati di unamaggiore presenza di naturalità, ove mi-gliore … è il grado di integrazione dellecomunità locali con i processi naturali, re-cuperando e ricucendo tutti quegli am-bienti relitti e dispersi nel territorio chehanno mantenuto viva una seppure resi-dua struttura originaria, ambiti la cui per-manenza è condizione necessaria per ilsostegno complessivo di una diffusa e di-versificata qualità naturale nel nostropaese. Particolarmente, in queste aree, sipone l’esigenza di coniugare gli obiettividella tutela e della conservazione conquelli dello sviluppo, compatibile e dura-turo, integrando le tematiche economi-che e sociali dei territori interessati dallearee protette con la politica complessivadi conservazione e valorizzazione dellerisorse ambientali”. Questo approccio èsicuramente innovativo e corrisponde al-l’enunciato del presente principio.

11. “L’approccio ecosistemico dovrebbeconsiderare tutte le forme di informazio-ne rilevanti, incluse le conoscenzescientifiche, le innovazioni e le praticheindigene e locali”.L’informazione da tutte le fonti è criticaper pervenire ad effettive strategie di ge-stione di un ecosistema. È desiderabileuna migliore conoscenza del funziona-mento degli ecosistemi e dell’impatto del-l’utilizzo umano. Tutte le informazioni rile-vanti da ogni area considerata dovrebbe-ro essere condivise con tutti i portatori diinteresse e gli attori, tenendo conto, tra lealtre cose, di ogni decisione presa sottogli auspici dell’art. 8(j) della Convenzionesulla Diversità Biologica. Le ipotesi chesono alla base di specifiche proposte di

gestione dovrebbero essere avanzate inmaniera esplicita e verificate alla lucedelle conoscenze disponibili e del puntodi vista dei portatori di interessi.APPLICAZIONE: la convivenza spesso mille-naria dell’uomo con ambienti difficili odalle caratteristiche molto marcate hafatto in modo che si sviluppassero tecni-che tradizionali di gestione del territorioparticolarmente adatte alla conservazio-ne delle caratteristiche peculiari dell’am-biente e allo sfruttamento razionale e nondistruttivo delle risorse messe a disposi-zione dell’ecosistema. Il recupero e laconservazione di queste tecniche puòrappresentare un’ottima opportunità disviluppo di aree oggi svantaggiate da unpunto di vista economico. Un buonesempio è dato dal recupero a scopi tu-ristici dell’area delle gravine in Basilicatae Puglia, dove la riscoperta e il riutilizzodelle tecniche tradizionali di raccolta edistribuzione dell’acqua permette la ra-zionalizzazione di una risorsa indispen-sabile per promuovere il turismo.

12. “L’approccio ecosistemico dovrebbecoinvolgere tutti i settori rilevanti dellasocietà e delle discipline scientifiche”.Molti problemi inerenti la gestione delladiversità biologica sono complessi, conmolte interazioni, effetti collaterali ed im-plicazioni, e quindi dovrebbero coinvol-gere le necessarie competenze e i porta-tori di interessi a livello locale, nazionale,regionale e internazionale, secondoquanto appropriato.APPLICAZIONE: tornando al sistema delleEverglades in Florida, il tentativo di ri-pristino delle condizioni ambientali del-l’ecosistema è passato anche attraversola costituzione di una South FloridaEcosystem Restoration Task Force. LaTask Force, formata da ingegneri, scien-ziati, antropologi e manager di tredici di-verse agenzie federali, sei agenzie diStato e due governi tribali, coordina leproprie attività con il pubblico e con laCommissione Unica stabilita dal Gover-

15COMPLESSITÀ & SVILUPPO 2003

L’APPROCCIO ECOSISTEMICO: UNA PROPOSTA INNOVATIVA PER LA GESTIONE DELLA BIODIVERSITÀ E DEL TERRITORIO

natore della Florida, al fine di coniugarele necessità del ripristino ambientalecon un’economia sostenibile e unabuona qualità della vita. Esperienze ana-loghe potrebbero essere sviluppate neiterritori del Bacino del Mediterraneoove sono presenti comunità locali chehanno preservato forti tradizioni.

Principi operativi perl’applicazione dell’approccioecosistemicoOltre ai dodici principi dell’approccio eco-sistemico, il documento di lavoro della COP5 propone cinque principi operativi da uti-lizzare nell’applicazione a livello locale deiprincipi generali sopra enunciati.

1. “Concentrare l’attenzione sulle relazionifunzionali e sui processi interni agli eco-sistemi”.La diversità biologica funzionale forniscebeni e servizi di importanza economica esociale e controlla le riserve e i flussi dienergia, i cicli dell’acqua e dei nutrienti al-l’interno degli ecosistemi. È quindi richie-sta una sempre maggiore conoscenza deiruoli delle componenti della diversità bio-logica, per:

a) comprendere la resilienza ecosistemicae gli effetti della perdita di diversità bio-logica e della frammentazione degli ha-bitat;

b) individuare le cause di perdita della di-versità biologica;

c) individuare i fattori determinanti delladiversità biologica locale nelle decisio-ni di gestione.

2. “Accrescere la condivisione dei benefici”.I benefici che derivano dalla diversità bio-logica a livello di ecosistema forniscono lebasi della sostenibilità. L’approccio ecosi-stemico cerca di far sì che i benefici deriva-ti da queste funzioni siano mantenuti o ri-pristinati. In particolare, di queste funzionidovrebbero beneficiare i detentori di inte-ressi responsabili della loro produzione e

gestione. Ciò richiede che le comunità lo-cali accrescano la capacità di gestire la di-versità biologica negli ecosistemi; una ap-propriata valutazione dei beni e dei servizidegli ecosistemi; la rimozione di incentiviperversi che svalutino i beni e i servizi of-ferti dagli ecosistemi; e la loro sostituzionecon incentivi locali rivolti alla messa inopera di buone pratiche di gestione.

3. “Utilizzare pratiche di gestione adattativa”.Il livello di indeterminazione dei processie delle funzioni degli ecosistemi è aumen-tato dalle interazioni con la struttura socia-le. È necessario quindi adattare le meto-dologie e le pratiche di gestione tenendoconto di queste interazioni. I programmi digestione dovrebbero adattarsi agli impre-visti, piuttosto che basarsi soltanto su ciòche è già noto. La gestione degli ecosiste-mi ha bisogno di riconoscere la diversitàdei fattori sociali e culturali che interessa-no l’uso delle risorse naturali. Similmente,vi è la necessità di flessibilità nelle decisio-ni politiche e nei processi di implementa-zione. La gestione degli ecosistemi do-vrebbe essere considerata come un espe-rimento a lungo termine che basa i propriprogressi sui propri risultati.

4. “Portare avanti azioni di gestione allascala appropriata, decentralizzando al li-vello appropriato più basso”.Spesso l’approccio implica la decentraliz-zazione a livello delle comunità locali. Ilpassaggio di competenze richiede che idetentori di interesse abbiano l’opportunitàdi assumersi le responsabilità e la capacitàdi portare avanti azioni appropriate. È inol-tre necessario che siano supportati da unapolitica e da quadri legislativi appropriati.Dove necessario, istituzioni appropriate do-vrebbero essere coinvolte nelle decisioniper la risoluzione dei conflitti.

5. “Assicurare la cooperazione intersetto-riale”.L’approccio ecosistemico dovrebbe esseretenuto in considerazione nello sviluppare e

16 COMPLESSITÀ & SVILUPPO 2003

LAURA PADOVANI, PAOLA CARRABBA, FRANCESCO MAURO

riconsiderare le strategie nazionali e i pianid’azione per la diversità biologica. L’ap-proccio ecosistemico dovrebbe inoltre es-sere integrato nell’agricoltura, nella pesca,in campo forestale e in altri sistemi produt-tivi che hanno un effetto sulla diversità bio-logica. La gestione delle risorse naturali ri-chiede infatti un aumento della comunica-zione e cooperazione intersettoriale.

ConclusioniDa quanto detto, si evince come l’approccioecosistemico richieda che la gestione si ac-cordi con la natura complessa e dinamicadegli ecosistemi, nonché con la mancanza diconoscenze complete e di una completacomprensione del loro funzionamento. I pro-cessi ecosistemici sono spesso non-lineari ei loro risultati si manifestano spesso dopo unintervallo di tempo. La gestione deve quindiessere di tipo adattativo per poter risponde-re agli elementi di incertezza, e contenereelementi di “imparare facendo” o di analisi afeedback. Ciò è necessario in quanto nellagestione pratica di un territorio si può ren-dere necessario prendere delle misuresenza che le relazioni causa-effetto sianopienamente riconosciute a livello scientifico.L’approccio ecosistemico non preclude altritipi di approccio gestionale o di conserva-zione, come ad esempio leggi nazionali eleggi-quadro già in vigore, vincoli e pro-grammi di conservazione di singole specie,ma integra tutti questi approcci per adattarsia situazioni complesse, ed anzi introduceelementi di conservazione e gestione soste-nibile soprattutto lì dove il territorio è già sot-toposto ad un utilizzo con maggior o minoreimpatto (agricolo, industriale, insediativo).Non esiste un solo modo di applicare l’ap-proccio ecosistemico, che rappresenta piùuna filosofia di intervento e gestione che uninsieme di regole da seguire secondo unoschema preciso. Questo perché a tutti i livel-li, ma soprattutto a quello locale, la gestione

del territorio è influenzata da una miriade dideleghe legislative e di interessi pubblici eprivati che non possono essere ignorati.L’applicazione dei principi dell’approccioecosistemico deve quindi essere valutato etarato di volta in volta a seconda delle condi-zioni locali e a contorno, cercando il più pos-sibile di conservare lo spirito generale del-l’approccio.L’individuazione di una metodologia di azio-ne a livello locale che si basi su indicazionigenerali individuate a livello internazionale,così come è stato per l’approccio ecosiste-mico, risponde ad uno dei principali assuntidello sviluppo sostenibile: “Pensare global-mente, agire localmente”.

BibliografiaNICOLAI C., PADOVANI L. & CARRABBA P., 1998. Territorioe Biodiversità: l’Approccio Ecosistemico. Pangea11:13-16.

BATJARGAL Z., BRIDGEWATER P., DI CASTRI F., HAMMER M.B.,HENNE G., KABWAZA M.P., MALTBY E., MARTIN R.B., MAURO

F., PRINS H.H.T., RUGGIERO M., SCHEI P.J., SEYANI J.H.,VOGEL J., VOKHIWA Z.M., 1998. Report of the Workshopon the Ecosystem Approach, Lilongwe. Convention onBiological Diversity (UNEP/CBD/COP/4/Inf.9).

MALTBY E., HOLDGATE M., ACREMAN M., WEIR A., 1998.Ecosystem Management: Questions for science andpolicy. RHIER. London.

AA.VV., 1999. Report of the Scientific Workshop on‘The Ecosystem Approach - What does it mean forEuropean Ecosytems’. German Federal Agency forNature Conservation. Bonn, Germany.

SCHEI P.J., SANDLUND O.T. & STRAND R. (eds.), 1999.Norway/UN Conference on Norway/UN Conferenceon theEcosystem Approach For Sustainable Use ofBiological Diversity. Norwegian Directorate for NatureManagement (DN) and Norwegian Institute forNature Research. Trondheim, 6-10 September 1999.

UNEP, 2000. Decision adopted by the Conference ofthe Parties to the Convention on Biological Diversityat its fifth Meeting. Nairobi, 2000. UNEP/CBD/COP/5/23,pp. 103-109.

SMITH R.D. & MALTBY E. (eds), 2001. Using theEcosystem Approach to implement the CBD. RoyalHolloway, Univerity of London. London.

CAMPFIRE - Communal Areas Management Pro-gramme for Indigenous Resources. Zimbabwe.http://campfire-zimbabwe.org/ index.html.

Convenzione sulla Diversità Biologica (UNEP-CBD).http://www.biodiv.org/.

Everglades National Park - http://www.nps.gov/ever/welcome2.htm.

17COMPLESSITÀ & SVILUPPO 2003

L’APPROCCIO ECOSISTEMICO: UNA PROPOSTA INNOVATIVA PER LA GESTIONE DELLA BIODIVERSITÀ E DEL TERRITORIO

18 COMPLESSITÀ & SVILUPPO 2003

&com

ple

ssità

svilu

ppo

Le tecnologie disponibili, i principali risultati ottenuti ele iniziative previste nell’ambito dei programmi

pubblici e privati internazionali e nazionali. I vantaggiambientali e le barriere che ostacolano la lorointroduzione nel mercato. L’importanza di una

presenza italiana significativa

M. CONTE, F. DI MARIO,A. IACOBAZZI, R. INFUSINO

A. MATTUCCI, M. RONCHETTIR. VELLONE

ENEAGrande Progetto Idrogeno

e Celle a Combustibile

Veicoli a idrogeno:stato attuale e prospettive di sviluppo

2003 Tratto da: ENERGIA, AMBIENTE E INNOVAZIONE 1/03

Lo sviluppo della società attuale è legatostrettamente al settore dei trasporti ed inparticolare al modo stradale. Accanto aquesta indiscutibile valenza positiva si veri-ficano però effetti di carattere marcatamen-te opposto, che impongono con urgenzal’adozione di nuove soluzioni e modelli diriferimento per garantire che la crescita tu-multuosa del settore non arrechi danni irre-versibili e inaccettabili al mondo moderno.Si parla evidentemente degli effetti dovutiall’inquinamento atmosferico; ai disturbicausati dall’inquinamento acustico; alla con-gestione; agli incidenti e così via fino allepossibili mutazioni climatiche legate all’ef-fetto serra e al progressivo depauperamen-to delle risorse energetiche non rinnovabili.Tali esternalità negative provocano un inne-gabile peggioramento della qualità dellavita dei cittadini e dello stato dell’ambienteed impongono alla collettività alti costi di ri-pristino. Spesso tali costi vengono sottovalu-tati in quanto sono suddivisi tra molteplicisoggetti, per cui i cittadini non riescono adacquisire una piena coscienza dell’impattocomplessivo, come sarebbe se il costo ve-nisse a gravare su un unico individuo. Un ul-teriore problema è originato dai differenticontesti territoriali sui quali i trasporti vannoad incidere, che richiedono un alto grado disinergia tra i diversi soggetti preposti alleazioni di contenimento e recupero.Nella tabella 1 sono riportate le esternalitàpiù evidenti prodotte dai trasporti stradali,in relazione alla scala territoriale in cui i re-lativi effetti hanno maggiore incidenza1.Per farsi un’idea dell’incidenza energeticadei trasporti, si possono considerare le sta-tistiche fornite dall’Agenzia Internazionaledell’Energia (IEA)2, da cui si è ricavata latabella 2, relativa ai consumi finali di ener-

gia per l’anno 1999. Come si può vedere,l’incidenza dei trasporti è pari a circa il26% ed il 34% del totale dei consumi ener-getici, rispettivamente per l’intero pianetaed i paesi OCSE. Tale percentuale aumentaal 58% e 62% quando si vanno ad esamina-re i consumi dei prodotti petroliferi, cherappresentano la percentuale più consi-stente delle fonti utilizzate. In questo quadrogioca un ruolo predominante il trasportostradale, dove viene consumata una porzio-ne maggiore del 90% dell’energia utilizzatadall’intero settore e che, a sua volta, impie-ga prevalentemente i derivati del petrolio.L’ampia dipendenza dal petrolio rende ne-cessaria una breve riflessione sulla disponi-bilità delle scorte della fonte primaria. Laconsistenza dei giacimenti di petrolio, giàscoperti ovvero in corso di esplorazione, dàuna stima di 1800 miliardi di barili, di cui784 già estratti e consumati (dati 1996); sullabase dei consumi attuali, pari a circa 25 mi-liardi di barili nell’anno 2000, e dei tassi dicrescita appare chiaro che entro qualchedecina di anni le risorse estraibili a costi ac-cettabili saranno esaurite, anche conside-rando la scoperta di nuovi giacimenti.Accanto a questo problema si deve ag-giungere che l’emissione di CO2 può pro-durre effetti sempre più critici, con la fon-data prospettiva di modificare il climamondiale, come conseguenza del mag-

19COMPLESSITÀ & SVILUPPO 2003

VEICOLI A IDROGENO: STATO ATTUALE E PROSPETTIVE DI SVILUPPO

Tabella 2Consumi finali di ener-gia anno 1999 (Mtep)

Carbone Greggio Prodotti Gas Combustibili Altri Totalepetroliferi rinnovabili

Consumo mondiale Totale 552,45 16,4 2869,6 1077,9 956,8 1279,8 6752,95Trasporti 6,25 - 1663,4 58,4 8,8 18,7 1755,55

Consumo paesi OCSE Totale 128 2,2 1897,1 688,5 103,73 733,1 3552,63Trasporti 0,1 - 1168,8 23,4 1,9 9,2 1203,4

Tabella 1Impatti delle esterna-lità dei trasporti aivari livelli territoriali1

Impatti Scala Inquinamento Incidenti Rumoreatmosferico

Salute, qualità della vita Locale X X X

Piogge acide Regionale X

Smog fotochimico Regionale X

Effetto serra indiretto Globale X

Effetto serra diretto Globale X

Riduzione ozono stratosferico Globale X

giore assorbimento di energia da partedell’atmosfera. Per ovviare a tutto questo sista tentando di attivare politiche di conteni-mento come il Protocollo di Kyoto, che im-pone di ridurre le emissioni per i Paesi fir-matari, con un obiettivo di riduzione com-plessiva per il 2010 che, per l’UnioneEuropea, è pari all’8% e per l’Italia al 6,5%,rispetto all’anno 1990. Tuttavia, se la ten-denza aggregata per l’Unione Europea èpositiva con una riduzione del 4% nell’an-no 1999, per l’Italia si è invece registrato unaumento del 4,4% nello stesso anno3. Ciòvuol dire che, nel nostro Paese, nuove mi-sure dovranno essere adottate ed un mag-gior impegno in quelle già avviate percentrare gli obiettivi di riduzione. In parti-colare, le indicazioni date dal Governo, perquanto attiene al settore trasporti, includo-no lo sviluppo di sistemi di trasporto a ri-dotto impatto energetico ed ambientale.Per quanto riguarda le emissioni di sostan-ze nocive, in ambito comunitario sono stateprese misure di carattere normativo, siastabilendo limiti per le concentrazioni nel-l’aria di composti pericolosi e per le emis-sioni complessive dei singoli paesi mem-bri, sia imponendo vincoli stringenti suiveicoli ed i carburanti utilizzati per il tra-sporto stradale in modo da ridurre o elimi-

nare gli effetti indesiderati. Altre azioni dellaCommissione Europea hanno promosso lastipula Accordi volontari con i principali co-struttori di autoveicoli sia europei che ex-traeuropei (raggruppamenti ACEA, JAMA eKAMA) al fine di abbattere le emissioni spe-cifiche della CO2 da parte dei veicoli. Inessi si è concordato che, entro il 2008, lamedia delle emissioni di CO2 dei nuovi vei-coli venduti dovrà essere non superiore a140 g/km, anche se la CE ha l’obiettivo diridurre ulteriormente il limite a 120 g/km, ilcui relativo conseguimento potrebbe esse-re raggiunto entro l’anno 2012.L’importanza dei trasporti in ambito nazio-nale4 può essere rilevata attraverso la ta-bella 3, che ne riassume i dati principali eche conferma ancora una volta il ruolo pre-valente del trasporto stradale.Un ulteriore approfondimento può esserefatto evidenziando i contributi delle varietipologie di veicoli facenti parte del tra-sporto stradale sulla base della metodolo-gia COPERT5 che viene usata per le stimenazionali.In tabella 45 sono riportati i dati di impattodel trasporto stradale aggregati sul territo-rio nazionale, ottenuti a partire dai singolidomini urbano, extraurbano e autostradalesu cui vengono calcolati i vari indicatori. I

20 COMPLESSITÀ & SVILUPPO 2003

M. CONTE, F. DI MARIO, A. IACOBAZZI, R. INFUSINO, A. MATTUCCI, M. RONCHETTI, R. VELLONE

1990 1995 2000

Traffico Energia Energia Emiss. Traffico Energia Energia Emiss. Traffico Energia Energia Emiss.Modalità di trasporto Mpass-km finale primaria di CO2 Mpass-km finale primaria di CO2 Mpass-km finale primaria di CO2

(Mt-km) (Mtep) (Mtep) (Mt) (Mt-km) (Mtep) (Mtep) (Mt) (Mt-km) (Mtep) (Mtep) (Mt)

PasseggeriImpianti fissi 51.698 0,329 0,772 1,948 51.871 0,364 0,873 2,194 52.080 0,369 0,907 2,269Su strada 637.237 21,756 25,140 72,824 740.725 24,227 28,001 81,083 810.450 26,088 30,155 87,303Vie d’acqua 2.887 0,060 0,068 0,205 2.667 0,067 0,076 0,229 4.648 0,097 0,110 0,330Navigazione aerea 6.416 0,551 0,641 1,835 7.108 0,596 0,693 1,985 11.585 0,971 1,129 3,235

Totale passeggeri 698.238 22,696 26,621 76,812 802.371 25,255 29,644 85,491 878.763 27,524 32,301 93,137

MerciImpianti fissi 21.941 0,176 0,410 1,035 24.352 0,204 0,473 1,194 25.600 0,204 0,473 1,196Su strada 177.945 7,930 9,012 27,070 195.327 9,314 10,585 31,795 210.108 12,212 13,877 41,686Vie d’acqua 35.783 0,331 0,376 1,130 35.442 0,383 0,435 1,307 46.203 0,427 0,486 1,459Navigazione aerea 33 0,014 0,017 0,047 29 0,012 0,014 0,040 40 0,017 0,020 0,057

Totale merci 235.702 8,452 9,814 29,282 255.121 9,913 11,506 34,336 281.951 12,860 14.856 44,398

Totale trasporto - 31,147 36,435 106,094 - 35,168 41,150 119,827 - 40,385 47,157 137,535

Fonte: Elaborazione ENEA di dati di fonti diverseTabella 3Trasporto passeggerie merci in Italia: traf-fico, consumi ed emi-ssioni totali di CO2per modalità.Anni 1990-1995-2000

consumi sono espressi in tonnellate equi-valenti di petrolio (tep) per rendere con-frontabili i diversi combustibili, che sonocaratterizzati da poteri calorifici abbastan-za diversi.Confrontando la tabella con le emissioni to-tali nazionali complessive si può evincereche l’impatto del trasporto stradale è deltutto predominante per alcuni inquinanti,come NOx e COV, sui quali devono pertan-to essere attivate azioni specifiche per la ri-duzione delle emissioni. Per essere effica-ci, gli interventi dovranno essere ad ampiospettro ed interessare quindi sia la gestio-ne della domanda e del sistema nel suo in-sieme, sia lo sviluppo di combustibili alter-nativi e di nuove tecnologie veicolari.Nel breve e medio termine il miglioramen-to dei veicoli convenzionali (minori emis-

tare il rendimento complessivo del veicolononostante la crescita della richiesta di po-tenza complessiva), ed ibridazione minima(per favorire il recupero in frenata).Oltre al miglioramento dei veicoli conven-zionali, sono possibili soluzioni diverse, ba-sate essenzialmente sull’utilizzazione dellatrazione elettrica in combinazione con unaserie di tecnologie veicolari e combustibilialternativi.I veicoli a trazione elettrica hanno in comu-ne un motore elettrico che provvede, par-zialmente o completamente, alla sua pro-pulsione mantenendo un elevato rendimen-to energetico in ogni condizione di lavoro,anche perché consentono, quale requisitoesclusivo, di recuperare energia durante lefasi di rallentamento del veicolo.Tra le diverse soluzioni, quella più promet-

21COMPLESSITÀ & SVILUPPO 2003

VEICOLI A IDROGENO: STATO ATTUALE E PROSPETTIVE DI SVILUPPO

Indicatore Autovetture Furgoni Camion Bus Motorini Moto Totale

Consumo (Mtep) 23,57 3,28 7,95 1,07 0,51 0,66 37,04CO2 (t * 106) 71,05 9,68 23,29 3,14 1,55 2,03 110,74CO (t * 106) 3,11 0,12 0,08 0,01 0,29 0,52 4,13NOx (t * 103) 419,30 55,7 236,6 37,8 0,6 3,81 753,81COV non metanici (t * 103) 469,20 14,9 37,6 4,4 174,3 42,6 743,00CH4 (t * 103) 29 0,6 2 0,4 2,9 4,4 39,30PM (t * 103) 15,2 9,7 16 1,8 42,70N2O (t * 103) 7,7 0,6 1,1 0,1 9,50NH3 (t * 103) 13,7 0,2 0,1 14,00SO2 (t * 103) 16,6 3,2 7,4 1 0,9 1,2 30,30Pb (t3) 654,6 82,8 3,1 165 215,9 1121,40

Tabella 4Impatto del trasportostradale in Italia perl’anno 1999

sioni e maggiore efficienza) si potrà otte-nere con l’adozione di tecnologie ormai infase di avanzata sperimentazione ed intro-duzione preliminare del mercato: nuoveconfigurazioni e dimensioni (per migliora-re l’aerodinamica e minimizzare le neces-sità energetiche), motori termici a più altorendimento (a iniezione diretta sia a benzi-na sia diesel con cicli più efficienti), nuovimateriali (per ridurre la massa del veicoloe migliorare le prestazioni energetiche deimotori con materiali ceramici) e combusti-bili alternativi (gas naturale, biocombusti-bili, idrogeno per ridurre la quantità di car-bonio nel combustibile di partenza), elet-trificazione spinta dei servizi (per aumen-

tente per il medio-lungo termine è basatasull’impiego dell’idrogeno in veicoli cheutilizzano la tecnologia delle celle a com-bustibile. All’approfondimento della tecno-logia relativa all’uso dell’idrogeno è quindidedicato il resto del documento.

L’idrogeno come combustibileper la trazione

Caratteristiche dell’idrogeno

L’idrogeno, l’elemento più abbondantedell’Universo, è assai raro sulla Terra allostato elementare, anche se è molto diffusosotto forma di composti (acqua, idrocarbu-

ri, organismi animali e vegetali) e può quin-di essere prodotto a partire da diverse fonti.L’interesse per il suo impiego come combu-stibile, per la trazione ma anche per appli-cazioni stazionarie, deriva dal fatto che puòessere utilizzato con impatto ambientalenullo o estremamente ridotto; infatti, se usatoin processi di combustione, produce vapord’acqua e tracce di ossidi di azoto, ovverosolo vapor d’acqua, se utilizzato con sistemielettrochimici a celle a combustibile.Le caratteristiche principali dell’idrogenosono riportate nella tabella 5. Rispetto aglialtri combustibili, l’idrogeno presenta un ri-dotto contenuto energetico su base volu-metrica, mentre ha il più alto contenuto dienergia per unità di massa (tabella 6)*.Un litro di gasolio, come contenuto energe-tico, equivale a:• 3,12 m3 di idrogeno gassoso (in condi-

zioni normali);• 4,13 litri di idrogeno liquido.L’introduzione dell’idrogeno come vettoreenergetico richiede che siano messe apunto le tecnologie necessarie per rende-re il suo impiego economico ed affidabile,nelle diverse fasi di produzione, trasporto,accumulo e utilizzo.

Produzione dell’idrogeno

L’idrogeno, come già accennato, può esse-

re prodotto a partire da diverse fonti prima-rie, sia fossili sia rinnovabili, e può contri-buire quindi alla diversificazione ed all’in-tegrazione tra le diverse fonti.

Produzione da combustibili fossiliDei circa 500 miliardi di Nm3 di idrogenoprodotti annualmente a livello mondiale,circa 190 miliardi rappresentano un sotto-prodotto dell’industria chimica (ad esem-pio impianti cloro-soda), mentre la maggiorfrazione deriva da combustibili fossili, gasnaturale ed olio pesante, attraverso processidi reforming e di ossidazione parziale.Il processo principalmente utilizzato (steamreforming) è tecnicamente molto ben spe-rimentato e viene realizzato industrialmen-te con unità di capacità dell’ordine di100.000 Nm3/h. Unità molto più piccole,realizzate specificamente per l’uso sui vei-coli o per impianti di generazione distri-buita di piccola taglia, sono attualmente invia di sviluppo, soprattutto per l’utilizzo insistemi con celle a combustibile.Per arrivare ad un idrogeno “pulito” (cioèsenza emissioni di CO2), partendo da com-bustibili fossili, è necessario provvederealla separazione e al confinamento dellaanidride carbonica che inevitabilmente siforma durante il processo. Per entrambequeste tipologie di azioni sono in corso daanni programmi internazionali di vasta por-tata, che prevedono principalmente il con-finamento della CO2 in formazioni geologi-che profonde e di caratteristiche adeguate.Nel nostro Paese, come d’altra parte inmolte altre nazioni, le opzioni principalisono due:• i giacimenti esauriti di gas e petrolio;• i cosiddetti acquiferi salini, situati a gran-

de profondità (oltre 1.000 m sotto il livellodel mare), che sono considerati forma-zioni stabili non altrimenti utilizzabili.

Sono anche allo studio numerosi nuovi pro-cessi di produzione che potrebbero sem-plificare il problema della gestione della

22 COMPLESSITÀ & SVILUPPO 2003

M. CONTE, F. DI MARIO, A. IACOBAZZI, R. INFUSINO, A. MATTUCCI, M. RONCHETTI, R. VELLONE

Proprietà Unità di misura ValorePeso molecolare 2,016Densità gas kg/m3 0.0899Potere calorifico superiore kWh/kg 39,41

kWh/Nm3 3,509Potere calorifico inferiore kWh/kg 33,33

kWh/Nm3 2,995Temperatura di ebollizione K 20,3Densità come liquido kg/m3 70,8Calore specifico kJ/(kg K) 14,89

Tabella 5Proprietà dell’idroge-no

Proprietà Unità di Idrogeno Metano Metanolo Benzina Gasoliomisura

Potere caloriferoinferiore MJ/kg 119,99 50,05 19,6 43,95 42,9

Densità di energia MJ/l 1,080E-02 3,54E-02 15,6 32,96 36,04

Tabella 6Proprietà energeti-che di diversi combu-stibili

* I dati relativi ad idrogeno e metano si riferiscono allo statogassoso in condizioni norminali di temperatura e pressione.

CO2 (come il processo “plasma-arc” dellaKvaerner Engineering, i reattori a membra-na, i processi in cui la CO2 viene fissata du-rante la trasformazione) che sembrano of-frire prospettive interessanti.In ogni caso la produzione di idrogeno dacombustibili fossili, potendosi basare sutecnologie che per buona parte sono già alivello di sviluppo industriale, rappresentauna sorta di “ponte tecnologico” verso laproduzione da fonti rinnovabili, che sem-bra la produzione più promettente nellungo termine. L’introduzione di tecnologiegià pronte, oltre a presentare un potenzialedi riduzione degli inquinanti nel breve-medio termine, permetterà uno sviluppograduale delle infrastrutture ed un’introdu-zione progressiva di un vettore che, purpresentando enormi vantaggi ambientali,richiede complessi cambiamenti dellastruttura del settore energetico.

Produzione da fonti rinnovabiliParlando di produzione di idrogeno dafonti rinnovabili, i processi possono esseresommariamente distinti in:• produzione da biomasse;• produzione dall’acqua.La produzione di idrogeno a partire da bio-masse si presenta molto interessante, manessuno dei processi proposti ha ancoraraggiunto la maturità industriale. Le diver-se alternative (gassificazione; pirolisi esuccessivo reforming della frazione liquidaprodotta; produzione di etanolo e refor-ming dello stesso; produzione biologicaattraverso processi basati su fenomeni difotosintesi o di fermentazione) richiedonotutte un impegno notevole di ricerca, svi-luppo e dimostrazione, anche se a livellidiversi. Le premesse sono comunquebuone, tenuto conto dei diversi materialiutilizzabili.L’idrogeno può anche essere prodotto dal-l’acqua, scindendo la stessa nei suoi com-ponenti (idrogeno e ossigeno), attraversodiversi processi, tra i quali quello più con-solidato è l’elettrolisi.

L’elettrolisi dell’acqua consente di ottenereidrogeno praticamente puro, ad un costoche può diventare economicamente accet-tabile solo in una prospettiva ancora lontana,allorquando le innovazioni tecnologiche po-trebbero consentire un costo estremamentebasso dell’energia elettrica, prodotta dafonti rinnovabili (o da nucleare).Tale scelta non appare, allo stato attualedelle conoscenze, economicamente (edenergeticamente) perseguibile, se non perapplicazioni particolari (ad esempio areeremote).La dissociazione dell’acqua può essere ef-fettuata anche facendo uso di processi ter-mochimici che utilizzano calore ad altatemperatura (800-1000 °C) ottenuto dafonti diverse (prima fra tutte l’energia sola-re); sono in corso, anche in Italia, attività diricerca e sviluppo tese a dimostrare la fatti-bilità industriale di tali processi, ed il po-tenziale nel lungo termine sembra esseremolto interessante.Altri processi, ancora allo stato di laborato-rio, sono la fotoconversione, che scindel’acqua usando organismi biologici o mate-riali sintetici, e i processi fotoelettrochimici,che usano per lo stesso scopo una corren-te elettrica generata da semiconduttori.

Tecnologie di stoccaggio

Esistono diverse tecnologie di accumulodell’idrogeno le cui caratteristiche sonosintetizzate nella figura 1. Di seguito ven-gono descritte brevemente le tecnologiepiù promettenti.

Idrogeno compressoIl modo più semplice ed economico peraccumulare idrogeno a bordo di un veicoloè di utilizzarlo sotto forma di gas compres-so a pressione di 200-250 bar (ed oltre). Latecnologia risulta tuttavia non facilmenteproponibile per l’uso a bordo di auto tradi-zionali, a causa del peso ed ingombro deiserbatoi attualmente utilizzati, che rappre-sentano un limite all’autonomia e capacitàdi carico del veicolo.

23COMPLESSITÀ & SVILUPPO 2003

VEICOLI A IDROGENO: STATO ATTUALE E PROSPETTIVE DI SVILUPPO

Di recente, notevoli progressi sono stati fatticon l’introduzione di serbatoi con liner me-tallico o termoplastico rinforzati con fibredi carbonio, di vetro ed aramidiche, chepresentano un peso 3-4 volte inferiore aquello dei comuni serbatoi e che consento-no di superare in parte gli inconvenientidell’uso delle bombole tradizionali. Questiserbatoi sono in grado di operare a pres-sioni fino a 350 bar (potenzialmente fino a700 bar) e consentono quindi di otteneredensità di accumulo di idrogeno adeguateall’uso a bordo di veicoli. Le caratteristichedi sicurezza sono solitamente molto eleva-te, grazie alla robustezza dei serbatoi edall’introduzione di fusibili antiscoppio, incaso di incendio, e di valvole di interruzio-ne del circuito in caso di urto.Per quanto riguarda normative di sicurezzae licenze per usi a bordo di veicoli, le bom-bole di idrogeno sono soggette a restrizio-ni analoghe a quelle adottate nel caso delgas naturale.

Idrogeno liquidoL’idrogeno può essere immagazzinato abordo di un veicolo in forma liquida ad unatemperatura di -253 °C. Per mantenerequeste temperature sono stati messi apunto serbatoi a doppia parete, con un’in-tercapedine, dove viene fatto il vuoto (ser-batoi tipo “dewar”). Questa tecnologia è

ormai consolidata in Germania, dove laBMW la utilizza da oltre 15 anni su auto adidrogeno alimentate con motori a combu-stione interna.L’accumulo in forma liquida è forse la tec-nologia che oggi meglio soddisfa, da unpunto di vista teorico, le esigenze dell’au-totrazione; tuttavia anch’essa presenta deilimiti.A sfavore dell’idrogeno liquido giocano lamaggiore complessità del sistema, nonsolo a bordo del veicolo ma anche a terra,per la distribuzione ed il rifornimento, ed imaggiori costi ad esso associati. Anche ilcosto energetico della liquefazione è con-siderevole, corrispondendo a circa il 30%del contenuto energetico del combustibile,contro un valore compreso tra il 4% ed il7% per l’idrogeno compresso.

Idruri metalliciL’idrogeno può legarsi chimicamente condiversi metalli e leghe metalliche, forman-do idruri. Questi composti sono in grado diintrappolare idrogeno, a pressioni relativa-mente basse. L’idrogeno penetra all’inter-no del reticolo cristallino del metallo, an-dando ad occupare i siti interstiziali. Contale tecnologia si raggiungono, a bassepressioni, densità energetiche maggiori diquelle dell’idrogeno compresso e parago-nabili a quelle dell’idrogeno liquido (se-condo alcune referenze, anche maggiori).Il volume di stoccaggio si riduce di 3-4volte, rendendo possibile l’uso di questi si-stemi nelle autovetture, mentre l’energiaspecifica dipende anche dal peso specifi-co del metallo di base.Le percentuali, in peso, di idrogeno sulpeso totale che si raggiungono vannodall’1% al 12,7% (LiH); per confronto si ri-corda che, per le comuni bombole, talepercentuale è di poco superiore all’1%, equindi tali sistemi di stoccaggio sono po-tenzialmente molto promettenti. Un puntodebole della tecnologia è rappresentatodal peso dei sistemi di accumulo che, a pa-rità di peso del veicolo, riducono l’autono-

24 COMPLESSITÀ & SVILUPPO 2003

M. CONTE, F. DI MARIO, A. IACOBAZZI, R. INFUSINO, A. MATTUCCI, M. RONCHETTI, R. VELLONE

Idruri chimici/Slurry organiciDiesel

Benzina

Obiettivo Programma DoE

Materiali a base di C (2002)

H2 compresso

Materialia base di C

Idrurimetallici

H2 compresso (2002)350-700 bar

Obiettivo FreedomCAR

H2 liquido

16 33 66 kWh/100 α330 660

kWh/1 l kg H2/m3

66,6

33,3

16,5

6,66

3,33

1,65

200

100

50

20

10

5

Alanati (futuro)

0,5 1 2 5 10 20

Figura 1Caratteristiche dei si-stemi di accumuloidrogeno

Fonte: DoE

mia ad una percorrenza tre volte inferiore aquella ottenibile con idrogeno liquido oidrogeno compresso con serbatoi di tipoavanzato. Sono invece indubbi i vantaggi intermini di convenienza, compattezza, stabi-lità dello stoccaggio, sicurezza intrinseca.

Nanostrutture di carbonioLe nanostrutture di carbonio (nanotubi enanofibre di carbonio), scoperte all’iniziodegli anni 90, stanno dimostrando ottimecapacità di adsorbimento dell’idrogeno,con risultati in alcuni casi sorprendenti eparticolarmente favorevoli.Su questi materiali sono in corso ricercheda parte di numerosi gruppi di lavoro, ma irisultati ottenuti, spesso in contrasto tra diloro, sono il più delle volte non confrontabi-li in quanto le esperienze sono state effet-tuate su campioni di materiali di diversotipo, provati in condizioni di pressione etemperatura molto diverse tra loro. Ilcampo di variazione della pressione va dapochi bar ad alcune centinaia di bar, latemperatura da 80 K a 800 K, le percentualidi adsorbimento in peso variano da valoriinferiori all’1% ad un incredibile 60%.

Infrastrutture

Il problema principale che frena l’utilizzodell’idrogeno come combustibile per auto-veicoli è quello della realizzazione delle in-frastrutture necessarie per la sua produzio-ne e distribuzione, che rappresenta unasfida tecnico-economica e tale da richie-dere uno sforzo congiunto di amministra-zioni pubbliche e imprese industriali peressere risolto positivamente.

Distribuzione dell’idrogenoA seconda delle quantità interessate, l’idro-geno può essere trasportato per mezzo diautocisterne o con idrogenodotti. Fra ledue opzioni, entrambe praticabili con letecnologie attuali, esistono grosse differen-ze di costo e quindi solo specifiche analisitecnico-economiche per le singole appli-

cazioni possono determinare quale sia divolta in volta la soluzione migliore.L’uso di tubazioni di grosse dimensioni èstato praticato per più di 50 anni. Tubazionirealizzate in acciaio standard (e quindisenza requisiti specifici) hanno trasportatoidrogeno in Germania, nel distretto dellaRuhr, dai produttori ai consumatori sin dal1938, senza particolari problemi di sicu-rezza (le tubazioni erano provviste di sen-sori per possibili fughe ed erano previsteperiodiche ispezioni di sicurezza).D’altra parte è utile ricordare come anchein Italia, per più di 70 anni, si è distribuitonelle città senza problemi particolari il co-siddetto “gas d’acqua”, costituito da mi-scele di idrogeno (50%) e CO (50%), dovel’elemento di maggiore pericolosità era ilCO, in quanto altamente tossico.Attualmente anche città a densità di popo-lazione estremamente elevate, come Pe-chino, sono servite da reti di distribuzionedi questo tipo di gas. L’esperienza accumu-lata nel settore della distribuzione gas puòquindi essere utilizzata in maniera moltodiretta per la realizzazione e l’esercizio direti di distribuzione dell’idrogeno.Idrogenodotti di dimensioni significativesono presenti in diverse nazioni: esiste unarete di circa 170 km nella Francia del Nord,per un totale nell’intera Europa di più di1.500 km. Il Nord America possiede più di700 km di condutture per il trasporto dell’i-drogeno.Le tubazioni utilizzate attualmente per il tra-sporto di idrogeno sono approssimativa-mente confrontabili con le piccole reti localidi distribuzione del gas naturale, con dia-metri di 25-30 cm e pressioni di 10-20 bar,anche se pressioni fino a 100 bar sono statesperimentate senza problemi particolari.Una rete di distribuzione idrogeno di gran-di dimensioni potrebbe essere quindi simi-le alle attuali reti per il gas naturale; le mag-giori differenze potrebbero risiedere neimateriali utilizzati (alcuni acciai hanno mi-gliore compatibilità con l’idrogeno) e neicriteri di progetto delle stazioni di pom-

25COMPLESSITÀ & SVILUPPO 2003

VEICOLI A IDROGENO: STATO ATTUALE E PROSPETTIVE DI SVILUPPO

paggio. In particolare, sebbene abbia unadensità energetica volumetrica minore diquella del gas naturale, l’idrogeno è menoviscoso, per cui, con un’adatta progettazio-ne, l’energia necessaria per il suo pom-paggio diventa paragonabile a quella ri-chiesta per la stessa quantità di energia tra-sportata con il gas naturale.Ad elevate pressioni e temperature l’idro-geno può diffondere attraverso l’acciaio,provocando una alterazione della sua com-posizione (la cosiddetta “decarburizzazio-ne”) e delle proprietà tecnologiche. L’usodi acciai legati ad alto contenuto di cromoe molibdeno è pratica industrialmente cor-rente per la prevenzione di tali fenomeni.Reti di distribuzione per idrogeno liquido,risultando particolarmente costose e di dif-ficile gestione, sono state realizzate soloper applicazioni particolarmente specializ-zate, come il rifornimento di veicoli spaziali.

Stazioni di rifornimentoAnche utilizzando tecnologie già disponi-bili industrialmente, sono possibili diverseopzioni per realizzare una stazione di rifor-nimento di veicoli ad idrogeno:

• produzione locale per via elettrolitica estoccaggio in diverse forme (idruri, idro-geno gassoso);

• stoccaggio locale in forma gassosa erifornimento tramite camion (analoga-mente ai combustibili tradizionali);

• stoccaggio locale in forma liquida e rifor-nimento tramite camion (analogamenteai combustibili tradizionali);

• produzione locale a partire da gas meta-no, purificazione del gas e stoccaggio indiverse forme (idruri, idrogeno gassoso);

• alimentazione tramite tubazioni e stazio-ne di compressione locale (come il gasnaturale per trazione).

Tranne l’ultima opzione, che necessita diuna rete idrogeno di cui ancora non esisto-no esempi applicati alla trazione, le tecno-logie da utilizzare sono già mature indu-strialmente ed i problemi maggiori risie-dono più nelle condizioni normative e nellastandardizzazione dei componenti. Infattinon esiste, né a livello nazionale né interna-zionale, una normativa specifica comune-mente accettata per la realizzazione di sta-zioni di rifornimento dell’idrogeno, mentrela poca familiarità con questo vettore portanormalmente ad applicare condizioni par-ticolarmente restrittive per l’uso dello stes-so. Anche per quanto riguarda la standar-dizzazione dei componenti (esempio con-nettori dei serbatoi dei veicoli) non esisto-no orientamenti consolidati, per cui leesperienze fanno caso a sé, dipendendo inlarga misura dagli standard di produzionedelle singole industrie coinvolte.

Caratteristiche di sicurezza

Esistono ancora molte perplessità per agliaspetti di sicurezza collegati all’uso dell’idro-geno, in particolar modo a bordo di un vei-colo, ma, al di là della “percezione di ri-schio”, un’analisi attenta ridimensiona il con-cetto di pericolosità nell’uso dell’idrogeno.L’idrogeno è meno infiammabile della ben-zina. Infatti la sua temperatura di autoac-censione è di circa 550 °C, contro i 230-500°C (a seconda dei tipi) della benzina.

26 COMPLESSITÀ & SVILUPPO 2003

M. CONTE, F. DI MARIO, A. IACOBAZZI, R. INFUSINO, A. MATTUCCI, M. RONCHETTI, R. VELLONE

Auto a benzinaAuto a idrogeno

Tempo: 0 min, 3 secondi

Tempo: 1 min, 0 secondi

Figura 2Esempio d’incendiodi autovettura

Fonte: M.R. Swain, Miami Univer-sity, FL (US)

L’idrogeno è il più leggero degli elementi(quindici volte meno dell’aria), e perciò sidiluisce molto rapidamente in spazi aperti,e può passare in spazi estremamente ridot-ti. È praticamente impossibile far detonarel’idrogeno, se non in spazi confinati. Per in-dividuare concentrazioni potenzialmentepericolose (>4% in aria) si utilizzano sen-sori che possono facilmente comandareadeguati sistemi di sicurezza. I veicoli pro-totipo della BMW, ad esempio, hanno vetrie tettuccio che, in caso di presenza di idro-geno, si aprono automaticamente.Quando brucia, l’idrogeno si consumamolto rapidamente e sempre con fiammedirette verso l’alto e caratterizzate da unaradiazione termica a lunghezza d’ondamolto bassa, quindi facilmente assorbibiledall’atmosfera. Per contro materiali come labenzina, il gasolio, il GPL od il gas naturalesono più pesanti dell’aria e, non disperden-dosi, rimangono una fonte di pericolo pertempi molto più lunghi. È stato calcolato, fa-cendo uso di dati sperimentali, che l’incen-dio di un veicolo a benzina si protrae per20-30 minuti, mentre per un veicolo adidrogeno non dura più di 1-2 minuti (figura2). La bassa radiazione termica, propriadelle fiamme da idrogeno, fa sì che esista-no poche possibilità (al di là dell’esposizio-ne diretta alla fiamma) che materiali vicinipossano essere a loro volta incendiati, ridu-cendo così, oltre alla durata dell’incendio,

anche il pericolo di emissioni tossiche.L’idrogeno non è tossico, né corrosivo. Perconfronto, tutti i combustibili fossili sonoasfissianti e tossici per l’essere umano.Eventuali perdite dai serbatoi, inoltre, noncoinvolgono problemi di inquinamento delterreno o di falde idriche sotterranee.Un confronto fra le esplosioni dell’idrogenoe di altri combustibili usati correntemente(vapori di benzina, gas naturale ecc.) è diffi-cile da fare, se non considerando i casi spe-cifici, ma in generale gli effetti dell’esplosio-ne sono minori nel caso dell’idrogeno (a pa-rità di energia in gioco) a causa della diver-sa propagazione delle onde di pressione.

Le tecnologie per l’impiegodell’idrogeno nella trazione

Le celle a combustibile

L’uso delle celle a combustibile (figura 3)per la trazione presenta numerosi vantag-gi, ma comporta un grosso cambiamentorispetto alla filosofia attuale dei veicoli.Un veicolo a celle a combustibile ha i van-taggi di un veicolo elettrico (elevata coppiamotrice alle basse velocità, semplicitàmeccanica, silenziosità), assicurando, alcontempo, un’autonomia paragonabile aquella dei veicoli convenzionali.Il rendimento del veicolo (figura 4), inoltre,è più che doppio di quello con un motore a

27COMPLESSITÀ & SVILUPPO 2003

VEICOLI A IDROGENO: STATO ATTUALE E PROSPETTIVE DI SVILUPPO

Figura 3Principio di funzio-namento di una cel-la a combustibile

Una cella a combustibile funziona in modo analogo aduna batteria, in quanto produce energia elettrica attra-verso un processo elettrochimico; a differenza di quest’ul-tima, tuttavia, consuma sostanze provenienti dall’esternoed è quindi in grado di funzionare senza interruzioni, fin-ché al sistema viene fornito combustibile ed ossidante.La cella è composta da due elettrodi in materiale poroso,separati da un elettrolita. Gli elettrodi fungono da siti ca-talitici per le reazioni di cella che consumano fondamen-talmente idrogeno ed ossigeno, con produzione di acquae passaggio di corrente elettrica nel circuito esterno. L’elettrolita ha la funzione di condurre gli ioni prodottida una reazione e consumati dall’altra, chiudendo il cir-cuito elettrico all’interno della cella. La trasformazioneelettrochimica è accompagnata da produzione di calore,che è necessario estrarre per mantenere costante la tem-peratura di funzionamento della cella. H2 + 1/2 O2 → H2O + elettricità + calore

Anodo Catodo

IDROGENO

H+

H+

H+

H+

H2

H2

H2

H2

H2O

O2

O2

O2e

e

e

e

e

e

e

e

e

e

ARIA

ACQUA

Elettrolita

H2O

combustione interna, in quanto, l’efficienzadi una cella a combustibile, già di per sépiù elevata, è caratterizzata da una ridottaescursione ai carichi parziali, mentre il mo-tore convenzionale risulta essere molto pe-nalizzato nel funzionamento a potenza ri-dotta. In media, un veicolo a celle ha unaefficienza nell’uso che può superare il 40%,mentre l’equivalente motore tradizionalenon supera il 20%.L’impatto ambientale di un veicolo a celle acombustibile alimentato a idrogeno è prati-camente nullo, con i gas di scarico checontengono solamente aria e vapor d’ac-qua. Le caratteristiche delle celle (modula-rità, rendimenti elevati anche per tagliemedio-piccole e per carichi parziali) per-mettono inoltre la realizzazione di veicolicon taglie anche molto diverse (dalla bicialla vettura, all’autobus, alle motrici ferro-viarie) con la stessa tecnologia e con carat-teristiche di prestazioni, consumi ed impat-to ambientale equivalenti.Esistono molte tecnologie di celle a com-bustibile, con differenti caratteristiche difunzionamento (temperatura, densità di po-tenza, materiali, combustibili utilizzabili),che le rendono adatte per diverse applica-zioni, e diverso grado di maturità.Nel campo della trazione, dopo i primi pro-totipi realizzati con tecnologie diverse, iltipo di cella su cui si sono concentrati tutti icostruttori di veicoli è quello ad elettrolitapolimerico (PEFC – Polymer ElectrolyteFuel Cell), che meglio soddisfa i requisitispecifici dell’uso sui veicoli stradali. Tale

tecnologia è infatti caratterizzata da bassatemperatura di funzionamento (~70 °C), ri-dotti tempi di avviamento, alta densità dipotenza (>1,7 kW/l, >1,1 kW/kg). Anche ilgrado di maturità tecnologica sta crescen-do, avendo le maggiori case automobilisti-che già realizzato i primi prototipi marcian-ti, sia di autovetture che di autobus.Naturalmente restano da sviluppare diversiaspetti della tecnologia, che si può consi-derare matura per la realizzazione di pro-totipi, ma non ancora per quanto riguardala produzione “di serie”.Il fattore chiave su occorre soffermarsi perl’introduzione della tecnologia è rappre-sentato dalla riduzione dei costi. I requisitidi costo per un sistema con celle a combu-stibile fissati dai costruttori di veicoli sonodello stesso ordine di grandezza di quellidegli odierni motori (50-100 US$/kW), matali cifre sono di due ordini di grandezza in-feriori a quelli degli attuali prototipi di siste-mi con celle a combustibile (5.000-10.000US$/kW). Data la semplicità costruttiva diuna cella è facile ipotizzare che, in presenzadi produzioni di massa, tali costi potrannoessere drasticamente ridotti per quanto ri-guarda la manodopera e le lavorazionimeccaniche, ma attualmente il costo deimateriali (particolarmente catalizzatore,elettrodi e membrana) è ancora troppo altoper raggiungere gli obiettivi di costo prefis-sati. Nella tabella 7 è riportata l’incidenzadel costo dei materiali e della manodopera,alla luce di due diverse ipotesi:• previsioni con la tecnologia attuale, per

una produzione annua di almeno 1.000unità da 1 kW, non ottimizzate per la tra-zione (Roen Est – Italia);

• previsione per una produzione di massaper grandi volumi, caratteristici della pro-duzione di veicoli (Arthur D Little – USA).

È da notare come i dati relativi alla RoenEst, partner ENEA nello sviluppo di prototi-pi di celle, si basano su offerte realmentericevute dai fornitori di subcomponenti,mentre i dati americani sono delle vere eproprie proiezioni.

28 COMPLESSITÀ & SVILUPPO 2003

M. CONTE, F. DI MARIO, A. IACOBAZZI, R. INFUSINO, A. MATTUCCI, M. RONCHETTI, R. VELLONE

0 5 10 15 20 25 30 35 40 45 50 55 60 65 70

60

55

50

45

40

35

30

25

20

15

10

System net power (kW)

Sys

tem

effi

cien

cy (

%)

Figura 4Prestazioni di un si-stema celle a combu-stibile per vetture da70 kW

Fonte: Ballard

Le principali problematiche oggetto di atti-vità di ricerca e sviluppo sono: lo sviluppodi catalizzatori, lo sviluppo di membrane, lariduzione della pressione di funzionamento.

Sviluppo di catalizzatoriIl catalizzatore universalmente adottato è ilplatino, utilizzato in miscele con carbonio econ diverse tecniche di deposizione. Laquantità di platino presente in una cellavaria con la tecnologia adottata ed è com-presa fra 2-8 g/kW. Oltre al costo industria-le di tale elemento (attualmente dell’ordinedi 17-18 US$/g), nel caso di diffusione dellatecnologia non sono da escludere proble-mi di approvvigionamento, quindi sonomolte le attività di ricerca volte, da un lato, asviluppare catalizzatori che contengano, aparità di prestazioni, minori quantità di pla-tino, e dall’altro ad esplorare la possibilitàdi utilizzare altri materiali a costo piùbasso. Per la riduzione delle quantità di ca-talizzatore impiegate è interessante la pro-spettiva dell’utilizzo di nanostrutture di car-bonio per la preparazione degli elettrodi.

Sviluppo di membraneIl materiale attualmente impiegato per larealizzazione dell’elettrolita è un polimero(generalmente il Nafion della Dupont) cheha la necessità di essere mantenuto costan-temente umido per garantirne le caratteri-stiche di conducibilità. Ciò comporta la ne-cessità di umidificare i gas di alimentazio-ne, con conseguenti complicazioni deri-vanti dalla gestione dell’acqua nelle diver-se condizioni di funzionamento. Attual-

mente sono in corso di svolgimento moltiprogrammi di ricerca per lo sviluppo dipolimeri che non richiedono la presenza diacqua, ma non sono ancora disponibilimembrane per l’uso in cella.

Riduzione della pressione difunzionamentoL’obiettivo è quello di realizzare sistemiquanto più possibile semplici e, in quest’ot-tica, uno degli aspetti più importanti èquello di limitare la pressione di funziona-mento della cella, così da non richiederecompressori per l’aria di alimentazioneche, oltre a rappresentare una possibilefonte di rumore, rendono il circuito piùcomplicato.

I motori a combustione interna

L’idrogeno, come gli altri combustibili gas-sosi, può essere utilizzato nei motori acombustione interna “tradizionali”, seppu-re con alcune limitazioni, ed è consideratoun combustibile molto buono per tali moto-ri, permettendo un’efficienza in media del20% maggiore degli equivalenti motori ali-mentati a benzina.Il rendimento termico di un motore a com-bustione interna dipende dal suo rapportodi compressione e dalle caratteristiche fisi-che del combustibile (rapporto dei calorispecifici) e cresce al crescere di questi va-lori; nel caso di un motore alimentato adidrogeno entrambe le grandezze sonomaggiori rispetto alla benzina, grazie allamaggiore temperatura di autoaccensione,che permette rapporti di compressione più

29COMPLESSITÀ & SVILUPPO 2003

VEICOLI A IDROGENO: STATO ATTUALE E PROSPETTIVE DI SVILUPPO

Materiale Costo (%) (Roen Est) Costo (%) (Arthur D Little)

Catalizzatore platino/carbonio 20% (autoprodotto) 34,1 52,9Elettrodi 21,1Membrana (Dupont Nafion) e polimero liquido 15,4 31,1Piatti bipolari 7,1 12,0Guarnizioni, componentistica accessoria 5,2 3,0Manodopera 17,0 1,0

Totale 100 100

Volume di produzione annuo di riferimento 1.000 x 1 kW 500.000 x 50 kW

Costo totale (B/kW) 674 208

Tabella 7Incidenza dei mate-riali e della manodo-pera sul costo di unostack

elevati, ed alla capacità di bruciare in mi-scele molto magre. Tuttavia, pur se con unrendimento elevato, l’uso dell’idrogeno neimotori a combustione interna comportauna perdita di potenza del motore, se para-gonato ad uno alimentato a benzina, acausa della minore energia della miscelacontenuta nel volume del cilindro. Inoltre, labassa densità volumetrica della miscelastechiometrica aria/idrogeno, rapportata aquella della miscela aria/benzina, non faci-lita un riempimento ottimale del cilindro. Ilrisultato di questi due aspetti porta, nelcaso dell’idrogeno, a un contenuto energe-tico della miscela effettivamente introdottanel cilindro che è circa 85% di quello che siavrebbe usando la benzina. Ne consegueche lo stesso motore, funzionando ad idro-geno, eroga circa il 15% in meno della po-tenza. Sono allo studio soluzioni tecnicheche permettono di ridurre questa differen-za, come sistemi avanzati di iniezione adalta pressione o l’uso di idrogeno liquidoche, premiscelato con aria, permette di au-mentare di circa 1/3 la quantità di gas intro-dotto in camera di combustione.L’idrogeno ha una ampio campo di infiam-mabilità in aria (5-75% vol.) e perciò pos-sono essere più facilmente utilizzati ecces-si d’aria notevoli, tali da minimizzare anchele emissioni di NOx. Le emissioni di NOx

possono essere ulteriormente ridotte ridu-cendo la temperatura di combustione, uti-lizzando tecniche come la miscelazione di

acqua, il ricircolo dei gas di scarico, o l’usodi idrogeno liquido. Tipicamente le emis-sioni di NOx di un motore ad idrogeno sonoun ordine di grandezza minori di quelledegli equivalenti motori a benzina.In ogni caso i maggiori costruttori di vei-

coli ritengono che la realizzazione di moto-ri ad idrogeno con prestazioni simili (edanche migliori) degli attuali motori a benzi-na sia tecnicamente fattibile con le tecnolo-gie attuali, una volta che le condizioni alcontorno (essenzialmente la presenzadelle infrastrutture e l’emissione di norma-tive ad hoc) siano tali da generare un suffi-ciente volume del mercato per questo tipodi veicoli. Il confronto fra le caratteristichedell’idrogeno e gli altri combustibili mostracome i più ampi limiti di infiammabilità, laminore energia di ignizione e la quasi dop-pia velocità di fiamma debbano senza dub-bio influenzare la concezione del motore edel suo controllo, fondamentalmente perevitare fenomeni di preaccensione e ritornidi fiamma.È possibile adottare sia una iniezione diidrogeno direttamente all’interno della ca-mera di combustione, che all’esterno, convantaggi e svantaggi nei due casi, come in-dicato in tabella 8.

I veicoli ad idrogeno

Il veicolo ad idrogeno, che presenta indub-bi vantaggi dal punto di vista ambientale intutte le sue configurazioni, può essere rea-

30 COMPLESSITÀ & SVILUPPO 2003

M. CONTE, F. DI MARIO, A. IACOBAZZI, R. INFUSINO, A. MATTUCCI, M. RONCHETTI, R. VELLONE

Pro Contro

Iniezione indiretta Semplice Perdita di potenzaEconomica Problemi di combustione

Iniezione diretta Potenza specifica Alta pressione (>100 bar)Basso consumo Sistema complesso per i requisiti del sistema di iniezione

Tabella 8Confronto tra iniezio-ne diretta e indiretta

Figura 5Schemi di veicoliibridi a celle a com-bustibile e con mo-tore termico

lizzato sia mantenendo la configurazione“full power” sia utilizzando soluzioni di tipo“ibrido”.Da un punto di vista energetico, si possonoinfatti avere sistemi in cui la potenza è for-nita esclusivamente dal motore (a combu-stione interna o a celle a combustibile) e si-stemi ibridi (figura 5), in cui il motore copreessenzialmente il carico medio mentre ipicchi di potenza necessari in caso di fortiaccelerazioni sono forniti da un pacco bat-terie, che consentono anche il recupero dienergia di frenata. In questo caso la trazio-ne è affidata ad un motore elettrico (tranneche in caso di ibridi particolari con motoria combustione interna dove la ripartizionedella potenza è meccanica), che fungeanche da generatore durante le frenate.In un sistema ibrido il dimensionamentorelativo tra il generatore primario ed il si-stema di accumulo può variare entro limitiabbastanza ampi e dipende dal tipo di ap-plicazione per cui si vuole ottimizzare ilveicolo. Ai due estremi possibili ci sono ilveicolo a batteria ed il veicolo “full power”(senza sistemi di accumulo).L’ibridizzazione, tra l’altro usata anche neimotori a benzina e diesel, seppur compli-cando il sistema, offre vantaggi dal punto divista dell’utilizzo ottimale del motore (par-ticolarmente nel caso del motore a combu-stione interna che è caratterizzato da unanotevole perdita di efficienza ai carichi par-ziali). Inoltre la presenza di un motore elet-trico e di un sistema di accumulo consenteil “recupero in frenata”, opzione che, so-prattutto in cicli caratterizzati da molte ac-celerazioni e frenate, come quelli urbani,può portare a notevoli risparmi di combu-stibile.Un veicolo a idrogeno con motore a com-bustione interna ha una configurazione chesi avvicina moltissimo al corrispondenteveicolo con combustibili tradizionali, men-tre un veicolo a celle a combustibile hatutte le caratteristiche di un veicolo elettri-co, in quanto il sistema di generazione pro-duce corrente continua.

Le modifiche più cospicue ad un veicolocon motore endotermico riguardano solita-mente il sistema di stoccaggio a bordo del-l’idrogeno, per cui si adottano differenti so-luzioni, mentre le motorizzazioni, con leopportune modifiche ed ottimizzazioni, ri-mangono essenzialmente le stesse. Sui vei-coli con celle a combustibile, invece, si tro-veranno anche sistemi di regolazione econversione della corrente (DC/DC con-verter o/e inverter), motori elettrici e tutti isistemi di regolazione e controllo della tra-zione propri dei veicoli a batteria.I veicoli attualmente realizzati utilizzandoentrambe le tecnologie hanno prestazioniparagonabili a quelle dei veicoli tradiziona-li, ed un’autonomia che dipende ancora unavolta dalla tecnologia utilizzata per lo stoc-caggio dell’idrogeno. La maggior efficienzadelle celle a combustibile (circa il doppiosu cicli urbani) semplifica un poco questoproblema, ma attualmente autonomie mag-giori di 250 km si ottengono solo con ser-batoi di idrogeno liquido, poco proponibiliper una diffusione di massa. La guidabilità èquella dei veicoli elettrici, che ben si prestasoprattutto a cicli urbani caratterizzati daaccelerazioni a bassa velocità.

I programmi di ricerca e sviluppo

I programmi internazionali

Veicoli con celle a combustibileProgrammi a finanziamento pubblicoNegli Stati Uniti, il Department of Energy(DoE) ha finanziato per diversi anni lo svi-luppo di sistemi di propulsione con celle acombustibile all’interno del Fuel Cells forTransportation Program. Le attività inizial-mente erano dirette allo sviluppo di stack,di sistemi di trattamento del combustibile,nonché di ausiliari del sistema (compres-sori, sistema di alimentazione, controlliecc.). Di recente, come conseguenza dellacrescita d’interesse per l’idrogeno e in ri-sposta alle raccomandazioni del nuovoPiano energetico nazionale, è stato varato

31COMPLESSITÀ & SVILUPPO 2003

VEICOLI A IDROGENO: STATO ATTUALE E PROSPETTIVE DI SVILUPPO

un nuovo programma, l’Hydrogen, FuelCells and Infrastructures TechnologiesProgram6, in cui le attività sulle celle a com-bustibile e sull’idrogeno risultano forte-mente integrate. Nel 2002, all’interno delprogramma, che vede la partecipazionedelle maggiori industrie, organismi di ri-cerca ed università statunitensi, sono statiassegnati finanziamenti per un totale di41,9 milioni di dollari.Ricordiamo che a gennaio 2002, DoE eUnited States Council for AutomotiveResearch, che rappresenta le tre maggioricase automobilistiche statunitensi (Daimler-Chrysler, Ford e General Motors) avevanolanciato il programma FreedomCAR (Coo-perative Automotive Research)7, una colla-borazione tra pubblico e privato per pro-muovere lo sviluppo di celle a combustibi-le ed idrogeno per autoveicoli (vedi riqua-dro “Obiettivi Programma FreedomCAR”).Il programma va a sostituire il PNGV(Partnership for a New Generation ofVehicle), che aveva come obiettivo la rea-lizzazione di veicoli a basso consumo(circa 125 km con poco meno di 4 litri dicarburante), entro il 2004.Per il FreedomCAR sono stati stanziati peril 2003 circa 150 milioni di dollari, la metàdei quali andranno ad attività di R&S sucelle a combustibile e idrogeno; la parte

restante è assegnata ad attività di sviluppodi tecnologie a basso impatto ambientaleed in grado di ridurre i consumi di energia(motori a combustione interna di tipo avan-zato o motori ibridi gas/elettrico). Per le di-verse tecnologie sono stati fissati gli obiet-tivi da raggiungere al 2010.Lo sviluppo di veicoli con celle a combusti-bile e la loro introduzione nel mercato ri-chiede una stretta collaborazione tra indu-strie ed enti pubblici; in questa direzione simuove la California Fuel Cells Partnership(CaFCP)8. Fondata nel 1999 da CaliforniaAir Resources Board, California EnergyCommission, South Coast Air QualityManagement District, DaimlerChrysler,Ford, Ballard Power Systems, ARCO, Texacoe Shell, ne fanno parte oggi 29 membri tracostruttori automobilistici, produttori dicelle a combustibile, compagnie petrolife-re e di trasporto, fornitori di idrogeno edenti governativi.Obiettivo del gruppo è quello di provare latecnologia delle celle a combustibile in“condizioni reali”: saranno quindi realizzatie posti su strada oltre 60 veicoli (tra auto-vetture ed autobus) entro il 2003, al fine didimostrare la fattibilità di un’integrazione dicombustibili, come idrogeno o metanolo,nelle attuali infrastrutture di distribuzione,di definire i passi necessari ad avviare la

32 COMPLESSITÀ & SVILUPPO 2003

M. CONTE, F. DI MARIO, A. IACOBAZZI, R. INFUSINO, A. MATTUCCI, M. RONCHETTI, R. VELLONE

Obiettivi Programma FreedomCAR

Sviluppo di sistemi di propulsione con celle a combustibile, con l'obiettivo di ottenere:A. Sistemi di propulsione in grado di assicurare almeno 55 kW per 18 secondi e 30 kW in continuo,

durata almeno 15 anni; costo del sistema 12 $/kW.B. Sistemi con celle a combustibile (incluso sistema di stoccaggio idrogeno) con efficienza del

60%, potenza specifica di 325 W/kg e densità di potenza di 220 W/L; costo 45 $/kW al 2010 e 30$/kW al 2015.

Sviluppo di veicoli ad alta efficienza, che operano con carburanti idrocarburici "puliti" alimentaticon motori a combustione interna o con celle a combustibile, con l'obiettivo di ottenere:

C. Sistemi con motori a combustione interna con efficienze del 45%, in grado di rispettare i limitistandard fissati per le emissioni.

D. Sistemi con celle a combustibile (incluso unità di reforming) con efficienze del 45% in grado dirispettare i limiti standard fissati per le emissioni; costo 45 $/kW al 2010 e 30 $/kW nel 2015.

Sviluppo di veicoli elettrici ibridi, con l'obiettivo di ottenere:E. Sistemi di accumulo, durata 15 anni a 300 Wh con potenza di scarica di 25 kW per 18 secondi;

costo 20 $/kW.

commercializzazione e di creare condizio-ni per conquistare consenso da parte del-l’opinione pubblica.In Giappone, il METI (Ministry of Economy,Trade and Industry), attraverso il NEDO(New Energy and Industrial DevelopmentOrganization), ha avviato nel 1993 il WE-NET (World Energy Network)9, un pro-gramma trentennale da 2 miliardi di dollari,per la promozione di un sistema energeti-co basato sull’idrogeno, prodotto principal-mente da fonti rinnovabili. Tra i progetti at-tuati all’interno del WE-NET, vi sono quellirelativi allo sviluppo di veicoli con celle acombustibile e di tecnologie correlate allaproduzione e distribuzione dell’idrogenoche dovrà alimentarli.Lo sviluppo di veicoli a idrogeno ricevepieno appoggio da parte del governogiapponese. Diretto dal METI, è operativo ilJapan Hydrogen & Fuel Cell DemostrationProject all’interno del quale cinque caseautomobilistiche (DaimlerChrysler, Gene-ral Motors, Toyota, Honda e Nissan) effet-tueranno test su strada dei loro prototipiper acquisire informazioni utili a migliorarela tecnologia ed a promuoverne la penetra-zione nel mercato10. Il governo giapponeseprevede la creazione di un mercato pari a50.000 unità entro il 2010 e spera si arrivi a5 milioni entro il 202011.In Europa, agli inizi degli anni 90, sono statiavviati diversi progetti dimostrativi chehanno riguardato l’utilizzo dell’idrogenonel settore della trazione. A parte l’Italia, lacui posizione sarà illustrata nel seguito, ini-ziative di un certo rilievo sono in corso inGermania12 ed Islanda13 ed ultimamente èstato annunciato un forte interesse ancheda parte della Francia.Il settore dei trasporti è riconosciutodall’Unione Europea come uno dei settorichiave sui quali agire per realizzare unosviluppo sostenibile. Occorre ricordareche il libro verde della CommissioneEuropea, “Verso una strategia europea disicurezza dell’approvvigionamento ener-getico”,14 stabilisce come obiettivo la sosti-

tuzione del 20% del petrolio con combusti-bili alternativi nel settore dei trasporti stra-dali entro il 2020, nel duplice intento di mi-gliorare la sicurezza dell’approvvigiona-mento energetico e ridurre le emissioni digas serra.Nelle sue strategie d’intervento la Com-missione Europea assegna notevole prio-rità a vettori e tecnologie pulite come idro-geno e celle a combustibile. Nell’ottobre2002 è stato costituito un gruppo di esperticomposto da rappresentanti di grandi in-dustrie europee del settore automobilisticoed energetico, dei servizi pubblici, di istitu-ti di ricerca, con il compito di definire lestrategie e le priorità a livello europeo perpromuovere la diffusione e l’utilizzo dell’i-drogeno e delle celle a combustibile.Entro la primavera il gruppo dovrebbepresentare un documento che esporrà unaserie di idee in merito alle azioni necessa-rie ad avviare un’economia energetica so-stenibile basata sull’idrogeno e ad assicu-rare competitività alle industrie europeeche operano nel campo delle celle a com-bustibile. Alla relazione dovrebbe seguireun piano d’azione dettagliato e quindi unprogramma per la ricerca strategica nelsettore.Il Quinto Programma Quadro di ricerca(1999-2002) ha speso 120 milioni di europer la ricerca sull’idrogeno e le celle acombustibile. Nel Sesto Programma Qua-dro (2003-2006), la ricerca nel settore del-l’energia e dei trasporti farà parte dellapriorità tematica “Sviluppo sostenibile,cambiamento globale ed ecosistemi”, perla quale è stato stanziato un budget com-plessivo di 2.120 milioni di euro15. È previ-sto che gli stanziamenti per la ricerca sullecelle a combustibile, e in particolare sulleloro applicazioni, e sulle tecnologie dell’i-drogeno, aumentino notevolmente rispettoal programma precedente.I progetti finanziati finora all’interno deiprogrammi comunitari hanno riguardatosia lo sviluppo della tecnologia di cella, siala sua integrazione a bordo del veicolo;

33COMPLESSITÀ & SVILUPPO 2003

VEICOLI A IDROGENO: STATO ATTUALE E PROSPETTIVE DI SVILUPPO

sono stati realizzate concept-car e prototipidi autobus. Con finanziamenti europei sonoin corso programmi che prevedono l’eser-cizio sperimentale di alcuni autobus a idro-geno in diverse città europee (Progetto“Fuel Cell Bus for Berlin, Copenhagen andLisbon”16; Progetto CUTE, “Clean UrbanTransport for Europe”17.

Programmi dei costruttori automobilisticiTutte le maggiori case automobilistichesono impegnate nello sviluppo di prototipidi veicoli con celle a combustibile (tabella9), stimolate del fatto che questa tecnolo-gia in futuro sarà certamente favorita dallesempre più stringenti normative emesse infavore dell’ambiente18. Le diverse aziendestanno impegnando notevoli risorse nella

realizzazione di prototipi dimostrativi,basti pensare che la sola DaimlerChryslerha investito negli ultimi anni oltre un miliar-do di dollari. Data l’entità degli investimen-ti ed i tempi lunghi necessari per un ritor-no degli stessi, la strategia dei grandi co-struttori è comunque quella di coalizzarsiper ripartire i costi di ricerca e sviluppo.Nel corso del 2002 sono stati fatti notevoliprogressi nel settore, particolarmente si-gnificativi sono i risultati conseguiti dallaGeneral Motors19, con il progetto AUTO-nomy e il prototipo Hy-wire (Hydrogen by-wire), presentato al Salone dell’Automobiledi Parigi nel settembre 2002. GeneralMotors, anziché adattare il sistema a celle acombustibile alla struttura di un’autovetturatradizionale, ha deciso di mettere a puntoun veicolo dal design completamente inno-vativo.Come possiamo notare dalla figura 6, lecelle a combustibile, le bombole di idroge-no e i sistemi di controllo dell’auto sonocompressi all’interno di un sottile pianale(meno di 28 cm di spessore) simile ad unoskate-board, che lascia completa libertànella configurazione del veicolo.La cella installata sull’auto ha una densità dipotenza di circa 1,60 kW/l (0,94 kW/kg) eproduce 94 kW continui, con picchi fino a129 kW. L’idrogeno che alimenta le celle ècontenuto in serbatoi montati al centro delpianale. I tre serbatoi cilindrici per l’idro-geno compresso, costruiti con un compo-sto di poliuretano ad alta densità e di fibradi carbonio, hanno un peso totale di 75 kge contengono complessivamente 2,0 kg diidrogeno gassoso a 350 bar. Passo succes-sivo nello sviluppo sarà aumentare la pres-sione dagli attuali 350 bar a 700 bar. LaGeneral Motors e la QUANTUM FuelSystems Technologies Worldwide hannogià ricevuto l’omologazione da parte delTÜV, l’ente di controllo tecnico tedesco, perserbatoi a 700 bar. L’omologazione e certi-ficazione del sistema è avvenuta sulla basedei requisiti EIHP (European IntegratedHydrogen Project) e soddisfa anche lo

34 COMPLESSITÀ & SVILUPPO 2003

M. CONTE, F. DI MARIO, A. IACOBAZZI, R. INFUSINO, A. MATTUCCI, M. RONCHETTI, R. VELLONE

Organizzazione Veicolo Anno Combustibile

DaimlerChrysler NECAR 4A 2000 Idrogeno compressoNECAR 5 e 5.2 2000

2001 MetanoloJeep Commander 2* 2000 MetanoloSprinter (van) 2001 Idrogeno compressoNatrium 2001 Idrogeno/Sodio boroidruroF-Cell 2002 Idrogeno compresso

Ford Motor Co. Focus FC5 2000 MetanoloTh!nk FC5 2000 Idrogeno compressoFCHV* 2002 Idrogeno compresso

General Motors Opel HydroGen1 2000 Idrogeno liquidoHydroGen3 2001 Idrogeno liquidoPick up Chevrolet 2001 BenzinaHydroGen3 2002 Idrogeno compressoHy-wire (concept car) 2002 Idrogeno compresso

Honda Motor Co. FC-V3 * 2000 Idrogeno compressoFC-V4 2001 Idrogeno compressoFCX 2002 Idrogeno compresso

Madza Motor Co. Premacy FC-EV * 2000 Metanolo

Nissan Motor Corp. X-terra * 2000 Idrogeno compressoX-TRAIL FCV 2002 Idrogeno compresso

Toyota FCHV-3 * 2001 Idrogeno in idruriFCHV-4 * 2001 Idrogeno compressoFCHV-5 * 2001 Idrogeno FCHV 2002 Idrogeno compresso

Hyundai Santa Fe FCEV 2000 Idrogeno compresso

Daihatsu Move FCV-K_II 2001 Idrogeno compresso

Volkswagen Bora HyMotion 2000 Idrogeno liquidoBora HyPower 2002 Idrogeno

PSA/Peugeot Fuel Cell Cab 2001 Idrogeno compressoHYDRO-GEN 2001 Idrogeno compressoH2O Firefighter(concept car) 2002 Idrogeno/Sodio boroidruro

FIAT 600 Elettra 2000 Idrogeno compresso

Tabella 9Veicoli a celle acombustibile realiz-zati nel periodo2000-2002

standard americano “NGV2“ e le direttivenazionali tedesche per i serbatoi in pres-sione.Hy-wire, come suggerisce il nome, utilizzala tecnologia drive-by-wire, usa cioè co-mandi elettronici, vengono eliminati quinditutti i sistemi meccanici presenti in una vet-tura convenzionale, inclusi il motore, la co-lonna dello sterzo, i pedali per freni, frizio-ne ed acceleratore. La gestione dell’auto èaffidata a una sorta di cloche, che permettedi sterzare, accelerare, frenare e può esse-re spostata facilmente a sinistra o a destra.La General Motors dichiara che, grazie alnumero estremamente ridotto di compo-nenti, il nuovo veicolo a celle a combustibi-le alimentato a idrogeno risulterà alla finepiù economico e affidabile di quelli dotatidi motore a combustione interna.L’auto è frutto di un progetto congiunto: laGeneral Motors ha sviluppato negli USA te-laio e carrozzeria, così come l’integrazionedei componenti meccanici ed elettrici; nelcentro ricerche Opel di Magonza-Kastel, inGermania, è stato realizzato il sistema dipropulsione a celle a combustibile; la car-rozzeria è stata realizzata dalla Bertone diTorino, mentre la svedese Skf Group ha cu-rato la tecnologia by-wire nei suoi laborato-ri in Olanda ed in Italia.Altro evento importante, Toyota ed Honda20

nel dicembre 2002, anticipatamente rispet-to alle previsioni, hanno consegnato aiprimi clienti (enti di governo ed istituzionigiapponesi) i loro modelli FCHV e FCX,auto a idrogeno con un’autonomia di 350km e velocità fino a 150 km/ora. Le vetturesono offerte in leasing rispettivamente a9.500 euro (Toyota) e 6.500 euro (Honda) almese, con contratti della durata di 30 mesi.La Honda ha in programma di distribuire30 auto fra California e Giappone nei pros-simi due o tre anni. La Toyota si muove nellastessa direzione e conta di portare in circo-lazione 20 vetture ibride dotate di celle acombustibile entro la fine dell’anno. Questesaranno riservate ad istituti di ricerca, am-ministrazioni pubbliche e aziende energe-

tiche e non ancora al grande pubblico.In Europa, DaimlerChrysler ha presentato,

a otto anni dall’avvio del progetto NECAR, iprimi veicoli a celle combustibile che ver-ranno prodotti come vetture di serie, sep-pure in numero ridotto di esemplari, e cheentro l’anno circoleranno in Europa, StatiUniti, Giappone e Singapore.L’iniziativa interesserà 60 Mercedes ClasseA “F-Cell21 e 30 bus urbani Citaro (figura7), che saranno affidati alle aziende di tra-sporto di dieci città europee (Amsterdam,Amburgo Barcellona, Londra, Lussem-burgo, Madrid, Porto, Stoccolma, Stoccardae Reykjavik)17,22.Esperti del settore sostengono che occor-rerà almeno un decennio per la diffusionecommerciale di veicoli a celle a combusti-bile; la disponibilità di piccole flotte di vet-ture prima del previsto costituisce in ognicaso un promettente avvio.A parte General Motors e Toyota, che svi-luppano in proprio celle a combustibile, lealtre case automobilistiche hanno accordidi fornitura con i diversi produttori distack; la tecnologia maggiormente utiliz-zata è quella dellaBallard Power Systems(Vancouver, Canada),leader mondiale nellaproduzione di celle adelettrolita polimerico.

35COMPLESSITÀ & SVILUPPO 2003

VEICOLI A IDROGENO: STATO ATTUALE E PROSPETTIVE DI SVILUPPO

Figura 6Il telaio di Autono-my ed il prototipoHy-wire

Fonte: GM

Figura 7Autobus Citaro

Fonte: DaimlerChrysler

Le prospettive di sviluppoLe prospettive di mercato per i veicoli acelle a combustibile sono tali da giustifica-re l’entità delle risorse impegnate nel setto-re (circa 1 milione di euro all’anno). Analisicondotte in questo campo fanno prevedereche, anche in presenza di una penetrazionemolto graduale a partire dal 2005, potreb-bero raggiungersi buoni livelli di produzio-ne nell’arco di pochi anni, consideratal’ampiezza del mercato automobilistico.Uno studio di mercato presentato nel 2000

dalla Texaco Energy Systems prevede chedopo il 2024, nel caso di risoluzione di tuttii problemi connessi alle celle a combusti-bile ed alle infrastrutture, la metà delle autovendute potrebbe essere alimentata concelle a combustibile23.Stime del Department of Energy, eseguitenello stesso periodo, indicano che i veicolicon celle a combustibile costituirannol’1,3% del mercato nel 2010 e l’8,24% nel2020; valore quest’ultimo in linea con leprevisioni Texaco che per il 2020 riportauna cifra pari all’8,6%.Un recente studio dell’ABI (Allied BusinessIntelligence) stima che dal 2012 potrebberoentrare in circolazione 800.000 veicoli concelle a combustibile24. La Opel ha annun-ciato che per il 2010 il 10% della sua produ-zione potrebbe essere costituito da auto acelle a combustibile, mentre Ford sostieneche entro la fine del decennio la sua produ-zione sarà di 50.000 unità all’anno.Per arrivare alla commercializzazione ènecessario risolvere ancora importantiquestioni: occorre creare una rete in gradodi produrre e distribuire capillarmente l’i-drogeno e tecnologie idonee a stoccarlo inmodo affidabile e sicuro a bordo del veico-lo, e non ultimo arrivare ad ottenere costicompatibili con il mercato dei trasporti. Siritiene, quindi, che l’idrogeno sia proponi-bile nel breve-medio termine principal-mente per flotte di veicoli e che possa di-venire il combustibile ideale per tutte le ti-pologie di veicoli solo nel lungo termine.Per questo motivo per la fase di transizione

l’industria automobilistica sta valutandoanche la possibilità di generare l’idrogenodirettamente a bordo del veicolo, a partireda metanolo o benzina.In attesa di una massiccia penetrazionedell’idrogeno sulle auto private, la scelta dipuntare inizialmente su mezzi di trasportopubblici appare strategica, non solo per-ché mezzi di questo tipo hanno minori pro-blemi per quanto riguarda lo stoccaggio abordo, ma soprattutto perché le aziendepubbliche sarebbero in grado di dotarsi diproprie stazioni di produzione e riforni-mento di idrogeno, superando così uno deimaggiori ostacoli all’introduzione del vei-colo ad idrogeno. Risulterebbe inoltre piùfacile l’erogazione di finanziamenti ed in-centivi da parte di governi nazionali o loca-li per acquisto di veicoli; questo concorre-rebbe ad avviare la produzione di serie equindi sfruttando le economie di scala sipotrebbero più facilmente raggiungerecosti accettabili per il mercato.

Veicoli a idrogeno con motore acombustione internaL’uso dell’idrogeno in motori termici tradi-zionali è stato finora oggetto di ricerca so-prattutto da parte di alcuni costruttori auto-mobilistici e non risultavano programmisvolti a livello nazionale che supportasseroquesta tecnologia, anche se in Germaniaalcuni progetti ricevono finanziamenti daparte delle amministrazioni di alcuniLänder (Baviera, Amburgo, Berlino). Attivitàper lo sviluppo di motori a combustione in-terna a idrogeno di tipo avanzato risultanoanche inserite nel Programma Freedom-CAR8. Attività di minor rilievo sono in corsopresso vari istituti di ricerca, comunquel’impegno su questa tecnologia rimanecontenuto e più frammentario rispetto aquello rivolto allo sviluppo di sistemi concelle a combustibile.La tecnologia ha raggiunto un buon gradodi sviluppo nei progetti della BMW25 che,nel 2000, ha presentato la 750 hl, che puòconsiderarsi la prima vettura a idrogeno

36 COMPLESSITÀ & SVILUPPO 2003

M. CONTE, F. DI MARIO, A. IACOBAZZI, R. INFUSINO, A. MATTUCCI, M. RONCHETTI, R. VELLONE

realizzata in serie, in quanto prodotta inqualche decina di unità. Il motore 12 cilin-dri da 5,4 litri, alimentato a idrogeno, svi-luppa una potenza di 150 kW, può accele-rare da 0 a 100 km/h in 9,6 secondi; la velo-cità massima è di 226 km/h. Il serbatoio da140 litri garantisce un’autonomia di circa350 km. Il tutto è integrato da un sistema abenzina convenzionale, mantenuto percompensare le scarse infrastrutture per ladistribuzione dell’idrogeno.Per dimostrare la validità della sua tecnolo-gia e la sostenibilità di utilizzo dell’idroge-no, una flotta di 15 di queste auto nel corsodel 2001 ha effettuato un tour dimostrativo,il “CleanEnergy World Tour”, che ha tocca-to le città di Dubai, Bruxelles, Milano, LosAngeles, fino a Berlino. La flotta ha percor-so oltre 170.000 chilometri. A Monaco diBaviera, la BMW utilizza ora queste autoper il servizio di navetta dall’aeroporto allapropria sede.Dopo la 750 hl, il Gruppo BMW ha presen-tato la nuova 745 h con motore otto cilindribenzina/idrogeno (figura 8) e un prototipo,la Mini Cooper H, studiato per funzionareesclusivamente a idrogeno.BMW intende immettere queste auto sulmercato entro tre anni, con distributori perl’idrogeno presso i suoi concessionari; peravere una rete di distribuzione adeguata ri-tiene che occorreranno almeno 15 anni (perquella data stima una produzione di serie diauto alimentate a idrogeno pari al 5%).Restando in Germania, occorre ricordare ilprogetto della tedesca MAN26,27, che dal1997 ha in corso la realizzazione di alcuniautobus a idrogeno destinati all’aeroportodi Monaco ed il progetto WEIT (Was-serstoff-Energie Integration Transport).All’interno del progetto WEI, un gruppo disocietà private, con sede ad Amburgo, stautilizzando per il servizio di consegna al-cuni furgoni Sprinter Mercedes dotati dimotore a combustione interna a idrogeno.Obiettivo è quello di ottenere consenso daparte dell’opinione pubblica, dimostrandoche i mezzi ad idrogeno funzionano in

modo affidabile e sicuro in ambito urbano.La Ford a metà del 1999 ha avviato ricer-

che su motori a combustione interna ali-mentati a idrogeno e due anni più tardi hapresentato la P2000 H2ICE, una concept-car che monta un motore Zetec da 2 litrimodificato. L’idrogeno, immagazzinato inun serbatoio da 87 litri (a 248 bar), assicuraun’autonomia di 100 km; è prevista unamodifica del sistema di stoccaggio perraggiungere i 240 km di percorrenza.In Giappone, il Musashi Institute of Tech-nology28 ha lavorato in passato allo svilup-po di veicoli alimentati ad idrogeno ed harealizzato una serie di auto con motore acombustione interna alimentato a idrogenoliquido. Sempre in Giappone, la Madza hasvolto ricerche in questo campo tra il 1986e il 1997, anno in cui la società è passata al-l’alimentazione a celle a combustibile.

Infrastrutture

Esistono già alcune stazioni in grado dirifornire idrogeno, aperte principalmenteper motivi di ricerca; altre sono state o sa-ranno costruite presso le aziende di tra-sporto impegnate nelle diverse attività di-mostrative in corso.Nel 1999 è stata aperta in Germania, pres-so l’aeroporto di Monaco di Baviera, nelquadro delle attività del Progetto H2MUC29,una stazione di servizio pubblica che di-stribuisce sia idrogeno liquido, che gasso-so. L’impianto è frutto di una collaborazione

37COMPLESSITÀ & SVILUPPO 2003

VEICOLI A IDROGENO: STATO ATTUALE E PROSPETTIVE DI SVILUPPO

Figura 8BMW 745 h

Fonte: BMW

tra BMW, Linde ed Aral ed è in grado di for-nire idrogeno liquido in modo totalmenteautomatizzato.Solo per citare altri esempi, la Honda nel2000 ha aperto una stazione a Torrance, inCalifornia, dove viene prodotto idrogenoper elettrolisi dell’acqua usando energiaelettrica da fonti rinnovabili (energia sola-re) e, nello stesso Stato, la Sunlite Transit hareso operativa a Thousand Palms una sta-zione che offre idrogeno insieme con altricarburanti. In Giappone, nell’ambito delprogetto WE-NET, nel febbraio 2002 sonostate aperte due stazioni di rifornimento si-tuate rispettivamente ad Osaka e presso l’i-stituto di ricerca Shikoku di Takamatsu; nel-l’area Tokyo/Yokohama saranno costruite,con fondi governativi, sei stazioni di servi-zio entro il 2003, che riforniranno i veicoliche Honda e Toyota stanno consegnando aiprimi clienti.In Europa, significativa è l’iniziativa pro-mossa dal governo tedesco, che nel mag-gio 1998 ha lanciato il Progetto “TransportEnergy Strategy (TES)”, in collaborazionecon Aral, BMW, DaimlerChrysler, MAN,RWE, Shell e Volkswagen30. La finalità delgruppo è quella di definire una strategiaper una mobilità sostenibile da attuarsi ri-correndo a combustibili e sistemi di pro-pulsione alternativi. I diversi partner sisono accordati sull’uso dell’idrogeno, sia in

forma liquida, sia gassosa. Il progetto do-vrebbe portare alla creazione di una retedi distribuzione di idrogeno in Germania; èprevista la realizzazione di 30 stazioni dirifornimento entro il 2007 e si ipotizzano2.000 stazioni entro il 2010 (figura 9).A Berlino, nel 2003, diventerà operativa laBerlin Clean Energy Partnership31, all’inter-no della quale Daimler-Chrysler, BMW,Ford, Opel avranno la possibilità di speri-mentare i loro veicoli nell’uso quotidiano. Ilprogetto, avviato in collaborazione con ilgoverno federale tedesco, prevede la di-mostrazione di una flotta di circa 30 veicoli(alimentati sia a celle a combustibile siacon motore a combustione interna) e larealizzazione da parte della società petroli-fera Aral di un’area di servizio per la pro-duzione, lo stoccaggio e la distribuzionedell’idrogeno che provvederà al loro rifor-nimento. Nella stessa città, nell’ottobre2002, è stata aperta una stazione di riforni-mento presso l’azienda di trasporti BerlinerVerkehrs-Betriebe (BVG), realizzata nel-l’ambito del Progetto “Fuel Cell Bus forBerlin, Copenaghen and Lisbon” cofinan-ziato dalla Unione Europea16. Alla stazioneè possibile rifornire i veicoli sia con idro-geno liquido, sia compresso. Quest’ultimoviene generato in situ per via elettrolitica equindi stoccato a 250 bar.

Stato delle tecnologie e prospettivedi sviluppo in Italia

L’interesse per i veicoli a idrogeno, e più ingenerale per lo sviluppo dell’idrogenocome vettore energetico, sta crescendoanche in Italia, in connessione con i semprepiù gravi problemi di inquinamento am-bientale delle aree urbane e con la neces-sità di ridurre le emissioni di gas serra.Tale interesse è testimoniato, da un lato,dalla disponibilità di maggiori finanziamen-ti pubblici per attività di ricerca, sviluppo edimostrazione in questo campo (ad esem-pio i circa 90 milioni di euro che si prevedeverranno resi disponibili per i prossimi treanni dal Programma Nazionale Ricerca per

38 COMPLESSITÀ & SVILUPPO 2003

M. CONTE, F. DI MARIO, A. IACOBAZZI, R. INFUSINO, A. MATTUCCI, M. RONCHETTI, R. VELLONE

Mercato totale:

declino degli incentivi

Penetrazione nel mercatoincentivi finanziari

Introduzione:finanziamento iniziale

~15.000

2.000

1.000

02005 2010 2015 2020

Svilupporete didistribuzionepubblica

“Fase-apprendimento”30 stazionidi rifornim.

Figura 9Ipotesi TES per lacreazione di stazionidi rifornimento adidrogeno compresso

Fonte: BMW

i progetti su idrogeno e celle a combustibi-le), dall’altro dall’attenzione dei mezzi diinformazione e dalle numerose iniziativedei potenziali utenti (Regione Lombardia,vari Comuni ed aziende di trasporto).Perché l’interesse e le risorse disponibilirappresentino un’opportunità di sviluppoper il Paese occorre operare, da un lato, nelmiglioramento delle tecnologie e dei pro-dotti necessari, dall’altro nella creazionedelle condizioni al contorno (infrastrutture,normative, sicurezza, accettabilità da partedegli utenti) in modo da superare gradual-mente le barriere alla diffusione dei veicolia idrogeno. Ciò deve realizzarsi nell’ambitodi un intervento più generale per lo svilup-po dell’idrogeno come vettore energeticonel medio-lungo termine.È opportuno rimarcare che la situazionenazionale, descritta brevemente nel segui-to, ha visto le attività in questo campo assu-mere solo negli ultimi anni un rilievo signifi-cativo, anche se con un certo ritardo e conun impegno sensibilmente minore rispettoa quanto in atto a livello internazionale.

Sistemi di accumuloI veicoli sperimentali finora realizzati hannotutti utilizzato idrogeno compresso in bom-bole commerciali. Limitate attività di ricer-ca sono state condotte in passato sui mate-riali (idruri) e sulle problematiche connes-se con l’omologazione di bombole di tipoavanzato.Un progetto biennale per lo sviluppo di si-stemi di accumulo di idrogeno in leghemetalliche è stato finanziato nell’ambito delFISR (Fondo Integrativo Speciale per laRicerca) ed è in fase di avvio, con il coordi-namento dell’ENEA e la partecipazione diCNR-ITAE, INFM e SAES Getters; sono pre-viste attività di ricerca e sviluppo tecnolo-gico di materiali, sottosistemi e sistemi, finoalla validazione sperimentale, e in modocomparato, della tecnologia.

Veicoli con motore a combustione internaIn questo settore sono state condotte in

passato alcune attività di ricerca e sviluppoda parte dell’ENEA che, in collaborazionecon VM Motori e l’Università di Pisa, ha mo-dificato, nei primi anni 90, un veicolo FIATDucato, sviluppando iniettori ad hoc perl’alimentazione con idrogeno compresso,contenuto in bombole metalliche collocatein compartimenti isolati. Per evitare i pro-blemi tipici posti dall’idrogeno nei motori èstata adottata la tecnica dell’iniezione(esterna al cilindro) in fase con l’aspirazio-ne e ritardata rispetto all’ingresso dell’aria.In questo modo è stato ottenuto, a potenzamassima, un rendimento del 27%, conemissioni di NOx ridotte a 40 ppm (valoriconfrontabili con quelli ottenuti negli stessianni dalla Mercedes).I costruttori automobilistici nazionali nonhanno finora dedicato particolare attenzio-ne allo sviluppo di veicoli a idrogeno conmotori a combustione interna, in assenzadi una prospettiva a breve-medio termineper la disponibilità di questo combustibile.Uno sforzo significativo è stato invece fattoper lo sviluppo di veicoli a metano (sia au-tobus sia vetture), e della rete di distribu-zione relativa, acquisendo in questo settoreun vantaggio competitivo rispetto ad altripaesi. Tale vantaggio potrebbe avere im-portanti ricadute, sia a livello di tecnologieveicolari (motori, sistemi di accumulo) siadi infrastrutture, sui veicoli a idrogeno, inconfigurazione sia con motori a combustio-ne interna, per la cui realizzazione non siprevedono ostacoli tecnici di rilievo, sia piùin prospettiva con celle a combustibile.Il crescente interesse per i veicoli a idroge-no sta in questa fase promovendo alcuneiniziative nel settore, come quella dellaPIEL, che ha modificato per l’alimentazionea idrogeno una FIAT Multipla a metano, esta portando alcuni potenziali utenti a valu-tare la possibilità di provare i veicoli dellaBMW.

Celle a combustibileIn Italia le attività sulle celle ad elettrolitapolimerico per trazione sono iniziate nel

39COMPLESSITÀ & SVILUPPO 2003

VEICOLI A IDROGENO: STATO ATTUALE E PROSPETTIVE DI SVILUPPO

1989 nell’ambito di una collaborazionedell’ENEA con la De Nora, che ha portato amettere a punto una tecnologia di cella ori-ginale, che privilegia materiali a bassocosto e di facile reperibilità e tecnologie difabbricazione adatte alla produzione diserie.La tecnologia sviluppata da De Nora è stataimpiegata per la realizzazione di diversi vei-coli sperimentali (Renault/Progetto FEVER,PSA Peugeot/Progetto Hydro-Gen, FIAT/600 Elettra) ed autobus (MAN, Neoplan,Ansaldo/Progetto EQHHPP), anche se ri-chiede ulteriori sviluppi per raggiungereprestazioni e costi competitivi rispetto alleapplicazioni relative alla trazione.In tal senso si sta muovendo la Nuvera FuelCells, società nella quale sono confluite nel2000 le attività sulle celle ad elettrolita poli-merico condotte dalla De Nora, con l’obiet-tivo di arrivare a disporre di prodotti com-merciali per la trazione entro il 2005.In parallelo allo sviluppo industriale dellatecnologia degli stack l’ENEA e il CNR-ITAE di Messina hanno condotto negli ulti-mi dieci anni attività di ricerca su materialie componenti, con il coinvolgimento di di-verse università (Accordo di Programma

Ministero Industria-ENEA fino al 1998 eProgramma Ministero Università e Ricercalegge 95/95 dal 1999). In tale ambito sonostati messi a punto componenti e tecnolo-gie di fabbricazione che hanno consentitodi raggiungere prestazioni allineate con lemigliori ottenute a livello internazionale.I risultati di tali attività sono importantianche per promuovere la crescita di altrisoggetti industriali nel settore.Particolarmente interessante, in tal senso, èla collaborazione tra l’ENEA ed una piccolasocietà di Bologna, la Roen Est, che ha por-tato allo sviluppo di soluzioni innovative, emolto promettenti, per l’ingegneria dellostack, con la realizzazione, a fine 2002, diun modulo da 5 kW.Le attività di sviluppo di tecnologie e com-ponenti per celle ad elettrolita polimericoproseguiranno per i prossimi due anni inun progetto coordinato dall’ENEA nell’am-bito del FISR e svolto in collaborazione conistituti del CNR, università e Roen Est.

Prototipi di veicoli con celle acombustibile

Gruppo FIAT

Il Gruppo FIAT è impegnato dal 1998 nellosviluppo di prototipi di veicoli a celle acombustibile con l’obiettivo prioritario diverificare le prospettive tecnico-economi-che di questa tecnologia, sia nel campodegli autobus sia delle autovetture. I princi-pali progetti finora realizzati sono illustratibrevemente nel seguito.

Bus a idrogeno a emissioni zero – L’IrisbusItalia, società nata dalla fusione dei settoriautobus di Iveco e Renault, ha realizzato unautobus ibrido, che è stato presentato uffi-cialmente a Torino nel maggio 2001 ed ilcui impiego su strada è previsto nel 2003. Ilveicolo (figura 10), derivato dal CityClassCNG, utilizza una cella a combustibile da60 kW, sviluppata dalla società americanaUTC Fuel Cells.Il progetto, parzialmente finanziato dalMinistero dell’Ambiente, vede il coinvolgi-

40 COMPLESSITÀ & SVILUPPO 2003

M. CONTE, F. DI MARIO, A. IACOBAZZI, R. INFUSINO, A. MATTUCCI, M. RONCHETTI, R. VELLONE

Figura 10Progetto Irisbus

Motore 150 kW (unità PEFC 60 kW) Autonomia: 12 ore di esercizioAlimentazione: idrogeno (9 bombole x 140 l) Velocità max: 60 km/h

mento di ATM (Azienda Torinese per laMobilità), per l’impiego in servizio del pro-totipo; Sapio, per la produzione e stoccag-gio idrogeno; CVA (Compagnia ValdostanaAcque), per fornire l’energia elettrica dafonti rinnovabili necessarie per la produ-zione di idrogeno); ENEA, per il monitorag-gio dei risultati; Ansaldo Ricerche, per lafornitura degli azionamenti elettrici.

600 Elettra Fuel Cell – La 600 Elettra FuelCell (figura 11) è stata presentata al pubbli-co nel febbraio 2001. Il prototipo è derivatodalla Seicento Elettrica ed è stato sviluppa-to dal Centro Ricerche FIAT, con finanzia-menti di FIAT Auto e del Ministero del-l’Ambiente.Lo stack installato nella vettura (fornito daNuvera Fuel Cells Europe) è alimentatocon idrogeno in pressione (200 bar), accu-mulato in sei bombole (9 litri ciascuna) si-stemate nella parte posteriore del veicolo.Per il futuro si prevede di ripristinare l’abi-tabilità originaria della vettura, ricorrendoad un diverso sistema di accumulo delcombustibile (uso di idruri metallici, ovve-ro bombole ad alta pressione).Il recente accordo con la General Motors,che già aveva un impegnativo programmadi sviluppo per i veicoli a celle a combusti-bile, potrebbe modificare la strategia d’in-tervento della FIAT nel settore delle auto-vetture, con una riduzione delle risorse in-vestite in questo campo, mentre non tocca iprogrammi di Iveco/Irisbus nel settoredegli autobus.

Ansaldo RicercheOpera da diversi anni nel settore dellecelle a combustibile per trazione e si è oc-cupata in passato di tutte le problematicherelative alla progettazione e realizzazionedel sistema di generazione e del suo im-piego a bordo del veicolo, partecipandoalla realizzazione di un autobus da 12metri e di un battello per la navigazionesul Lago Maggiore, entrambi in configura-zione ibrida e con idrogeno liquido comecombustibile.

Ansaldo Ricerche ha curato anche lo svi-luppo degli azionamenti elettrici nell’ambi-to di progetti europei per autovetture e au-tobus ed in questo settore è concentrata lasua attenzione per il futuro.

Aprilia

Ha presentato al Motorshow di Bologna neldicembre 2000 il primo prototipo di ciclo-motore a celle a combustibile, derivatodalla bicicletta a pedalata assistita “Enjoy”.Sul veicolo è installata una cella PEFC da700 W sviluppata dalla Manhattan Scien-tifics/NovArs. Il Times ha dichiarato questoprototipo “Invenzione dell’anno 2001”.Durante il 2002 ha realizzato un prototipodi scooter, di potenza maggiore rispetto alprecedente, destinato a diventare la baseper il passaggio alla fase di test su flotte equindi alla commercializzazione.

ENEANell’ambito delle sue attività di sviluppo diprototipi dimostrativi di piccola taglia aidrogeno ha realizzato, utilizzando stackdella Nuvera Fuel Cells, un sistema di ge-nerazione da 5 kW, attualmente in prova albanco, per l’alimentazione di un veicolo

41COMPLESSITÀ & SVILUPPO 2003

VEICOLI A IDROGENO: STATO ATTUALE E PROSPETTIVE DI SVILUPPO

Figura 11Elettra H2 Fuel Cell

Motore: 30 kW (PEFC 7 kW)Alimentazione: idrogeno Autonomia: 100 km (140 km con batteria) Velocità max: 100 km/h

Figura 12Bicicletta realizzatapresso i laboratoriENEA

ibrido, ed un prototipo di bicicletta elettricaa pedalata assistita (stack da 300 W). La bi-cicletta (figura 12), che ha percorso finoraquasi 400 km, utilizza idrogeno compressoe, con una bombola da 5 litri a 200 bar(pari a 1 Nm3), presenta un’autonomia di100-130 km (variabile a seconda del tipodi percorso) a fronte dei 20-25 km della bi-cicletta utilizzante solo batterie.

AltriAltri soggetti hanno avviato di recente ostanno avviando in questa fase delle inizia-tive nel settore. Si ricordano, tra gli altri, ilprogramma promosso dal Comune diFirenze per la realizzazione di un prototipodi autobus a celle a combustibile e, in pro-spettiva, di una flotta, con la relativa stazio-ne di rifornimento (partner: ATAF, CAM,Nuvera, SOL, ENEA, IM/CNR) e quello ana-logo previsto dall’ATM di Milano (in colla-borazione con Iveco e altri da definire) nel-l’ambito del programma sull’idrogenodella Regione Lombardia.

Le barriere all’introduzione deiveicoli a idrogenoLe diverse tipologie di ostacoli, che si op-pongono alla penetrazione del veicolo aidrogeno, richiedono uno sforzo notevoleper la loro rimozione da parte di tutti i sog-getti coinvolti ed in particolare da partedelle autorità pubbliche. Le principali bar-riere sono:• tecnologiche;• strutturali;• economiche;• normative;• di accettazione sociale.

Barriere tecnologiche

Tra i numerosi problemi da risolvere, quellipiù critici sono il miglioramento delle po-tenzialità del sistema di accumulo dell’idro-geno a bordo e la riduzione dell’incidenzadei metalli nobili nel catalizzatore dellecelle.

Sistema di accumuloIl sistema d’accumulo dell’idrogeno abordo costituisce il classico collo di botti-glia per la penetrazione della tecnologia,sia per la limitata autonomia del veicolo adidrogeno rispetto ai veicoli convenzionali,sia per l’eccessivo peso e ingombro rispet-to ai serbatoi attuali. Vanno pertanto inten-sificati gli sforzi in ricerca, sviluppo e di-mostrazione sulle opzioni di stoccaggiopraticabili, con l’obiettivo di aumentare ladensità energetica sia in volume sia inpeso. Gli attuali sistemi di stoccaggio abordo (idrogeno compresso in bomboled’acciaio a 250 bar e idrogeno liquido invasi Dewar) rendono possibile la dimostra-zione della funzionalità del veicolo ad idro-geno, ma sono ben lungi dalla soluzione ot-timale che la diffusione di massa del veico-lo ad idrogeno richiede.

Uso di metalli nobili come catalizzatoriIn prospettiva, il costo di una cella ad elet-trolita polimerico, realizzata da un sistemadi produzione ottimizzato su scala indu-striale, risulterà molto influenzato dal con-tenuto di metalli preziosi nel catalizzatore.È pertanto necessaria la prosecuzione del-l’attività di ricerca e sviluppo per la ridu-zione del contenuto di platino e, in prospet-tiva, l’utilizzo di nuovi materiali sostitutivi dicosto inferiore per i catalizzatori.

Barriere strutturali

La mancanza di una rete di stazioni di rifor-nimento d’idrogeno per autotrazione è ungrosso ostacolo che si oppone alla pene-trazione del veicolo ad idrogeno in quantone condiziona fortemente l’uso.L’avvio della realizzazione delle infrastrut-ture di distribuzione è un’operazione com-plessa, sia per l’incertezza sulla redditivitàdell’investimento, in mancanza di una do-manda ben quantificabile, sia per la sceltadelle tecnologie di produzione dell’idroge-no, della fonte da usare, della modalitàd’approvvigionamento, della localizzazionedei siti. Lo sviluppo delle infrastrutture va

42 COMPLESSITÀ & SVILUPPO 2003

M. CONTE, F. DI MARIO, A. IACOBAZZI, R. INFUSINO, A. MATTUCCI, M. RONCHETTI, R. VELLONE

attuato insieme con i produttori di autovei-coli ad idrogeno, che devono far conoscerecon un certo anticipo i loro piani di produ-zione, affinché i soggetti interessati alla rea-lizzazione delle infrastrutture siano in gradodi renderle disponibili in tempo utile.Va individuata una prima fase pilota, relativaalla sperimentazione delle flotte, durante laquale l’idrogeno può essere fornito dastrutture di produzione realizzate in impian-ti stazionari esistenti, oppure da strutture adhoc predisposte presso i gestori delle flotteed aperte all’utenza esterna, oppure da im-pianti da realizzare nel sito di stazioni diservizio esistenti, in corrispondenza di areeterritoriali ove il livello della domanda ga-rantisca l’economicità dell’impresa.È molto importante che la commercializza-zione degli autoveicoli ad idrogeno sia ac-compagnata, se non preceduta, dalla realiz-zazione di un numero adeguato di stazionidi rifornimento distribuite sul territorio, inmodo da non pregiudicarne il successo. Siritiene che la soluzione più vantaggiosa,per il rifornimento dell’idrogeno, sia l’usodei siti di stazioni di servizio preesistentiche, nel breve-medio termine, si baserannosu impianti di steam reforming del metano,fornito dalla rete o trasportato da furgoni, inbombole o liquefatto.Nella fase di avvio della realizzazione dellarete di stazioni di rifornimento dell’idroge-no, prima che la domanda raggiunga livellitali da assicurare utili per le imprese, è ne-cessario l’apporto di sovvenzioni e incentivipubblici tali da coprire le perdite iniziali.Accanto alle infrastrutture non vanno di-menticate le barriere che dipendono dalla

mancanza o inadeguatezza di servizi,come la disponibilità di siti e personale ca-paci di erogare tutti gli interventi di manu-tenzione che si potrebbero rendere neces-sari durante l’uso dei veicoli. La crescita ditali servizi sul territorio dovrebbe esserepianificata in modo analogo a quella delleinfrastrutture.

Barriere economiche

Il costo di un veicolo innovativo, superata lafase prototipale di dimostrazione, durante laquale il costo dell’autoveicolo può rimanerefuori mercato, è fortemente influenzatodalle economie di scala. Anche nel caso delveicolo ad idrogeno il costo di prospettiva èstimato sulla base di ipotesi di crescita delmercato potenziale di medio termine.Esistono diverse stime sull’evoluzione delprezzo d’acquisto di un veicolo a celle acombustibile alimentato ad idrogeno, sullabase di differenti ipotesi di evoluzione delmercato e della tecnologia nel medio ter-mine.Le valutazioni, dopo circa 15 anni dall’avvio

43COMPLESSITÀ & SVILUPPO 2003

VEICOLI A IDROGENO: STATO ATTUALE E PROSPETTIVE DI SVILUPPO

Alimentazioneveicolo Benzina Metanolo Idrogeno

Costo VCI VCI FCV FCV FCV FCVFonte delle stime ($/auto) convenz. Tech-1 indiretto diretto

DTI (1998) 18.000 - 22.400 20.800 - 20.00024.500 21.600

Ogden (1998) 18.996 19.196 19.474 19.124 - 19.99619.814 19.224 -

Lipman (1999) 20.558 - - - 24.495 24.570

Tabella 10Stima dei costi deiveicoli a celle acombustibile

VCI = veicolo con motore acombustione internaFCV = veicolo con celle acombustibile

1997 2000 2003 2006 2009 2012 2015 2018 2021Anni

140

120

100

80

60

40

20

Cos

to v

eico

li (x

1000

US

$)

Figura 13Possibile evoluzio-ne del prezzo di vei-coli a celle a com-bustibile

della fase di commercializzazione, oscilla-no verosimilmente intorno al prezzo di20.000 US$ per autovettura, superiore dicirca 2.000 US$ rispetto alla stima del prez-zo di un’autovettura convenzionale equiva-lente. Alcune di tali valutazioni sono ripor-tate nella tabella 10 e nella figura 1332.Uno sforzo notevole, anche attraverso in-centivi pubblici, è essenziale per assicura-re una penetrazione significativa nel mer-cato e la conseguente riduzione dei costiper l’acquisto delle autovetture da partedell’utente finale.

Barriere normative

Le norme vigenti (autorizzative, di sicurez-za, stradali), che regolano l’uso e la circola-zione degli autoveicoli, sono generalmenteemesse sulla base delle caratteristichedella tecnologia prevalente di trasporto espesso costituiscono una barriera alla pe-netrazione delle nuove tecnologie. È statocosì nel caso del veicolo elettrico e la stes-sa cosa si ripropone per il veicolo a idroge-no. È eclatante, in tal senso, l’impossibilità inItalia di omologare il recipiente in materialecomposito, che ne impedisce l’uso per icombustibili gassosi in pressione.Si rendono pertanto necessari interventitempestivi, mirati all’adeguamento dellanormativa, per non ritardare ulteriormentee/o impedire la commercializzazione e l’u-tilizzo del veicolo ad idrogeno, così comesono utili norme incentivanti, che privilegi-no la circolazione degli autoveicoli a idro-geno nei centri urbani, in quanto caratteriz-zati da basso o nullo impatto ambientale.

Barriere di accettazione sociale

A livello psicologico, i cittadini tendonomediamente a privilegiare l’uso delle tec-nologie consolidate perché più familiari equindi percepite più sicure e più vantag-giose. Accanto a ciò vanno aggiunte alcuneperplessità di ordine pratico, dovute adesempio all’incertezza di poter disporre diun mercato dell’usato per il veicolo doveeventualmente rivendere l’autovettura

dopo un certo numero di anni, alla difficoltàin alcuni casi di assicurare i veicoli e/o diavere premi di assicurazione simili a quellidei veicoli convenzionali ecc.La penetrazione di una nuova tecnologia vaquindi sempre accompagnata da una cam-pagna di informazione tendente a modifi-care l’atteggiamento del cittadino per ri-durre le barriere di accettabilità sociale, at-traverso una chiara evidenziazione dei van-taggi connessi alla tecnologia e delle mo-dalità per superare i possibili inconvenien-ti. A tal fine le autorità pubbliche, anche incollaborazione con le industrie interessate,dovrebbero farsi carico delle campagne diinformazione per rendere familiare pressola cittadinanza le tecnologie dei veicoli adidrogeno, rassicurandola soprattutto sottol’aspetto della sicurezza e dimostrando chele prestazioni non hanno niente da invidia-re rispetto agli altri tipi di veicoli.Ovviamente un compito fondamentaledelle autorità dovrà essere quello di pro-muovere nei cittadini una sensibilità am-bientale sempre più spinta e della coscien-za di essere sempre più protagonisti nellarealizzazione di uno sviluppo della societàcompatibile con la salvaguardia dell’am-biente. In mancanza della creazione di unatale coscienza civica sarebbe alquanto dif-ficile preconizzare un grande successo perl’introduzione delle tecnologie dei veicoliad idrogeno.

Analisi d’impatto delle diversetipologie di veicoli

Approccio metodologico

Per procedere all’introduzione di unanuova tecnologia veicolare, come quelladei veicoli a idrogeno, occorre verificareche tale operazione sia caratterizzata dareali vantaggi in termini complessivi, vale adire che i benefici siano concreti e misura-bili e che i costi delle nuove soluzioni pos-sano essere resi comparabili a quelli delletecnologie in competizione.

44 COMPLESSITÀ & SVILUPPO 2003

M. CONTE, F. DI MARIO, A. IACOBAZZI, R. INFUSINO, A. MATTUCCI, M. RONCHETTI, R. VELLONE

La varietà di soluzioni veicolari possibili(intese come combinazione di veicoli ecombustibili) per le varie tecnologie alter-native, tra cui l’idrogeno, richiede che unascelta meditata delle tecnologie più pro-mettenti possa essere fatta solo in seguitoad un’analisi quantitativa basata sull’uso dimetodologie adeguate in grado di deter-minare gli effettivi impatti ambientali (localie globali) ed i costi associati alla tecnologiain questione. Tale analisi è uno strumentoindispensabile, non soltanto per l’utente fi-nale, ma anche, e principalmente, per gliorgani politici, che possono proporre ade-guate politiche di sostegno per l’utilizzodelle tecnologie migliori. Occorre quindiconfrontare tra loro le varie opzioni a di-sposizione, delineando quali siano le tec-nologie più promettenti ed eventualmenteil tipo di mercato che si prospetta (genera-le o di nicchia per usi di tipo specifico).È importante sottolineare che, per averesenso, i confronti devono essere effettuatiprendendo a riferimento tecnologie carat-terizzate da un livello simile di maturità; ciòrichiede che i veicoli esaminati abbianogià scontato i prevedibili difetti che i nuoviprototipi sovente mostrano e che soprattut-to il ventaglio dei costi non risulti troppoampio. È chiaro, infatti, che le tecnologie in-novative sono caratterizzate da costi signi-ficativamente più alti delle tecnologie giàmature e che questo handicap risulta tantopiù grande quanto più i veicoli sono a livel-lo prototipale. Pertanto un confronto fattosulla situazione presente introdurrebbe fa-talmente distorsioni in sede di analisi, inquanto sarebbero logicamente troppo fa-vorite le tecnologie già affermate. Tali di-storsioni potrebbero però essere notevol-mente ridotte se il confronto fosse fatto par-tendo da soluzioni tecnologicamente matu-re. In realtà l’adozione di questa ipotesicomporterebbe altri tipi di problemi, poi-ché uno stesso stadio di maturazione nonviene raggiunto dalle diverse tecnologiecontemporaneamente, per cui il confrontoandrebbe fatto considerando tempi diversi.

È conveniente perciò trovare un compro-messo, che può essere basato sull’ipotesi diconsiderare veicoli già pienamente svilup-pati dal punto di vista tecnologico, anche secon differenze di costi ancora sensibili,mantenendo però la coerenza temporaleper quanto attiene al momento della verifi-ca. In tal modo ci si può spostare ad unadata futura che potrebbe essere collocataintorno all’anno 2010, ovviamente effettuan-do il confronto, prendendo in considerazio-ne veicoli che già incorporano i migliora-menti prevedibili nell’intervallo temporaleda adesso al momento della verifica.Entrando nel merito delle tecnologie da va-lutare sono state prese in considerazione,per le autovetture, le seguenti tecnologie:• VCI (veicoli a combustione interna) a

benzina;• VCI a gasolio;• VCI a gas naturale compresso (CNG);• Veicoli a metanolo a celle a combustibile

(FC);• VCI a idrogeno;• veicoli a idrogeno a celle a combustibile;• veicoli elettrici;• veicoli ibridi.

L’impatto energetico e ambientale

Per pervenire a valutazioni realmente rap-presentative si deve tenere conto dell’inte-ra catena energetica, considerando le variefasi di produzione dell’energia finale a par-tire dalla fonte primaria, della sua trasmis-sione e distribuzione e dell’uso a bordo delveicolo per poter adeguatamente fornirel’energia e la potenza necessaria per ilmoto. Questo approccio, cosiddetto well towheels (“dal pozzo alle ruote”), è utilmentesuddiviso nelle due componenti principali:produzione del “combustibile” (well totank, che comprende tutte le fasi fino allastazione di servizio) ed uso a bordo (tankto wheels, che invece considera gli impattiassociati con l’uso del veicolo). Questa di-stinzione mira anche a caratterizzare glielementi più significativi di ciascuna tecno-logia per evidenziarne gli aspetti critici o

45COMPLESSITÀ & SVILUPPO 2003

VEICOLI A IDROGENO: STATO ATTUALE E PROSPETTIVE DI SVILUPPO

maggiormente favorevoli.In realtà un’analisi completa dovrebbecomprendere tutto il ciclo di vita del veico-lo, partendo dai materiali di base ed inclu-dendo tutte le fasi di assemblaggio e pro-duzione dei veicoli, il loro utilizzo ed infinela loro radiazione, con le relative fasi dismantellamento e recupero dei materiali.Tuttavia l’indisponibilità di indicazioni com-pletamente certe per parecchie dellenuove tecnologie, stante l’impossibilità dideterminare i processi di riferimento in al-cuni casi e la mancanza di dati affidabili inaltri, renderebbe alquanto complessa e la-cunosa un’analisi di tale genere.È invece molto più significativa un’analisiwell to wheels, che conduce a stime netta-mente più attendibili ed utilizzabili per scel-te di tipo strategico. Ciò non vuol dire cheun’analisi well to wheels sia estremamentesemplice, in quanto la valutazione degli im-patti e dei consumi delle tecnologie veico-lari dipende da numerosi parametri nontutti determinati o disponibili in manieraomogenea e confrontabile. Ad esempio, iveicoli hanno comportamenti e prestazioniche dipendono dalle loro caratteristiche(massa, coefficiente aerodinamico, areafrontale), dal loro uso (ciclo di lavoro e mis-sione tipica) ed infine dalle modalità in cuigli impatti sono calcolati. Studi specificiconfermano la necessità di adattamenti allediverse condizioni geografiche, tecnologi-che e/o politiche e di mercato e l’estrema

variabilità di tali valutazioni. Sono attual-mente disponibili modelli, codici di calcoloe studi che consentono un’analisi degli im-patti e delle emissioni well to wheels del si-stema veicolo/combustibile con riferimentoa diverse tipologie di tecnologie veicolari edi scenari evolutivi.In questo documento, partendo dai risultatidei diversi studi disponibili per le autovet-ture, che rappresentano di gran lunga lamaggiore componente del parco veicolare,e dalle condizioni tipiche italiane (mixenergetico, processi di produzione e distri-buzione del combustibile), si effettuerannole previsioni di sviluppo nel medio-lungotermine delle diverse tecnologie, inclusequelle convenzionali, per le combinazionidi veicoli e combustibili più interessanti, ri-portate in tabella 11.

Il consumo durante la produzione ed iltrasporto dei combustibiliL’energia richiesta per rendere disponibileil combustibile finale alla stazione di servi-zio dipende dalle caratteristiche del com-bustibile di partenza e dall’efficienza dellevarie fasi del processo di estrazione, pro-duzione e trasporto. La figura 14 mostra icollegamenti possibili tra fonti primarie,vettori energetici e veicoli.L’efficienza di estrazione del petrolio grez-zo e di gas naturale è intorno al 98%, men-tre l’efficienza media di trasporto varia tra il98,3% (petrolio) e il 99% (gas naturale).

46 COMPLESSITÀ & SVILUPPO 2003

M. CONTE, F. DI MARIO, A. IACOBAZZI, R. INFUSINO, A. MATTUCCI, M. RONCHETTI, R. VELLONE

Sistema di trazione del veicolo

Fonte di Termico Ibrido Celle a Elettricoenergia primaria Combustibile finale elettrico combustibile a batteria

Petrolio Benzina X XGasolio X XIdrocarburi vari X X

Gas naturale Gas naturale compressoGas naturale liquido X X X

GPL X XMetanolo X X XIdrogeno X X X

Rinnovabili Etanolo X XMetanolo X X XIdrogeno X X X

Varie Elettricità X XIdrogeno X X X

Tabella 11Combinazione di vei-coli e combustibiliesaminati

In raffineria il petrolio grezzo è trasformato,con un’efficienza media del 94% (90% perla benzina e 96% per il gasolio), in carbu-rante che viene poi trasportato alle stazionidi servizio con un rendimento medio del99,5% (trasporto per mezzo di autocister-ne a stazioni entro i 100 km dal luogo diproduzione).Il gas naturale è invece trasportato diretta-mente alle stazioni di servizio dove vieneaccumulato in forma gassosa (in contenito-ri sotto pressione con un rendimento ener-getico, per compressioni da 7 a 250 bar,pari al 98,8%) o in forma liquida (con unrendimento di liquefazione del 91%).L’energia elettrica è una forma di energiadi alta qualità, che può essere prodotta davarie fonti con rendimenti ed emissioniestremamente variabili, in dipendenzadelle fonti primarie e degli impianti di pro-duzione: il rendimento energetico medioper la produzione di energia elettrica, inEuropa, può essere collocato intorno al40% (in funzione del mix di generazione edell’anzianità degli impianti). Per trasferirel’elettricità all’utente finale è necessarioimpegnare ulteriore energia con un rendi-mento di trasmissione e distribuzione parial 93%.Infine, la produzione di idrogeno può esse-re effettuata con processi diversi (elettroli-si/dissociazione dell’acqua, steam refor-ming, ossidazione parziale) a partire dacomposti/fonti diversi (gas naturale, carbo-ne, petrolio, fonti rinnovabili, biomasse). Lafigura 15 riassume le possibili combinazio-ni tra processi, prodotti di partenza ed in-termedi.In funzione del processo scelto, interven-gono nella catena energetica le relative di-stribuzioni e passaggi intermedi (eventua-le compressione oppure liquefazione allesottostazioni di ricarica). In caso di produ-zione centralizzata ed a bordo i rendimentienergetici variano tra il 71 ed il 79%.Il processo di produzione tipico dell’idro-geno è lo steam reforming centralizzato dagas naturale, che è attualmente il più effi-

ciente (fino all’86% di efficienza energeticacon emissioni associate di CO2 pari a circa70 g/MJ prodotto).Una visione futura che ipotizzi l’instaurarsidi un’economia dell’idrogeno si fonda ov-viamente su soluzioni tecnologiche capacidi minimizzare o eliminare le emissioni diCO2 associate al processo di produzione.In particolare, si pensa alla separazione econfinamento della CO2, nel breve e mediotermine, ed alla utilizzazione esclusiva difonti rinnovabili nel medio-lungo termine.

Il consumo durante l’uso del veicoloLe prestazioni dei veicoli dipendono in mi-sura rilevante dalle condizioni di uso (ciclodi lavoro) e dalle caratteristiche del veicolostesso. Lo sviluppo tecnologico sta sempre

47COMPLESSITÀ & SVILUPPO 2003

VEICOLI A IDROGENO: STATO ATTUALE E PROSPETTIVE DI SVILUPPO

Petrolio

Carbone

Gas naturale

Nucleare

Biomasse

Geotermia

Solare

Eolico

Idroelettrico

BenzinaGPL

Idrogeno

Gas naturaleliquido/

compresso

Elettricità(batterie)

Ene

rgia

ele

ttric

a

Mot

ore

elet

tric

oM

otor

e co

mbu

stio

ne in

tern

a

Metanolo

Veicoli elettrici

Veicoli a cellea combustibile

Veicoli a gas

Veicoli a metanolo

Veicoli elettriciibridi

Veicoli a benzina,gasolio, GPL

Figura 14Percorsi dei combu-stibili e vettori ener-getici dalle fonti aiveicoli

Petrolio

Gas naturaleCarboneBiomasse

Raffinazione

Produzionechimica

Conversionegas aliquidi

Benzina (10 ppm S)

Produzione diretta

Metanolo

Nafta FT

Gasolio FT

Idrogeno

Idrogenoda riforma

NucleareSolareEolico

FotovoltaicoClassificazione

& reforming

Figura 15Processi di produ-zione dell’idrogeno

più cercando di migliorare le prestazionidei veicoli nelle diverse configurazionipossibili, mediante una progettazione mi-rata alle modalità di uso ed al combustibileda impiegare. La figura 16 mostra i rendi-menti dal pozzo alle ruote di alcune tipolo-gie di veicoli che sono state prese in consi-derazione nell’attuale confronto.Nella tabella 12 è infine fornita un’indicazio-ne sui rendimenti delle varie fasi a partiredalla fonte primaria alle ruote, passandoper il punto intermedio, ovvero la pompa didistribuzione. Per semplicità, i dati riportatiin tabella dal pozzo alla pompa includonotutte le fasi di lavorazione e trasporto.Occorre ricordare che i rendimenti indicatiin tabella sono estrapolati al 2010 da dati diletteratura ed includono i prevedibili svilup-pi e modifiche nella produzione dei com-bustibili e nelle prestazioni dei veicoli. Dallatabella si desume che il veicolo a benzina

ha il più basso rendimento totale, dove peròpesa in particolare il basso rendimento du-rante l’uso, mentre nel caso del veicolo elet-trico a batteria, che pure ha un rendimentomaggiore, avviene il contrario, pesando ne-gativamente la fase di produzione di ener-gia. Il veicolo a idrogeno utilizzante le cellea combustibile è caratterizzato da un rendi-mento complessivo più che doppio del vei-colo a benzina e ciò rende già interessantel’approfondimento dei confronti.

Le emissioni dei gasLe emissioni dovute alla produzione deicombustibili ed al loro uso nei veicoli sonodifficili da determinare, analogamente aquanto indicato per i consumi. In generale,la produzione di CO2, e più in generale deigas serra, è strettamente collegata ai rendi-menti dell’intera catena energetica. D’altraparte, le emissioni di vari agenti inquinantia livello locale, quali monossido di carbo-nio (CO), idrocarburi incombusti (HC) edossidi di azoto (NOx), dipendono in misurarilevante dai combustibili utilizzati, dallecaratteristiche dei veicoli e dai dispositiviper controllare le emissioni. La distinzionedelle emissioni nelle diverse fasi di produ-zione e distribuzione del combustibile edel suo uso a bordo del veicolo assumeuna particolare rilevanza pratica, in quantoè la base per capire ed individuare i luoghie le fasi in cui risulta particolarmente criti-co l’impatto del sistema dei trasporti.

Le emissioni di gas serraDalle considerazioni precedenti sui rendi-menti ed i consumi di energia, è possibiledeterminare per le varie tipologie di auto-veicoli le emissioni di gas serra. La figura17 presenta le proiezioni di riduzione delleemissioni di CO2 dei costruttori di veicolieuropei, in parte oggetto di un accordo vo-lontario con la Commissione Europea.La figura 18 presenta le emissioni distintetra quelle emesse durante la produzione edistribuzione del vettore energetico, equelle emesse durante l’uso del veicolo, ri-

48 COMPLESSITÀ & SVILUPPO 2003

M. CONTE, F. DI MARIO, A. IACOBAZZI, R. INFUSINO, A. MATTUCCI, M. RONCHETTI, R. VELLONE

VCIbenzina

VCIgasolio

VCIgas compr.

FCVmetanolo

VCI H2 FC H2 Elettrico(batterie)

Ibrido

Tecnologie

0%

10%

20%

30%

40%

50%

60%

70%

80%

90%

100%

13% 15%17% 19%

14% 15%22%

34%

14%19%

30%

41%

20%

49%

26% 29%

91%

73%

63%

96%91%

85%

41%

73%

Tank to WheelsWell to TankTotale

Figura 16Confronto efficien-ze delle tecnologieveicolari

Tecnologia/fase Well to tank Tank to wheel Well to wheel

Totale Veicolo Totale

VCI benzina 84,7% 15,0% 12,7%

VCI gasolio 90,8% 19,2% 17,4%

VCI gas naturale compresso 96,0% 15,0% 14,4%

Celle a comb. metanolo 63,2% 34,0% 21,5%

VCI idrogeno 73,5% 19,2% 14,1%

Celle a comb. idrogeno 73,5% 40,5% 29,8%

Elettrico a batterie 40,7% 49,5% 20,1%

Ibrido 90,8% 28,6% 26,0%

VCI = Veicolo con motore a combustione interna

Tabella 12Efficienza delle variefasi dal pozzo alleruote (well to wheels)

spetto al limite europeo al 2008.È evidente dal confronto dei risultati pre-sentati che i veicoli che utilizzano idrogenopuro e quelli elettrici a batteria non hannoemissioni di CO2 durante l’uso. Il livello piùbasso di emissione in assoluto corrispondeai veicoli ad idrogeno a celle a combustibi-le, mentre alte emissioni si ottengono dal-l’uso di veicoli ad idrogeno a combustioneinterna, in quanto pesa molto la fase di pro-duzione, che, si ricorda, è ipotizzata a par-tire dal gas naturale. La figura non tieneconto altresì della possibilità di separare esequestrare la CO2 prodotta. Ovviamente,in presenza di produzione da fonte rinno-vabile o con sequestro della CO2, gli anda-menti sarebbero molto diversi.

Le emissioni di gas regolamentate

Le attuali normative e regolamenti stannosempre più riducendo le emissioni degliautoveicoli durante il loro uso. La figura 19confronta i vari limiti di emissioni dei veico-li regolamentate in Europa (EURO III e IV) enegli Stati Uniti (TIER II) con le emissionipreviste per veicoli a celle a combustibilealimentati da idrogeno puro o metanolo.Si nota chiaramente che le emissioni deiveicoli a celle a combustibile sono nulle alpunto di uso, consentendo un salto di qua-lità rispetto alle pur ridotte emissioni con-sentite dalle nuove normative.

L’impatto economico

Considerazioni generali e ipotesi di base

Il calcolo dei costi delle tecnologie veicola-ri deve essere fatto considerando tutti glielementi che concorrono alla loro forma-zione. Essendo già state evidenziate le dif-ficoltà di effettuare valutazioni sull’interociclo di vita (è, infatti, del tutto velleitoriocalcolare i contributi ad esempio delleoperazioni di smaltimento di tecnologienon ancora ben definite), si procederà adun’analisi leggermente più ristretta, cheprende in considerazione il percorso “dalpozzo alle ruote” che è più facilmente

quantificabile. È importante segnalare che,per quanto attiene alle tecnologie veicolariinnovative, la loro introduzione forniscecontributi positivi allorquando si procedealla valutazione delle esternalità, soprattut-to per quanto attiene agli effetti ambientali.Il portare in conto le esternalità corrispon-de ad una tendenza che si sta sempre piùestendendo sulla base del principio del-l’internalizzazione degli impatti, ovverodell’assunzione che chi produce i danni ètenuto a farsi carico parzialmente o com-pletamente dei costi. Per procedere suquesta linea si deve associare alle varieesternalità un valore monetario che devetenere conto, in tutti i casi in cui ciò è possi-bile, anche di quanto occorre spendereper rimuovere gli impatti.

49COMPLESSITÀ & SVILUPPO 2003

VEICOLI A IDROGENO: STATO ATTUALE E PROSPETTIVE DI SVILUPPO

1995 2000 2005 2010 Anni

60

90

120

150

180

210 Ciclo ECE+EUDC

8

7

6

5

4

3

2 2

3

4

5

6

7Benzina Diesel

Commissione U.E.

Parlamento Europeo

MediaU.E.

L/10

0 km

CO

2 (g/

km)

CostruttoriACEA

Figura 17Proposte di riduzio-ne dei consumi edemissioni di CO2

VCI b

enzin

a

VCIg

asol

io

VCI g

as c

ompr

.

FCV

met

anol

o

VCI H

2

FCV

H 2

Elet

trico

(bat

t.)

Ibrid

o

Tipologia di veicoli

g/km

di C

O2

0

50

100

150

200

250

172,6

30,5

203,1

154,9139,4 133,0

138,5

15,5

44,1

75,0

119,1

172,4Limite accordo CE-ACEA di 140 g/km

111,7 135,2

135,210,4

93,7

104,1

Emissione durante l’uso del veicolo “Tank to wheel”Emissione alla produzione “Well to tank”

Figura 18Emissioni di CO2 diautoveicoli dal poz-zo alle ruote distin-te nelle fasi di pro-duzione del combu-stibile e di uso delveicolo

Per ogni tecnologia devono quindi essereportati in conto i contributi di costo asso-ciati ai seguenti elementi:• fonte energetica primaria, includendo sia

il costo del processo di trasformazione etrasporto sia le accise prevedibili;

• veicolo;• esternalità negative (rapportando le va-

lutazioni alle emissioni dei veicoli, piutto-sto che alle concentrazioni di inquinanti).

In realtà un ulteriore contributo alle ester-nalità negative è quello corrispondente al-l’utilizzo di risorse energetiche non rinno-vabili, che però è estremamente comples-so tenere in considerazione. Anche il costodelle infrastrutture non viene messo inconto, in quanto ciò creerebbe un’ulteriorepenalizzazione indebita per le fonti ener-getiche alternative e per l’idrogeno; infatti,per gli attuali carburanti sono già stati so-stenuti i costi per realizzare una rete capil-lare di stazioni di servizio e si può ragione-volmente affermare che il loro costo non in-cide più in modo significativo sul costo delcarburante (ovviamente per quanto attieneagli investimenti). D’altra parte i costi dioperazione si possono ritenere simili, percui l’effetto è l’aggiunta di un termine co-stante alle varie tecnologie. Parimenti, dalparagrafo precedente relativo alle barrie-re, anche il costo del veicolo ipotizzato in

corrispondenza di una presenza sul mer-cato per i veicoli ad idrogeno (e per le altretecnologie) non è caratterizzato da ampieescursioni. Ciò autorizza a semplificare ul-teriormente il calcolo, omettendo tale con-tributo dal computo, visto che l’obiettivonon è tanto quello di determinare un valoreassoluto di costo, ma piuttosto quello diconfrontare tra loro i costi delle tecnologie,in modo da determinare quali di esse po-trebbero avere le maggiori prospettive disuccesso. In tal modo il confronto divienepiù semplice, pur mantenendo un adegua-to livello di attendibilità.Il calcolo delle esternalità negative è un’o-perazione alquanto delicata, in quanto oc-corre parametrizzare i diversi impatti tra-sformandoli in grandezze tra loro omoge-nee. In genere ci si riconduce al calcolo dicosti equivalenti, ma spesso i parametri diconversione non sono né facilmente reperi-bili, né caratterizzati da livelli di attendibi-lità soddisfacenti (sia in termini assoluti, siain termini relativi, a causa di differenti livellidi determinazione dei vari parametri chepossono comportare grosse incertezzesulle valutazioni finali). Ulteriori elementiche devono essere tenuti in considerazionesono i seguenti:• un criterio di mera monetizzazione può

non sempre essere corretto, in quanto inmolti casi è comunque difficile esprime-re i costi, soprattutto perché non tutti iprocessi sono caratterizzati da un livelloadeguato di conoscenza;

• i costi vanno ad incidere su diversi sogget-ti, per cui le scelte degli utenti sono basatesu considerazioni che hanno alla base soloalcuni dei contributi di costo; per renderequindi più attendibili gli esiti dei confrontioccorrerebbe individuare nella realtà deimeccanismi capaci di ricondurre tutti icosti sostenuti all’utente finale.

In conclusione i costi risultanti, se da unaparte possono fornire un’idea più chiarasulla praticabilità di certe soluzioni, dall’al-tra devono essere comunque integrati daconsiderazioni aggiuntive per formulare

50 COMPLESSITÀ & SVILUPPO 2003

M. CONTE, F. DI MARIO, A. IACOBAZZI, R. INFUSINO, A. MATTUCCI, M. RONCHETTI, R. VELLONE

Tier II 2004 Euro III (benzina)2000

Euro III (diesel)2000

Euro IV(benzina 2005)

Euro IV (diesel)2005

Celle a comb.H2

Celle a comb.CH30H *

2500

2000

1500

1000

500

0

Em

issi

oni (

mg/

km)

0 0 0 0 0 4

* Valori misurati sulla NECAR 3

1100

80 100200150

2300

640550

1000

100 80

500

275

CO HC NOx + HCNOx

Figura 19Limiti di emissionir e g o l a m e n t a t edegli autoveicoli

giudizi corretti ed evitare distorsioni nellascelta delle tecnologie vincenti.La notevole letteratura disponibile33-39 hafornito il materiale di partenza per costrui-re le basi dei confronti.Per i costi delle tecnologie si ricorda che ilriferimento temporale è l’anno 2010, in cuitutte le tecnologie, comprese quelle dell’i-drogeno e delle celle a combustibile, sa-ranno giunte ad un sufficiente livello tecno-logico di sviluppo. Ciò comporta che i con-fronti siano effettuati considerando anche ilprevedibile miglioramento delle prestazio-ni delle tecnologie convenzionali, che do-vranno soddisfare nuovi requisiti in terminisia di emissioni di inquinanti (Euro IV edeventuali nuove direttive, benzene, conte-nuto di SO2 nei carburanti ecc.) sia di emis-sioni di CO2 (ad es. accordi volontari traCommissione Europea e costruttori di au-toveicoli).Concludendo, i costi saranno calcolati sullabase delle seguenti ipotesi:• per i costi della fonte primaria, il petrolio

si manterrà sugli attuali livelli (22-30$/barile), così come il gas naturale, men-tre i costi di raffinazione non subirannovariazioni sensibili;

• il costo dei carburanti includerà il contri-buto delle accise, e gli oneri fiscali dellafase di produzione;

• per l’idrogeno e il metanolo si assumerà

nulla l’incidenza delle accise per verifi-care che almeno teoricamente ci sianoprospettive di mercato;

• il costo delle autovetture rimarrà stabile,al netto dell’inflazione per i veicoli tradi-zionali, mentre quello dei veicoli innovati-vi sarà leggermente superiore; vista lapiccola differenza tale contributo nonsarà portato nel computo;

• non saranno portati in conto i costi opera-tivi (manutenzione, assicurazione, tassedi proprietà ecc.), in quanto si presumepossano incidere in modo simile sulcosto unitario, ad eccezione del consu-mo di carburante;

• si prenderà a riferimento un’autovetturadi media cilindrata;

• l’impatto ambientale sarà calcolato pren-dendo a riferimento una città di dimen-sioni medio-grandi (con numero di abi-tanti superiore a centomila), sia perché siriesce ad intercettare un segmento piutto-sto ampio della popolazione europea, siaperché in tal modo le stime possono as-sumere un carattere maggiormente con-servativo. Infatti, l’adozione di normativedi carattere ecologico e ambientale po-trebbero comportare l’esclusione dei vei-coli convenzionali dall’accesso alle cittàrendendo quindi ancora più vantaggiosoil ricorso a veicoli innovativi a emissionenulla o comunque molto ridotta.

51COMPLESSITÀ & SVILUPPO 2003

VEICOLI A IDROGENO: STATO ATTUALE E PROSPETTIVE DI SVILUPPO

CostoCosto Costo alla Costo Consumo unitario

Tecnologia Unità unitario pompa (A/GJ) (MJ/km) (A/1000 km)

VCI benzina t/1000l 389,5 1091,78 33,12 2,42 80,15

VCI gasolio t/1000l 356,41 885,72 24,58 1,89 46,45

VCI gas naturale compresso t/GJ 4,03 11,35 11,35 2,42 27,47

Celle a combustibile metanolo t/1000l 368,57 368,57 23,67 1,07 25,26

Elettrico a batterie t/kWh 0,07 0,1258 34,94 1,89 66,05

Ibrido t/1000l 356,41 885,72 24,58 0,90 22,03

Impianto centralizzato min. t/GJ 17,00 17,00 17,00 2,59 44,01con sequestro CO2 max t/GJ 20,00 20,00 20,00 2,59 51,78

VCI a idrogenoImpianto on-site min. t/GJ 15,00 15,00 15,00 2,59 38,84senza sequestro CO2 max t/GJ 30,00 30,00 30,00 2,59 77,67

Celle a Impianto centralizz. min. t/GJ 17,00 17,00 17,00 1,23 20,87a combustibile con sequestro CO2 max t/GJ 20,00 20,00 20,00 1,23 24,56a idrogeno Impianto on-site min. t/GJ 15,00 15,00 15,00 1,23 18,42

senza sequestro CO2 max t/GJ 30,00 30,00 30,00 1,23 36,83

Tabella 13Costi del consumo dicombustibili per levarie tecnologie

VCI = Veicolo con motore acombustione interna

Confronto dei costiSulla base delle efficienze “dal pozzo alleruote” riportate nella tabella 12 del para-grafo precedente, vengono determinati icosti del combustibile per le diverse tipo-logie di veicoli considerate. Tali costi pos-sono essere calcolati a partire dal costoalla pompa e dai consumi tank to wheels te-nendo conto delle varie unità di misura.I risultati sono indicati nella tabella 13, dovesi ricorda che sia per l’idrogeno sia per ilmetanolo sono nulli i contributi delle accise,che potrebbero gravare sul costo del com-bustibile alla stazione di servizio, in mododa verificare se tali vettori possono essere

competitivi almeno in linea teorica. È facileverificare che per questi carburanti il costounitario alla pompa è compreso nel venta-glio dei costi dei combustibili più tradiziona-li. Dalla tabella si può anche evincere che leindicazioni risultanti dei costi unitari deiconsumi favoriscono notevolmente l’adozio-ne dell’idrogeno, quando è usato con lecelle a combustibile, mentre dimostrano unaconvenienza limitata quando l’idrogeno èimpiegato nei motori di tipo convenzionale.Dati interessanti caratterizzano anche il me-tano che, al momento, risulta essere il com-bustibile avente il costo per unità di energiapiù basso, in corrispondenza di accise nulle.

52 COMPLESSITÀ & SVILUPPO 2003

M. CONTE, F. DI MARIO, A. IACOBAZZI, R. INFUSINO, A. MATTUCCI, M. RONCHETTI, R. VELLONE

Costo degli inquinanti (B/1000 km)

Gas serra Cancerogeni TotaleTipo veicolo (CO2 + CH4)

PM SO2 CO NOx (VOC) esternalità

VCI benzina 15,75 6,00 0,01 0,03 0,11 0,72 22,62

VCI gasolio 11,99 6,00 0,01 0,01 0,11 0,54 18,66

VCI gas naturale compresso 11,04 0,60 0,00 0,01 0,11 0,36 12,12

Celle a combustibile metanolo 9,34 0,90 0,01 0,00 0,11 0,13 10,49

Elettrico a batterie 10,46 0,00 0,00 0,00 0,00 0,00 10,46

Ibrido 8,06 3,63 0,01 0,00 0,07 0,33 12,09

VCI idrogeno con sequestro CO2 0,00 0,00 0,00 0,00 0,11 0,00 0,11

VCI idrogeno senza sequestro CO2 18,22 0,00 0,00 0,00 0,11 0,00 18,38

Celle a comb. idrogeno con sequestro CO2 0,00 0,00 0,00 0,00 0,00 0,00 0,00

Celle a comb. idrogeno senza sequestro CO2 8,64 0,00 0,00 0,00 0,00 0,00 8,67

Tabella 14Costi unitari delleemissioni veicolari

VCI = Veicolo conmotore a combustione

interna

0

20

60

80

100

120

Cost

i (e

/100

00 k

m)

* ConsequestroCO2

** SenzasequestroCO2

In colore valorimassimocosti per H2

Tecnologie

40

VCI b

enzin

a

VCI g

asoli

o

VCI g

as

FCV

met

anolo

Elet

trico

(bat

t.)

Ibrid

o

VCI H

2*

VCI H

2*

VCI H

2**

VCI H

2**

FCV

H2*

*

FCV

H2*

*

FCV

H2*

FCV

H2*

80

23

103

46

65

27

1912

40

25

10

36

10

66

22

12

0 0

34

44 4452 52

77

39

18 18 21 21

57

78

96

25 2518

27

9 9

37

46

costo generalizzatoimpatto esternitàcosti di operazione

Figura 20Confronto dei costidelle tecnologie vei-colari

Considerando l’impatto delle emissioni in-quinanti si ottiene la tabella 1440-43 dovesono indicati i costi unitari delle emissioni,per i vari prodotti ed il totale, ovviamenteriferendosi ad un ambito urbano.Il calcolo, per i gas serra, prende in consi-derazione l’emissione complessiva well towheels, mentre per gli inquinanti considerasolamente l’emissione prodotta dal veicolodurante l’uso, in quanto le fasi di produzio-ne dei carburanti interessano aree a bassadensità di popolazione e comunque posso-no essere adottati provvedimenti a valleper abbattere le emissioni nocive. In ognicaso l’effetto delle esternalità risulta esserecomplessivamente più piccolo del contri-buto relativo al consumo. Occorre anche ri-marcare che spesso gli impatti più bassidelle esternalità si associano alle soluzionienergeticamente più efficienti, per cui nemigliorano l’appetibilità.È utile sottolineare che, comunque, il con-tributo ambientale incide al momento inmodo relativo, ma è prevedibile che il suopeso possa crescere in futuro per la sem-pre maggiore attenzione della collettivitàverso gli effetti sulla salute. In tal caso lenuove tecnologie saranno ancora più av-vantaggiate e potranno assumere un ruolopiù importante, soprattutto se porzionisempre più ampie di tali costi saranno indi-rizzate direttamente verso i principali re-sponsabili degli impatti. Considerando inconclusione tutti i contributi si può costrui-re la figura 20, dove per le tecnologie rela-tive all’idrogeno sono riportate tutte lecombinazioni relative ai costi e al seque-stro o meno della CO2 emessa durante lafase di produzione.Dall’esame dell’ultima della figura si evin-ce facilmente che l’idrogeno nella configu-razione motore a combustione internacomporta costi complessivi piuttosto alti,appena inferiori a quelli dei veicoli a ben-zina. Perciò, anche se l’opzione nel brevetermine può essere presa in considerazio-ne, perché si devono introdurre modifichemolto limitate al sistema di trazione con

scarse ripercussioni sul costo del veicolo, alungo termine tale tecnologia non sembraavere grosse prospettive.Invece, nella configurazione in cui l’idroge-no è accoppiato alle celle a combustibile, icosti complessivi sono estremamente ri-dotti, anche quando l’opzione di sequestrodella CO2 non è attivata. Ciò dimostra chel’uso dell’idrogeno può essere un’opzioneeconomicamente praticabile, che potrà as-sorbire una quota significativa di mercato,anche perché con il crescere del numerodi veicoli le differenze di costo si ridurran-no sempre più, garantendo i vantaggi asin-totici indicati in figura.Ottimi risultati caratterizzano anche l’usodel metano per il quale valgono considera-zioni analoghe all’idrogeno utilizzato in mo-tori a combustione interna, ma che diversa-mente da quest’ultimo assicura già da subi-to un basso costo di operazione e ridottoimpatto ambientale. L’uso del metano po-trebbe favorire l’accettazione dei combusti-bili gassosi da parte degli utenti e fornireuna buona base per un successivo ingressonel mercato dei veicoli a idrogeno basatisulle celle a combustibile. Tra l’altro, da unampio uso del metano, si potrebbe averecome ricaduta la creazione delle infrastrut-ture necessarie per la distribuzione deicombustibili gassosi, di cui potrebbe bene-ficiare l’idrogeno, riducendo i costi per lacreazione delle proprie infrastrutture.

ConclusioniLa riduzione dell’impatto energetico e am-bientale del trasporto, soprattutto stradale,richiede interventi ad ampio spettro, chedevono riguardare sia la gestione della do-manda e del sistema nel suo insieme, chelo sviluppo di combustibili alternativi e dinuove tecnologie veicolari.L’impiego dell’idrogeno, in veicoli che uti-lizzano la tecnologia delle celle a combu-stibile, si presenta come una delle soluzionipiù promettenti per il medio-lungo termi-ne. Infatti lo sviluppo dell’idrogeno come

53COMPLESSITÀ & SVILUPPO 2003

VEICOLI A IDROGENO: STATO ATTUALE E PROSPETTIVE DI SVILUPPO

vettore energetico, ed il suo uso nei tra-sporti, può consentire, in prospettiva, unadiversificazione delle fonti impiegate (fos-sili nella prima fase, con successivo pas-saggio alle rinnovabili) ed una riduzione si-gnificativa delle emissioni, sia a livello loca-le, sia globale (gas serra). Le analisi ed iconfronti effettuati mostrano significativivantaggi, sia in termini energetici che am-bientali, dei veicoli a idrogeno rispetto allealtre tecnologie veicolari, pur tenendoconto per queste ultime della notevole evo-luzione prevista nel medio termine.Tali vantaggi spiegano gli ingenti sforzi, inatto da parte dei maggiori costruttori auto-mobilistici, con il sostegno pubblico, per losviluppo di veicoli che abbiano caratteristi-che competitive con quelli convenzionali,in termini di prestazioni e costi. I risultati fi-nora ottenuti, con la disponibilità di prototi-pi sempre più avanzati per le diverse cate-gorie di veicoli, fanno ritenere che possaaversi un avvio della commercializzazioneentro due-tre anni, in accordo con quantoprevisto dai costruttori più impegnati nelsettore, come DaimlerChrysler e Toyota.La penetrazione nel mercato sarà comun-que graduale e potrà assumere valori si-gnificativi solo dopo il 2010, man mano chesaranno superate le numerose barriere, siatecniche sia non tecniche, che la diffusionedi questa nuova tecnologia veicolare incon-tra. È necessario infatti che ulteriori miglio-ramenti dei componenti e del sistemasiano affiancati da azioni che portino a no-tevoli riduzioni dei costi, ad un’estesa di-sponibilità di idrogeno nel territorio, con lerelative infrastrutture di produzione e di-stribuzione, alla disponibilità di servizi diassistenza e manutenzione, all’adegua-mento della normativa, alla diffusione diinformazioni che favoriscano l’accettazionedella tecnologia da parte degli utenti. Taliazioni richiederanno investimenti ingenti edistribuiti su qualche decennio, sia daparte dei governi che delle aziende coin-volte a vari livelli.Anche in Italia è necessario produrre uno

sforzo organico in tal senso, superando laframmentarietà delle attività condotte fino-ra, se si vuole partecipare in maniera attivae con un ruolo significativo al processo disviluppo e commercializzazione di questanuova generazione di veicoli e, più in ge-nerale, delle tecnologie dell’idrogeno, cheappare sempre più come il vettore energe-tico del futuro.

Bibliografia01. Key World Energy Statistics. 2001 Edition,

http://www.iea.org/statist/key2001/keyworld-2001.pdf.

02. Z. SAMARAS, R. COFFEY, N. KYRIAKIS, G. KOUFODIMOS,F.J. WEBER, D. HASSEL, R. JOUMARD, Methodologiesfor estimating air pollutant emissions from tran-sport, Aristotle University Thessaloniki, MEETDeliverable 7, LAT Report 9829, Thessaloniki(1998).

03. Comunicato stampa, European EnvironmentalAgency, Copenaghen, 20 aprile 2001 http://org.eea.eu.int/documents/newsreleases/newsre-lease20010423-en.

04. Rapporto Energia e Ambiente 2001, ENEADirezione Studi, http://www.enea.it.

05. C. KOURIDIS, L.NTZIACHRISTOS, Z. SAMARAS, COPERTIII – V2.0 – User’s Manual, Tecnical Report, giu-gno 2000.

06. U.S. Department of Energy/Energy Efficiency andRenewable Energy, Office of Hydrogen, FuelCells, and Infrastructure Technologies, ProgressReport for Hydrogen, Fuel Cells, and Infrastruc-ture Technologies Program, novembre 2002.

07. FreedomCAR Partnership Plan, settembre 2002,www.cartech.doe.gov.

08. http://www.fuelcellpartnership.org.09. T. HIJIKATA, Research and development of interna-

tional clean energy network using hydrogenenergy (WE-NET), International Journal ofHydrogen Energy, 27 (2002) 115-129.

10. Japan Hydrogen & Fuel Cell DemostrationProject, http://www.jhfc.jp.

11. ISHITANI, M. DAITO, K. TANAKA, S. TANGE, Prospectfor Fuel cells Vehicles; a Japanese Perspective,Proceedings of Seventh Grove Fuel Cell Sym-posium, Londra, 11-13 settembre 2001; http://www.auto-asia.com/viewcontent.asp?pk =5897.

12. http://www.hydrogen.org/germanh2/index.html.13. B. ÁRNASON. T. I. SIGFUSSON, Iceland - A future hy-

drogen economy, International Journal ofHydrogen Energy, 25 (2000) 389-394.

14. Libro Verde Verso una strategia europea di sicu-rezza dell’approvvigionamento energetico, 2001,http://europa.eu.int/comm/energy_transport/it/lpi_it.html.

15. VI Programma Quadro, http://ftp6.cordis.lu;Gazzetta ufficiale delle Comunità europee, L294/1 del 29 ottobre 2002.

54 COMPLESSITÀ & SVILUPPO 2003

M. CONTE, F. DI MARIO, A. IACOBAZZI, R. INFUSINO, A. MATTUCCI, M. RONCHETTI, R. VELLONE

16. Fuel cell Bus Project, http://www.eu.web.de/fuel-cell-bus.

17. Brochure Cute Project, http://www.fuel-cell-bus-club.com/brochure1.pdf.

18. B. WALSH, Auto Companies on Fuel Cells,http://www.fuelcells.org/AutoCompanieonFuelCells.pdf.

19. http://gm.com/company/gmability/.20. http://www.hydrogen.org/news/gazette.html.21. Rassegna stampa DaimlerChrysler, http://www.

daimlerchrysler.com.22. Ectos Project, http://ectos.is.23. R. DEMPSEY, Fuel Cell Bus Workshop, New York,

27-28 aprile, 2000 .24. ALLIED BUSINESS INTELLIGENCE, ABI Updates Its

Automotive Fuel Cell Forecast for the ComingDecade, http://www.alliedworld.com/fce.html .

25. Rassegna stampa BWM Group, www.bmw-group.com .

26. R. WURSTEL, H. KNORR, W. PRÜMM, Bavarian LiquidHydrogen Bus Demonstration Project - Safety,Licensing and Acceptability Aspects, ‘HydrogenPower Now’ – 9th Canadian Hydrogen Con-ference, 7-10 febbraio 1999, Vancouver, BC,Canada.

27. H. KNORR, W. HELD, W. PRUMM, H. RUDINGER, TheMAN hydrogen propulsion systems for citybuses, International Journal of Hydrogen Energy23 (1998). 201-208.

28. http://www.herc.musashi-tech.ac.jp .29. K. PEHR, P. SAURMANN, O. TRAEGER, M. BRACHA,

Liquid hydrogen for motor vehicles - the world’sfirst public LH2 filling station, InternationalJournal of Hydrogen Energy 26 (2001) 777–782;http://www.hyweb.de/h2muc/introe.html.

30. W. HEUER, The TES project. A joint initiative for anadditional fuel infrastructures, J. of PowerSources 80, (2000) 158.

31. U. BÜNGER, Current Status and Perspectives ofHydrogen Energy Related Activities in Germany,Proceedings dell’International Conference onHydrogen Age of Asia, 27 - 28 novembre 2001,Tokyo (J).

32. C.E. THOMAS, B.D. JAMES, F.D. LOMAX, MarketPenetration Scenarios for Fuel Cell Vehicles, Int. J.Hydrogen Energy, Vol. 23, No. 10, pp. 949-966,1998.

33. R. RAUSO, Nuove tecnologie per il risparmio ener-getico: i nuovi carburanti, Conferenza AnnualeOCSE sul Trasporto Sostenibile, Alghero, 14-15giugno 2000.

34. Well to Wheel Energy Use and Greenhouse GasEmissions of Advanced Fuel/Vehicle Systems-North American Analysis, Executive SummaryReport, General Motors and alii, aprile 2001.

35. M. AHMAN, Primary Energy Efficiency of Alter-native Powertrains in Vehicles, Enery 26 (2001),pag. 973-989.

36. B. JOHANSSON, M. AHMAN, A Comparison ofTechnologies for Carbon Neutral PassengerTransport, Transportation Research Part D 7(2002), pag. 175-196.

37. J.J.J LOUIS, Well to Wheel Energy Use andGreenhouse Gas Emissions for Various VehicleTechnologies, SAE 2001 World Congress, marzo2001.

38. B. JOHANSSON, The Economy of Alternative Fuelswhen Including the Cost of Air Pollution,Transportation Research Part D 4 (1999,) pag.91-108.

39. P. MISZEY, E. NEWSON, Comparison of DifferentVehicle Powertrains, Journal of power sources102 (2001), pag. 205-209.

40. K.A. ADAMSON, P. PEARSON, Hydrogen andMethanol: a Comparison of Safety, Economics,Efficiencies and Emissions, Journal of powersources 86 (2000), pag. 548-555.

41. A. BAUEN, D. HART, Assessment of the Environ-mental Benefits of Transport and Stationary Fuelcells, Journal of power sources 86 (2000), pag.482-494.

42. I costi ambientali e sociali della mobilità in Italia -Quarto Rapporto”, Amici della Terra-Ferroviedello Stato – Anno 2002.

43. I Costi e i Benefici Esterni del Trasporto, ANFIA –ACI 2001.

55COMPLESSITÀ & SVILUPPO 2003

VEICOLI A IDROGENO: STATO ATTUALE E PROSPETTIVE DI SVILUPPO

&complessità sviluppo

&com

ple

ssità

svilu

ppo

Vengono riportate le analisi di evidenzesperimentali relative a possibili fenomeni nucleari a

bassa energia nella materia condensata.Storia, risultati salienti e una loro possibile

interpretazione teorica

VITTORIO VIOLANTE*EMILIO SANTORO**

FRANCESCA SARTO**LUIGI CAPOBIANCO***ALBERTO ROSADA****

ENEA* UTS Fusione,

** Tecnologie Fisiche Avanzate*** Ospite c/o i Laboratori ENEA di Frascati

**** UTS, Materiali e Nuove Tecnologie

Introduzioneai processi nuclearia bassa energia nella materia condensata

2003 Tratto da: ENERGIA, AMBIENTE E INNOVAZIONE 2/03

56 COMPLESSITÀ & SVILUPPO 2003

di palladio depositate su particolari sup-porti dielettrici, in presenza di deuteriogassoso hanno manifestato un evidente in-nalzamento di temperatura del letto con as-sociata produzione di 4He. Emissione diraggi X e forti spostamenti della composi-zione isotopica di alcuni elementi, talvoltaaccompagnati da produzione di eccesso dipotenza, sono stati osservati con esperi-menti elettrolitici condotti su film di metalliquali palladio e nichel; analoghi risultatisono stati ottenuti bombardando membra-ne o film sottili di palladio deuterato conparticelle cariche, come, ad esempio, ionideuterio. I risultati poc’anzi citati si riferi-scono ad esperimenti condotti in prestigiosilaboratori di ricerca governativi, universitario di grandi industrie. La scopo principale diquesta review è quello di offrire, prendendospunto dalle evidenze sperimentali, una vi-sione in grado di ricondurre l’insieme delleosservazioni, anche se apparentementemolto diversificate tra esse, all’interno diun’unica cornice teorica derivata dalla rap-presentazione dei fenomeni come processielettrodinamici in plasmi densi.La problematica verrà affrontata attraversouna iniziale esposizione delle principali ca-ratteristiche dei sistemi metallo idrogeno,con particolare riferimento agli idruri, a cuifarà seguito una trattazione del problemadella solubilizzazione dell’idrogeno e deisuoi isotopi nei reticoli metallici, sia attra-verso un’analisi delle problematiche relati-ve ai problemi di equilibrio termodinami-co, sia attraverso una trattazione teorica deiprocessi di non equilibrio legati alla cineti-ca diffusionale nel reticolo. Verranno quindiaffrontati gli aspetti di natura elettrodinami-ca, con particolare riferimento ai fenomenicollettivi degli elettroni e poi si esporrà unostudio, che parte, appunto, dalla naturaelettrodinamica dei fenomeni, al fine dipresentare sia una descrizione analitica dipossibili meccanismi collisionali, all’internodel reticolo, sia una interpretazione dellospostamento dei canali di reazione rispettoa quanto generalmente osservato nei pla-

57COMPLESSITÀ & SVILUPPO 2003

INTRODUZIONE AI PROCESSI NUCLEARI A BASSA ENERGIA NELLA MATERIA CONDENSATA

Adistanza di circa quattordici anni dall’an-nuncio dell’ottenimento di reazioni nucleariin reticoli metallici a temperatura ambiente,nonostante il generale scetticismo da partedella maggior parte della comunità scienti-fica internazionale, in numerosi e prestigio-si laboratori internazionali continua un inte-ressante lavoro di ricerca non privo di ri-sultati promettenti.A tale riguardo e con lo scopo di fornire siauna review dello stato dell’arte sia una pos-sibile interpretazione del fenomeno, sivuole affrontare il problema delle ReazioniNucleari a Bassa Energia nella materia con-densata nell’ambito di una descrizione ba-sata sullo studio dei processi nucleari chehanno luogo nei plasmi densi. La corniceteorica proposta, fondata su una visioneelettrodinamica dei fenomeni, riconduce lamateria condensata, nelle condizioni checaratterizzano il manifestarsi dei fenomenioggetto dello studio, ad un plasma denso.Gli argomenti esposti sono stati, nella quasitotalità dei casi, pubblicati (da alcuni degliautori) nella letteratura internazionale.Un rapido excursus sui risultati sperimen-tali più significativi può consentire di com-prendere la grande diversificazione degliapprocci sperimentali.Evidenze di fenomeni riconducibili a pro-cessi nucleari a bassa energia si sono ma-nifestate in esperimenti di calorimetria ac-compagnati da misure di 4He e raggi X, du-rante esperimenti elettrochimici con catodidi palladio (lamine o rod). Catodi a doppiastruttura hanno prodotto un imponentespostamento della composizione isotopi-ca, rispetto al valore naturale tra 3He e 4He.Esperimenti condotti stimolando con ultra-suoni un sistema di nano-particelle inacqua pesante hanno mostrato con chia-rezza una produzione di eccesso di poten-za e di 4He; analoghi esperimenti effettuatistimolando con luce laser un sistema dinano-particelle confinate in un ambiente dideuterio gas hanno evidenziato, con la me-desima chiarezza, una produzione di ec-cesso di potenza e di 4He. Micro-particelle

smi non densi o nel vuoto. Infine si affron-terà il problema generale dei fenomeni ditrasmutazione a bassa energia.

L’inizioDurante il mese di marzo del 1989 dueeminenti elettrochimici, M. Fleishmann e S.Pons, dettero l’annuncio della scoperta chenuclei di deuterio (D), confinati nel reticolometallico del palladio (Pd), davano luogo areazioni di fusione nucleare a temperaturaambiente (fusione fredda)1. Il fenomenoforniva essenzialmente eccesso di potenza(come produzione di eccesso di calore)durante il caricamento, in elettrolisi conacqua pesante, di catodi di palladio; l’entitàdel calore prodotto era tale da rendere dif-ficile se non impossibile una interpretazio-ne in termini di reazione chimica. I bilancidi energia portavano a concludere che perspiegare l’entità dell’eccesso era necessa-rio ritenere che esistessero legami chimicidell’ordine di diverse decine o centinaia dieV. La riproducibilità del fenomeno, tutta-via, risultava essere molto modesta.La reazione di fusione tra nuclei di deuterio(D) è stata ampiamente studiata nella fisicanucleare e i canali di reazione noti, quandoil processo avviene nel vuoto o in un pla-sma non denso sono:

D + D → n + 3He (3,3 MeV, probability 50%) (1)

D + D → p + T(4 MeV, probability 50%) (2)

D + D → 4He + γ(24 MeV, probability 10-6) (3)

Il primo step della reazione è sempre laformazione di un nucleo eccitato di 4He (in-stabile a causa dell’eccesso di energia);questo prodotto instabile decade, pertanto,secondo i canali (1-3).I gruppi di ricerca, che inizialmente studia-rono il fenomeno della fusione fredda, os-servarono produzione di eccessi di poten-za, con scarsa riproducibilità e senza signi-

ficativa emissione di prodotti di reazioneattesi, come previsto dai canali di reazionenoti.Neutroni e trizio, anche se con tecniche dif-ferenti, possono essere rivelati senza alcu-na particolare difficoltà, pertanto, nella faseiniziale degli studi, queste ceneri nuclearisono state cercate come firma del proces-so nucleare ritenuto responsabile dellaproduzione dell’ eccesso di potenza talvol-ta osservato. Tuttavia le misure dimostrava-no che la produzione di trizio e di neutroniera diversi ordini di grandezza minore delvalore atteso sulla base dell’eccesso di ca-lore prodotto.La scarsa riproducibilità, insieme all’as-senza di neutroni durante la produzione dieccesso di potenza, convinse la maggiorparte della comunità scientifica che il feno-meno annunciato era essenzialmente unerrore o, al più, un processo sconosciuto dinatura chimica. Tuttavia quest’ultima inter-pretazione obbligava ad accettare, comemenzionato poc’anzi, l’esistenza di legamichimici di diverse decine o centinaia di eV.Questa situazione dette origine ad unacontroversia che si manifestò attraversomolte conferenze e workshop durante ilprimo anno dopo l’annuncio. Alcuni presti-giosi laboratori furono coinvolti con il com-pito di investigare il fenomeno. Le rispostefurono, in generale, negative e la fusionefredda non fu accettata dalla comunitàscientifica e fu definita cattiva scienza. Soloalcuni laboratori decisero di continuare alavorare in questo campo così controverso.Nel 1991, in occasione della SecondaConferenza Internazionale sulla FusioneFredda, svoltasi a Como, lo scienziato sta-tunitense Melvin Miles, del Naval ResearchLaboratory, per primo, mostrò risultati chesottolineavano l’origine nucleare del feno-meno, attraverso una correlazione tra laproduzione di eccesso di potenza e la pro-duzione di 4He quale cenere nucleare2.Inoltre Miles dimostrò che durante la pro-duzione dell’eccesso di potenza venivanoemessi raggi X di bassa energia. Questo

58 COMPLESSITÀ & SVILUPPO 2003

V. VIOLANTE, E. SANTORO, F. SARTO, L. CAPOBIANCO, A. ROSADA

risultato, anche se ottenuto con scarsa ri-producibilità, fu molto importante, in quan-to dimostrava che la reazione D + D, nel re-ticolo del palladio, avveniva con produzio-ne di 4He e calore, seguendo, pertanto, uncanale di decadimento diverso rispetto aquelli relativi alla stessa reazione quandoessa decorre nel vuoto o in un plasma nondenso. Questa situazione era stata, peraltro,prospettata teoricamente dal fisico italianoGiuliano Preparata3.La modesta riproducibilità fu la principaleragione per cui la fusione fredda fu respin-ta dalla comunità scientifica internazionale,anche se è lecito ricordare che la storiadella scienza insegna che, talvolta, la mo-desta riproducibilità non impedisce cheuna nuova scoperta o un nuovo fenomenovengano accettati come tali. Parlando di ri-producibilità è stato detto4: ”(...) Cosa si-gnifica riproducibile? Consideriamo unsemplice esperimento da banco. Quandolo conduciamo scegliamo un campione edefiniamo una procedura, quindi otteniamodei risultati. Se riusciamo ad ottenere glistessi risultati utilizzando lo stesso tipo dicampione e la stessa procedura possiamodire che l’esperimento è riproducibile. Unostadio successivo consiste nel descriverel’esperimento in una pubblicazione scienti-fica, in maniera tale che ogni altro ricerca-tore che effettua lo stesso esperimento, ba-sandosi sul contenuto della pubblicazione,ottenga gli stessi risultati. Immaginiamo oradi condurre il nostro esperimento, pren-dendo nota accuratamente dei suoi para-metri (campione e procedura), tuttavia,questa volta, la ripetizione dell’esperimen-to non consente di ottenere gli stessi risul-tati; in questo caso l’esperimento risulta es-sere irriproducibile. Esistono due possibilispiegazioni: o il primo esperimento erasbagliato oppure non abbiamo usato uncampione identico e/o non abbiamo segui-to la stessa procedura. Se il riesame delprimo esperimento conduce alla conclu-sione che la misura era corretta e attendi-bile non resta che accettare la seconda

spiegazione. A tal punto ha inizio una ulte-riore fase della nostra ricerca: possiamocercare di comprendere quali siano gliaspetti, mal compresi, nella scelta del cam-pione e della procedura, che possono avercondizionato i risultati. Non è corretto affer-mare, come molti hanno fatto per la fusionefredda, che l’assenza di riproducibilitàequivale ad un esperimento errato. (...)”.Nel 1992, presso il Centro Ricerche ENEAdi Frascati, furono condotti esperimenti,con un accurato calorimetro a flusso, utiliz-zando elettrodi ottenuti da una lamina dipalladio. I primi tre esperimenti, per i qualisi utilizzava la stessa procedura, dettero,senza ombra di dubbio, evidenza di produ-zione di eccesso di potenza molto al diso-pra della potenza immessa, con un segnaleche era circa due ordini di grandezza piùelevato dell’errore sperimentale.Purtroppo il palladio a disposizione nonconsentì di realizzare più di tre elettrodi,pertanto, una volta utilizzato il materiale di-sponibile, si rese necessario l’acquisto diuna nuova lamina di palladio, la quale, puravendo le stesse caratteristiche commer-ciali della prima, proveniva da un diversobatch di produzione. La nuova serie diesperimenti, condotti con il nuovo materia-le, osservando la stessa procedura adope-rata nella prima serie, non fornì alcun ec-cesso di potenza significativo dopo setti-mane di elettrolisi.Questa esperienza, alla luce dei risultati ot-tenuti, mostrava, come vedremo nel seguito,che il fenomeno della fusione fredda è un fe-nomeno a soglia. Ciò indusse ad intrapren-dere uno studio sugli aspetti metallurgici delpalladio e sui meccanismi di trasporto degliisotopi dell’idrogeno nel reticolo.

Gli sviluppi storici e lo statodell’arteNel 1993, nel corso della Terza ConferenzaInternazionale sulla Fusione Fredda, unaltro scienziato statunitense, M. McKubredello Stanford Research Institute della

59COMPLESSITÀ & SVILUPPO 2003

INTRODUZIONE AI PROCESSI NUCLEARI A BASSA ENERGIA NELLA MATERIA CONDENSATA

California, mostrò un altro importante risul-tato con il quale si metteva bene in eviden-za che la produzione di eccesso di potenzaera un fenomeno a soglia, il quale avevaluogo, a temperatura ambiente, solo quan-do la concentrazione del deuterio nel pal-ladio, espressa in frazione atomica, risulta-va circa eguale all’unità5. Inoltre, i dati spe-rimentali mostravano anche che, al disopradella soglia di innesco, l’eccesso di poten-za aveva un comportamento parabolico ri-spetto all’aumentare della concentrazionedi deuterio. Tale risultato fu di importanzafondamentale per lo sviluppo degli studi discienza dei materiali svolti presso iLaboratori ENEA di Frascati nell’ambito delprogramma di ricerca sulla fusione fredda.Si comprese l’importanza, ai fini della ri-producibilità, della conoscenza dello statodel materiale metallico. L’attenzione si spo-stò quindi dal problema della riproducibi-lità della produzione di eccesso di potenzaa quello della riproducibilità delle condi-zioni in cui questo fenomeno aveva luogo.Questa impostazione, nel tempo, è risultataessere molto efficace ai fini del controllodel fenomeno e della sua riproducibilità, inparticolare su campioni robusti di palladio,quali, ad esempio, lamine e membrane,per i quali, alla fine del 1996, si raggiunse

una riproducibilità quasi totale della produ-zione di eccesso di potenza.Nel seguito, una parte del lavoro di ricercafu svolta sia sulla identificazione della strut-tura metallurgica più idonea all’ottenimentodi elevate concentrazioni di deuterio e/oidrogeno nel palladio, sia sulla compren-sione teorica dei meccanismi controllanti ilprocesso di solubilità e diffusione del gasnel metallo6-9. Una considerevole produzio-ne scientifica è stata sviluppata, nel recen-te passato, al fine di ottenere una correla-zione tra l’eccesso di potenza osservato ela quantità di 4He prodotto dalla reazione difusione ritenuta responsabile della produ-zione dell’eccesso di potenza10-12. I risulta-ti, ottenuti con sperimentazioni rigorose,hanno mostrato, al di là di ogni ragionevoledubbio, l’esistenza di un nesso evidente tral’anomalia termica e la produzione di 4He,nonché l’emissione di raggi X di bassaenergia contestualmente al fenomeno ter-mico.Uno sviluppo ulteriore della sperimenta-zione, in tale direzione, si è ottenuto utiliz-zando catodi a doppia struttura realizzati esperimentati presso l’Università di Osaka esuccessivamente sperimentati anche pres-so Lo Stanford Research Institute dellaCalifornia (SRI)13-14. La particolarità dei ca-todi a doppia struttura risiede nel fatto chedelle nano-particelle di palladio poroso(palladium black) vengono alloggiate in ci-lindri di palladio con pareti spesse alcunimillimetri, in grado di sopportare l’elevatapressione di deuterio (500-1000 atm) chesi raggiunge all’interno del cilindro durantel’elettrolisi in acqua pesante.Tali esperimenti evidenziarono molto chia-ramente che nella materia condensata po-tevano aver luogo processi nucleari abassa energia, in quanto fu possibile rivela-re un fortissimo spostamento (fino ad unfattore superiore a 40.000), rispetto al valo-re naturale, del rapporto isotopico 3He/4He.Lo studio dei profili di concentrazione di3He nel metallo fecero comprendere chequesto isotopo dell’elio era stato prodotto

60 COMPLESSITÀ & SVILUPPO 2003

V. VIOLANTE, E. SANTORO, F. SARTO, L. CAPOBIANCO, A. ROSADA

Figura 1Eccesso di potenza infunzione della con-centrazione di deu-terio nel palladio(frazione atomica)(risultato ottenuto da M.C. H. McKubre allo SRI –USA)

dal decadimento del trizio (isotopo ra-dioattivo dell’idrogeno non presente in na-tura), del quale, in esperimenti di fusionefredda, era già stata segnalata la presenzain quantità non spiegabili con normali pro-cessi di arricchimento isotopico. Catodi adoppia struttura sono stati realizzati anchepresso i Laboratori ENEA di Frascati e spe-rimentati, con successo, presso l’SRI15.Alcuni gruppi di ricerca preferirono con-centrare la loro attenzione su anomalie ter-miche che si manifestavano in alcuni espe-rimenti elettrochimici nei quali venivanousati acqua leggera e catodi realizzati confilm sottili metallici. A tale proposito, unostudio effettuato dal Fusion Studies Labo-ratory dell’Università dell’Illinois evidenziòuna variazione della composizione isotopi-ca di alcuni elementi presenti nei film me-tallici utilizzati. Studi analoghi sono staticondotti anche presso l’Università del-l’Okkaido in Giappone16. Tuttavia, moltecritiche furono mosse nei riguardi di questiesperimenti, in quanto fu detto che i pro-cessi di elettrodeposizione potevano pro-durre inquinamenti dei film catodici capacidi ridurre fortemente il rapporto segnalerumore. Per questo motivo, gli sviluppi suc-cessivi di questi studi furono articolati inmaniera tale da rimuovere tali dubbi, moni-torando alcuni elementi marcatori e ricor-rendo a sofisticate tecnologie per il control-lo di eventuali inquinamenti al fine, appun-to, di elevare quanto più possibile il rap-porto segnale/rumore.Un importante lavoro, con deuterio gasso-so ed isotopi marcatori è stato svolto pres-so il centro ricerche della Mitsubishi17. Conuna misura XPS (spettroscopia di fotoemis-sione mediante raggi X) è stata seguita l’e-voluzione di isotopi marcatori depositatisulla superficie di un film sottile di palladio,depositato su un sottile strato di CaO, sup-portato a sua volta da una membrana di Pd.Sui campioni ove era stato depositato Cs siè osservata una progressiva diminuzionedel Cs con comparsa di Pr, mentre suicampioni sui quali era stato depositato Sr si

è osservata, in maniera analoga, una pro-gressiva diminuzione dello Sr con compar-sa di Mo. Presso l’ENEA sono stati condotti,da chi scrive, esperimenti in elettrolisi sufilm sottili, rivolti a rivelare emissioni diraggi X e variazioni della composizioneisotopica di alcuni elementi marcatoricome ad esempio Cu, Zn e Ag18. Le misurecondotte utilizzando un laboratorio classe1000 e materiali puri, hanno consentito dielevare il rapporto segnale/rumore e di ri-velare quindi una emissione di raggi X, nelrange di energia compreso tra 2 e 20 keV,da parte di elettrodi a film sottile i quali, al-l’analisi SIMS (spettroscopia secondaria io-nica di massa) o a quella di attivazioneneutronica, hanno manifestato una forte va-riazione della composizione isotopicadegli elementi marcatori.Una particolare attenzione meritano i re-centi risultati ottenuti da Y. Arata del-l’Università di Osaka19, il quale è riuscito,stimolando con ultrasuoni nano-particelledi Pd poste in un bagno di acqua pesante,ad ottenere una notevole produzione di ec-cesso di potenza, accompagnata da unaproduzione di 4He, riconducibile ad un pro-cesso di fusione D + D, quale responsabiledel fenomeno termico. Lo stesso Arata hapoi ottenuto un analogo risultato stimolandocon luce laser nano-particelle di Pd a con-tatto con deuterio gassoso. Questi ed altririsultati, nel corso degli anni, hanno contri-buito a sostenere l’idea che nella materiacondensata possano aver luogo, a bassaenergia, processi nucleari, con modalità epercorsi differenti rispetto a quelli tipici deiplasmi prodotti in laboratorio.

Materia condensata edecadimento nucleareÈ stato detto che occorrono tre miracoliper poter spiegare il decorrere di processinucleari, come la fusione D + D e più in ge-nerale reazioni a bassa energia, nella mate-ria condensata. Il primo miracolo è un au-mento imponente della probabilità che av-

61COMPLESSITÀ & SVILUPPO 2003

INTRODUZIONE AI PROCESSI NUCLEARI A BASSA ENERGIA NELLA MATERIA CONDENSATA

venga una reazione nucleare. Se consideria-mo, ad esempio, la reazione D + D poc’anzimenzionata ed estrapoliamo alle basseenergie le probabilità di reazione note perle alte energie, troviamo che la probabilitàper questo evento è più bassa di oltre 50 or-dini di grandezza rispetto alla probabilità at-tesa in base all’eccesso di potenza misurato.Pertanto, non dovrebbe esservi alcuna pos-sibilità che avvenga una reazione di fusioneD + D a temperatura ambiente.Il secondo ”miracolo” riguarda l’assenza diuna adeguata produzione di trizio e di neu-troni, in grado di giustificare la produzionedi eccesso di potenza in termini della notareazione di fusione tra nuclei di deuterio.Occorre pertanto assumere che le proba-bilità relative delle tre branche (1-3) sonoprofondamente modificate, dando luogo alseguente scenario: le prime due branchediventano altamente improbabili, mentre laterza, che porta alla formazione di 4He,raggiunge una probabilità, che general-mente è circa del 100%.L’assenza di produzione di raggi γ, tipicadella terza branca, rende obbligatoria l’ac-cettazione del terzo ”miracolo”: l’eccessodi energia, che è pari a 24 MeV per evento,è trasformato, in qualche maniera, in calo-re, il quale viene poi rilasciato ad una re-gione del reticolo sufficientemente estesada poter essere considerata come un re-servoir infinito.Nel prosieguo verrà proposto uno sviluppoteorico in grado di fornire una possibilespiegazione dei tre miracoli, i quali, in lineadi principio, possono essere chiamati incausa per lo studio di altri processi nuclearia bassa energia osservati nella materiacondensata. Con riferimento alla reazione difusione tra nuclei di deuterio, possiamo direche la cenere nucleare attesa è proprio 4He;per questo motivo la ricerca sulla misura dielio ha assunto una importanza rilevantenello scenario più generale della ricerca diceneri quale firma del decorrere di fenome-ni nucleari nella materia condensata.Accettare i tre miracoli non comporta, in

nessun caso, la violazione delle leggi fon-damentali della fisica: ad esempio, massaed energia si conservano.La cornice interpretativa generale devebasarsi sul fatto che proprio lo svolgersidei fenomeni nella materia condensata, in-vece che in un plasma o nel vuoto, costitui-sce la differenza.Il problema fondamentale diventa il se-guente: possiamo accettare che una strut-tura atomica, come un reticolo metallico,condizioni, in qualche maniera, il percorsodi un processo nucleare? E come?È noto che il sistema atomico è caratteriz-zato da distanze, tempi ed energie rispetti-vamente dell’ordine di 10-10 metri, 10-12 se-condi e 100 eV. Di contro, il sistema nuclea-re è caratterizzato da distanze, tempi edenergie rispettivamente dell’ordine di 10-15

metri, 10-20 secondi e 106 eV.Apparentemente, i due sistemi sembranoincapaci di interagire. Tuttavia esistono dueesempi di interazione tra questi due uni-versi ben noti e comunemente accettati. Ilprimo è l’Effetto Mossbauer, riguardantel’emissione di fotoni (raggi γ) da un nucleoeccitato, il quale, decadendo allo stato fon-damentale, trasferisce in questo modo l’e-nergia in eccesso. In alcune circostanze,caratterizzate dallo stato microscopico delreticolo nel quale è confinato il nucleo chedecade, questa emissione avviene con ca-ratteristiche differenti rispetto a quando lostesso decadimento avviene nel vuoto. Ilreticolo assorbe completamente – com-portandosi come un tutt’uno – l’energia dirinculo del nucleo, dando luogo ad una si-gnificativa variazione della riga di emissio-ne. È opportuno, a tale riguardo, sottolinea-re che le energie coinvolte nell’EffettoMossbauer sono dell’ordine dei keV, men-tre le energie tipiche in gioco in un proces-so di fusione sono dell’ordine dei MeV.Tuttavia, da un punto di vista qualitativo, èsignificativo che tutti gli atomi di un cristal-lo partecipino per assorbire l’energiaemessa durante una emissione fotonica.Altro esempio di interazione (elettrodinami-

62 COMPLESSITÀ & SVILUPPO 2003

V. VIOLANTE, E. SANTORO, F. SARTO, L. CAPOBIANCO, A. ROSADA

ca) tra atomi e nuclei è il processo di con-versione interna: esso interviene sul deca-dimento di un nucleo eccitato il quale, inve-ce di trasferire il proprio eccesso di energiaattraverso una emissione γ, preferisce, conuna certa probabilità, un accoppiamentocon un elettrone di shell K, che viene emes-so come β–. È stato osservato che la proba-bilità di decadimento per conversione in-terna è condizionata dall’ambiente chimicoche circonda il nucleo che decade.Vedremo che per spiegare la genesi di rea-zioni nucleari nella materia condensata edil decadimento dei nuclei prodotti, si potràchiamare in causa un meccanismo elettro-dinamico. Da un lato esso infatti assicura ilsuperamento della barriera Colombiana,dall’altro consente un accoppiamento tra ilnucleo che decade ed il reticolo.

Aspetti di scienza dei materialiNel corso degli ultimi quattordici anni, lostudio dell’interazione degli isotopi dell’i-drogeno con i metalli ha guadagnato un in-teresse crescente tra gli elettrochimici, i fi-sici dello stato solido, i fisici nucleari, i me-tallurgisti, gli ingegneri dei materiali e tuttiquei ricercatori che contribuiscono a trova-re una ragionevole interpretazione dei fe-nomeni nucleari che avvengono nella ma-teria condensata a bassa energia. Un siste-ma metallo-idrogeno è costituito da un me-tallo, da idrogeno in fase gassosa o con-densata e da una interfase. Il primo ap-proccio alla materia richiede la conoscen-za del meccanismo di reazione dell’idro-geno all’interfase e del processo diffusivodi trasferimento di materia nel reticolo me-tallico che poi conduce alla formazione diuna soluzione solida.Un idruro metallico è definito come unasingola fase composta da un metallo ospitee da idrogeno, come ad esempio: PdH0.66,MgH2, LaNi5H6.5. La conoscenza delle pro-prietà di questi materiali e gli effetti isoto-pici indotti dalla dissoluzione di deuterio etrizio, sono aspetti fondamentali di questo

studio. Nel prosieguo, lo studio di partico-lari sistemi metallo-idrogeno consentirà diindagare la possibilità che due particelleconfinate nel reticolo (ad esempio protonio deutoni) possano avvicinarsi fino al puntoda produrre una reazione nucleare20-25.In figura 2 è mostrata una schematica rap-presentazione mono-dimensionale dell’i-drogeno gassoso che si solubilizza (absor-be) in un metallo. Una molecola di idroge-no che si avvicina al metallo può esseredissociata all’interfase, adsorbita da oppor-tuni siti superficiali e absorbita nei siti in-terstiziali del metallo ospite. Quando laconcentrazione locale dell’idrogeno supe-ra un certo limite, precipita una fase idruro.Durante il caricamento elettrochimico, lapolarizzazione catodica del metallo ospiteproduce una reazione in cui un trasferi-mento di elettroni trasforma l’H2O adsorbi-ta in H e OH adsorbiti.La termodinamica della formazione degliidruri è descritta dalle isoterme pressione-composizione, mostrate in figura 3.L’idrogeno si solubilizza nel metallo comesoluzione solida (fase α). La concentrazio-ne di idrogeno nel metallo aumenta all’au-mentare della pressione esterna di H2, con-seguentemente inizia a formarsi la fase β.Se l’interfase è elettrochimica, il potenzialeelettrochimico sostituisce la pressione del-l’idrogeno secondo una legge tipo Nernst,come si vedrà nel seguito.La coesistenza delle due fasi è caratterizza-

63COMPLESSITÀ & SVILUPPO 2003

INTRODUZIONE AI PROCESSI NUCLEARI A BASSA ENERGIA NELLA MATERIA CONDENSATA

Figura 2Rappresentazioneschematica della dis-sociazione di idroge-no molecolare all’in-terfase metallica edissoluzione dell’i-drogeno atomico nelbulk

ta da un plateau: la sua estensione determi-na quanto idrogeno può essere accumulatocon una piccola variazione della pressione.La regione di coesistenza delle due fasi hatermine al punto critico Tc. Il plateau peq(T)dipende fortemente dalla temperatura.La maggior parte dei reticoli metallici siespande durante il processo di dissoluzionedell’idrogeno; il cristallo si modifica in ma-niera significativa e si forma un sottoreticoloidrogeno. L’effetto isotopico produce un au-mento della pressione di equilibrio del deu-terio e del trizio rispetto a quella dell’idro-geno. La posizione di equilibrio dell’idroge-no e dei suoi isotopi nei siti interstiziali è ot-tenuta sperimentalmente mediante diffra-zione neutronica; non esiste evidenza speri-mentale di cluster di idrogeno negli idruri.In figura 4 è mostrata la cella elementaredel reticolo del palladio (cubico a faccecentrate, gli atomi del metallo sono con-trassegnati dalle sfere bianche), gli atomidi idrogeno formano l’idruro collocandosinei siti ottaedrici che si trovano sugli spigo-

li della cella, al centro tra due atomi di pal-ladio. Durante il processo diffusivo, a tem-peratura prossima a quella ambiente, gliatomi di idrogeno diffondono da un sito ot-taedrico ad un altro, superando una barrie-ra di energia di circa 0,2 eV. Le posizionicontrassegnate dalle sfere scure sono i sititetraedrici, accessibili all’idrogeno, comevedremo nel seguito, ad elevate concentra-zioni e attraverso il superamento di unabarriera di di energia di 0,3 eV.Il primo passo verso la formazione dell’i-druro metallico e della soluzione solida daidrogeno gassoso molecolare o da carica-mento elettrochimico avviene alla superfi-cie del metallo ospite. L’interazione di H2

consiste di una adesione della molecolaalla superficie, di un chemiadsorbimentodissociativo, di un processo di diffusionesuperficiale e di dissoluzione nella regioneprossima alla superficie o nel bulk del me-tallo. La dissoluzione dell’idrogeno nel me-tallo, a cui segue la formazione dell’idrurometallico, perturba fortemente gli elettronied i fononi(1) del reticolo ospite. Gli effettiosservati più rilevanti sono:1. l’espansione del reticolo, la quale spes-

so comporta una variazione della strut-tura del cristallo;

2. il potenziale attrattivo dei protoni influen-za quelle funzioni d’onda del metallo chehanno una densità finita nei siti dell’idro-geno e conduce alla formazione dellabanda relativa ai legami idrogeno-me-tallo, al disotto della banda-d del metallo;

3. l’apporto di elettroni prodotto dall’in-gresso degli atomi H produce uno spo-stamento del livello di Fermi.

Gli atomi di idrogeno disciolti nel metallodànno luogo a fenomeni di trasporto conscale temporali molto diverse da quelle tipi-che degli atomi metallici. Gli atomi H vibranonei siti interstiziali a frequenze molto più ele-vate di quelle tipiche degli atomi metallici vi-

64 COMPLESSITÀ & SVILUPPO 2003

V. VIOLANTE, E. SANTORO, F. SARTO, L. CAPOBIANCO, A. ROSADA

Figura 3Isoterme pressionecomposizione per lasoluzione solida diidrogeno con forma-zione dell’idruro

Figura 4Cella elementare delreticolo del palladio

1 I modi di vibrazione degli atomi del reticolo vengono chia-mati fononi e sono il corrispondente vibrazionale “meccani-co” dei fotoni, quanti di radiazione elettromagnetica.

cini, con ampiezze dell’ordine di 0,1-0,2 Å.Un atomo di idrogeno, dopo numerose oscil-lazioni in un sito, può saltare in un altro sito.Poiché il palladio è il metallo maggiormen-te investigato, nel prosieguo verrannoesposte le caratteristiche salienti di questomateriale a seguito di una idrurazione.

a) È stato osservato26-27 che tra x = 0,6 e x≈ 1 il coefficiente di diffusione dell’idro-geno nel palladio aumenta di almenodue ordini di grandezza fino a 10-6 cm2/s.

b) È noto28-29 che la variazione di volume(∆V/V) della cella reticolare del palladioin funzione della concentrazione di idro-geno è una linea retta, la quale mostra undeciso cambio di pendenza in prossi-mità di x = 0,8, il che indica una diversainterazione con il reticolo.

c) Misure di suscettività magnetica e di ca-lore specifico elettronico30 mostrano chela densità degli stati al livello di Fermi di-minuisce quando aumenta il contenuto diidrogeno. Tuttavia, misure di effetto Hall31

mostrano una rapida diminuzione dellacostante di Hall intorno a x = 0,83, in cor-rispondenza di un aumento della resisti-vità elettrica. Questa evidenza porta aritenere che alle elevate concentrazionialtri portatori di carica, come le lacuneelettroniche, contribuiscano alla conduci-bilità del materiale. La variazione dellaresistività dell’idruro di palladio consentedi stimare il livello di concentrazione diidrogeno nel reticolo. L’andamento dellaresistenza elettrica dell’idruro di palladio,in funzione della concentrazione di idro-geno (deuterio) è mostrato in figura 5.

d) La configurazione elettronica del palla-dio è [Kr]4d10; comunque il suo compor-tamento metallico conduce all’ibridizza-zione con la banda 5sp. Gli elettroniriempiono la banda 4d fino al livello del-l’energia di Fermi, lasciando 0,36 statidisponibili per atomo di palladio al topdella banda. Nel composto palladio-idrogeno gli elettroni riempiono ungruppo di stati al disotto del livello di

Fermi30, quindi riempiono gli stati nellebande 4d e 5sp. Questa è una operazio-ne dal basso costo energetico fino aquando sono accessibili stati liberi ecoincide con il plateau dell’isoterma diadsorbimento della figura 3. Dopo di-venta obbligatorio un innalzamento del-l’energia di Fermi, il che è in generemolto costoso in termini di bilancio dienergia per il sistema e si traduce in unabrusca variazione della pendenza delleisoterme, come risulta dalla figura 3.

Queste caratteristiche mostrano che la dis-soluzione degli isotopi dell’idrogeno in unmetallo come il palladio modifica fortementeil sistema e le proprietà del sistema, anchese in questi termini non esiste evidenza di unmeccanismo in grado di produrre una inte-razione nucleare tra isotopi dell’idrogenoconfinati nel reticolo, in quanto, sulla basedelle conoscenze disponibili, la distanza trale particelle resta dell’ordine di alcuni Å.Nel prosieguo si vedrà che, un meccani-smo capace di ridurre queste distanze puòessere ricondotto al comportamento coe-rente degli elettroni al livello di Fermi.

Equilibrio termodinamico esolubilità dell’idrogeno neimetalliLa termodinamica ed i fenomeni di equili-brio che caratterizzano i sistemi metalloidrogeno sono aspetti fondamentali sia perlo studio della riproducibilità della soglia di

65COMPLESSITÀ & SVILUPPO 2003

INTRODUZIONE AI PROCESSI NUCLEARI A BASSA ENERGIA NELLA MATERIA CONDENSATA

D

H

2,2

2

1,8

1,6

1,4

1,2

1

0,80 0,2 0,4 0,6 0,8 1 1,2

H/Pd

R/R

o

Figura 5Andamento della re-sistenza dell’idrurodi palladio, norma-lizzata rispetto aquella del palladiopuro, in funzionedella concentrazionedi idrogeno (deute-rio D) in frazioneatomica

caricamento sia per il controllo di granparte dei processi riconducibili a reazioninucleari a bassa energia che avvengononella materia condensata.Poiché è stato dimostrato che la produzio-ne di eccesso di potenza nel sistema palla-dio-deuterio è un fenomeno a soglia, ilprimo passo da compiere è quello di iden-tificare una opportuna funzione che ci con-senta di descrivere la termodinamica del-l’equilibrio la quale definisce il limite diconcentrazione di deuterio che può essereraggiunto nel reticolo metallico. Questafunzione è la ben nota funzione termodina-mica potenziale chimico, essa ci dice comecresce o decresce l’energia di un sistemaquando rispettivamente aggiungiamo osottraiamo una particella. Il limite di con-centrazione per l’idrogeno (deuterio) chesi absorbe in un metallo è raggiunto quan-do il potenziale chimico dell’idrogeno nelreticolo e nell’ambiente esterno risultanoessere eguali.Il potenziale chimico dell’idrogeno che sisolubilizza in un metallo, come ad esempioil palladio, se sono assenti campi di forza ingrado di modificare l’energia libera del si-stema, si scrive come segue:

(4)

ove è il potenziale standard, il secondotermine è il termine configurazionale delladistribuzione statistica dell’idrogeno nei sitiottaedrici (questo termine diventa domi-nante quando la concentrazione di idroge-no, in frazione atomica, diventa prossimaall’unità), l’ultimo termine contiene la som-ma del contributo ionico ed elettronico32.Un’analisi del termine logaritmico checompare nella equazione (4) porta a con-cludere che, quando la concentrazione diidrogeno (o altro suo isotopo) nel reticoloraggiunge un valore, espresso in frazioneatomica, molto prossimo all’unità, il poten-ziale chimico del soluto tende all’infinito.Questa è una situazione termodinamica-mente inaccettabile, quindi è plausibile

µH0

µ µ µH H HRTx

x= + ⋅

−+0

1ln ∆

che il sistema si riorganizzi assumendo unaconfigurazione a cui compete una energialibera più elevata, ma un potenziale chimi-co finito. Di conseguenza, è lecito supporreche la frazione di atomi di idrogeno che ec-cede l’unità finisca con il collocarsi neglialtri siti accessibili del sottoreticolo, ossianei siti tetraedrici.La solubilità di un gas in un metallo, intesacome concentrazione del gas nel metalloall’equilibrio, ad una data temperatura T ea pressione costante P, può essere calco-lata facendo uso della termodinamica sta-tistica.

Equilibrio con ambiente esterno infase gassosa

In prima analisi affrontiamo il problema delladissoluzione di un gas in un reticolo metalli-co, assumendo che il metallo si trovi alla tem-peratura T ed in contatto con il gas G2 (i.e.H2) alla pressione P. Il potenziale chimico,funzione della pressione P e della tempera-tura T, vale µG2 all’esterno del metallo. Il gasadsorbito alla superficie penetra, in formaatomica, nel metallo e diffonde mediantesalti non correlati, attraverso i siti interstiziali.Il potenziale chimico degli atomi absorbitinel reticolo è dato dalla condizione di equi-librio per la seguente reazione:

(5)

ossia:

(6)

dove

. (7)

R è la costante dei gas e f * è la fugacità delgas. Quest’ultima può essere calcolata me-diante l’equazione di stato per gas nonideali:

(8)

dove V è il volume esterno.

fp V

RT* =

2

µ µG RT f2

0= + ln( )*

µ µG G= 12 2

G G2 2←→

66 COMPLESSITÀ & SVILUPPO 2003

V. VIOLANTE, E. SANTORO, F. SARTO, L. CAPOBIANCO, A. ROSADA

Equilibrio in un sistema elettrochimico

L’absorbimento di idrogeno, da parte di unreticolo, durante un processo di polarizza-zione catodica di un metallo è direttamentelegato al meccanismo di reazione elettrodi-ca riconducibile alle due reazioni seguenti:

1) reazione di Tafel:

(9)

2) reazione di Volmer:

(10)

Ha è l’drogeno adsorbito sulla superficiemetallica e H+ è il protone che si solubiliz-za nel reticolo.La teoria sviluppata da Enyo33-36 stabilisceuna relazione tra la concentrazione superfi-ciale, la sovratensione η, e la densità dicorrente J. Il concetto che il potere riducen-te del catodo possa essere tradotto in unapressione efficace è comunemente accet-tato ed è deducibile dalla ben nota equa-zione di Nernst, la quale però non può es-sere applicata ai sistemi oggetto del nostrostudio. Per essi è stata ricavata una oppor-tuna formulazione da Enyo.Con riferimento alle reazioni di Tafel eVolmer9-10, possiamo scrivere per esse levariazioni di energia libera di Gibbs in fun-zione della variazione di potenziale chimico:

(11)

(12)

L’attività termodinamica a è legata al po-tenziale chimico dalla relazione:

. (13)

Indicando con aH e aH0 rispettivamente l’at-

tività dell’idrogeno adsorbito ed il suo va-lore in condizioni di corrente di equili-brio36, le equazioni (11) e (12) possono es-sere riscritte come segue:

(14)

(15)− = + ( )∆g F RTV Hη γln

− = −

= − ( )∆g RTa

aRTT

H

HH2 20ln ln γ

µ µ= + ( )0 RT aln

− = − +( )+ −∆gV H H eµ µ µ

− = −∆gT H Hµ µ2

2

H H ea←→ + −+

H Ha2 2←→

Sommando la (14) e la (15) otteniamo lavariazione complessiva di energia liberaper l’intero processo:

(16)

Poiché γH2 = (γH)2, la pressione equivalen-te di idrogeno può essere espressa come:

(17)

ossia:(18)

dove:(19)

L’equazione (18) è simile all’equazione diNernst e mostra che nell’intervallo dei va-lori tipici di sovratensione che si raggiun-gono durante i processi elettrochimici, lapressione efficace dell’idrogeno può rag-giungere valori fino a 106 atm.Questo valore chiarisce perché, negliesperimenti di fusione fredda, nella mag-gior parte dei casi, si è adottato il procedi-mento di caricamento elettrochimico inve-ce del procedimento in gas.

ConclusioniAl termine di questa prima esposizione èpossibile focalizzare l’attenzione su alcuniaspetti del problema in particolare. Inprimo luogo, il consistente sforzo speri-mentale che è stato compiuto nel corso diquesti anni in molti paesi, al fine di dimo-strare non solo che il fenomeno della pro-duzione di eccesso di potenza esiste, maanche che la natura del fenomeno è effetti-vamente nucleare.Si è potuto, inoltre, stabilire che nel casodel processo di fusione fredda il fenomenoè a soglia e che esistono indicazioni suffi-cienti per ritenere che, nella materia con-densata, in determinate condizioni, avven-gano anche altri processi di natura nuclea-re diversi dalla reazione:

D + D → 4He.

Pmf

mH2

22

= −+

exp

η

− =∆G F2 η

67COMPLESSITÀ & SVILUPPO 2003

INTRODUZIONE AI PROCESSI NUCLEARI A BASSA ENERGIA NELLA MATERIA CONDENSATA

mg

gT

V

= ∆∆

fF

RT=;

Bibliografia1. M. FLEISHMANN, S. PONS, Electrochemically Induced

Nuclear Fusion of Deuterium, J. Electroanal.Chem., 261, 301 (1989); J. Electroanal. Chem.,263, 197 (1989).

2. M.H. MILES, B.F. BUSH, G.S. OSTROM, J.J. LAGOWSKI,Heat and Helium Production in Cold FusionExperiments, Como ’91, 363 (1991).

3. G. PREPARATA, Some Theoretical Ideas, Trans.Fusion Technology. 26, 397 (Dec. 1994).

4. F. SCARAMUZZI, La Fusione Fredda Otto Anni Dopo,Energia Ambiente e Innovazione N.1 (1997).

5. M.C.H. MCKUBRE, S. CROUCH-BAKER, A.M. RILEY, S.I.SMEDLEY, F.L. TANZELLA, Excess of Power Obser-vations in Electrochemical Studies of the D/PdSystem: the Influence of Loading ICCF3, 5 (1993).

6. F. DE MARCO, A. DE NINNO, A. FRATTOLILLO, A. LA

BARBERA, F. SCARAMUZZI, V. VIOLANTE, ProgressReport on the Research Activities on Cold Fusionat ENEA Frascati, Proc. Sixth InternationalConference on Cold Fusion,October 13-18, 1996,Toya, Japan,(145).

7. A. DE NINNO, A. LA BARBERA, V. VIOLANTE, Selectionof Palladium metallurgical parameters to achievevery high loading ratios, Proc. Sixth InternationalConference on Cold Fusion,October 13-18, 1996,Toya, Japan (192).

8. A. DE NINNO, A. LA BARBERA, V. VIOLANTE,Deformations Induced by High Loading Ratios inPalladium-Deuterium Compounds, J. Of Alloysand Compounds,253-254 (1997) 181-184.

9. A. DE NINNO, A. LA BARBERA, V. VIOLANTE, Con-sequences of Lattice Expansive Strain Gradientson Hydrogen Loading in Palladium. Phys. Rev. B,Vol. 56, N. 5 (1997) 2417-2420.

10.D. GOZZI, F. CELLUCCI, L. CIGNINI, G. GIGLI, M.TOMELLINI, E. CISBANI, S. FRULLANI, G.M. URCIUOLI,Erratum to ”X-Ray, Heath Excess and 4He in theD/Pd System”, J. Electroanal. Chem. 435 (1997)251-271.

11.Y. ARATA, Y.C. ZHANG, Anomalous Differencebetween Reaction Energies Generated withinD2O Cell and H2O Cell. Jpn. J. App. Phys. Vol. 37(1998) 1274-1276.

12.Y. ARATA, Y.C. ZHANG, Observation of AnomalousHeat end Helium-4 Production from HighlyDeuterated Palladium Fine Particles, Jpn. J. App.Phys. Vol. 38 (1999) 774-775.

13.Y. ARATA, Y.C. ZHANG, Deuterization and Deute-rium Reactions in the Electrolyses of D2O with thedouble Structure Cathode and the Bulk Cathode.Jpn. J. App. Phys. Vol. 39 (2000) 4198-4202.

14.W. CLARKE, B. OLIVER, M. MCKUBRE, F. TANZELLA, P.TRIPODI, Search for 3-He and 4-He in Palladium-Black from Arata-Style Palladium cathodes, II;Evidence for Tritium Production, Fusion Scienceand Technology, 40, September 2001.

15.M. MCKUBRE, V. VIOLANTE ET AL., Progress TowardsReplication, Proceedings ICCF-9, Pechino Maggio2002.

16.T. MIZUNO, Nuclear Transmutations, Infinite EnergyPress, 1997.

17.Y. IWAMURA, M. SAKANO, T. ITHO. Elemental Analysisof Pd Complexes Effects of D2 Gas Permeation.Jpn. J. Appl. Physics Vol 41 (2002) pp 4642-4650.

18.V. VIOLANTE, M. MCKUBRE ET AL., X-Ray EmissionDuring Electrolysis of Light Water on Palladiumand Nickel Thin Films, Proceedings ICCF-9,Pechino Maggio 2002.

19.Y. ARATA, HIROSHI FUJITA, Y.C. ZHANG, Intense deute-rium nuclear fusion of pycnodeuterium-lumpscoagulated locally within highly deuterated atomcluster. Proc. Japn Acad., 78, Ser. B (2002).

20.L. SHLAPBACH, Hydrogen and its Isotopes in and onMetals, Conference Proc. Vol. 33 ”The Science ofCold Fusion. T. Bressani, E. Del Giudice, G.Preparata (Eds). Italian Phys. Soc., Bologna 1991.

21.W.M. MULLER, J.P. BLACKLEDGE, G.G. LIBOWITZ, MetalHydrides (Academic Press, New York 1968).

22.G. ALEFELD, J. VOLKL, Hydrogen in Metals, Vols. Iand II, Topics in Applied Physics Vols. 28 and 29,Springer-Verlag Berlin, 1978.

23.G. BAMBAKIDIS, R.C. BOWMANN, Hydrogen inDisordered and Amourphous Solids, NATO ASI,Series B: Physics Vol 136 (plenum Press, New York1986).

24.L. SCHLAPBACH, Hydrogen in Intermetallic Com-pounds, Vol I and II, Springer Topics in AppliedPhysics, 63 (1988) and 67 (1990), Springer VerlagBerlin.

25. J.J. REILLY, G.D. SANDROCK, Sci. Am. 242, 118 (1980).

26.G. MENGOLI ET AL., Surface and Bulk Effects in theExtraction of Hydrogen from Highly Loaded PdSheet Electrodes, J. Electroanal. Chem., 350, 57(1993).

27.V.I. CHERNENKO, T.G. YAKUNINA, Diffusion ofHydrogen through Pd Membranes Electrokimiya,18, 7, 904 (1982).

28.H. PEISEL, Lattice Strains Due to Hydrogen inMetals, Hydrogen in Metals, Vol I, p. 53, G.Alefeld and J. Volkl, Eds., Springer-Verlag, Berlin(1978).

29. J.E. SHIRBER, B. MOROSIN, Lattice Constant of β-PdHx and β-PdDx with x near 1.0. Phys. Rev. B,12, 1, 117, (1975).

30. J. ZBANSNIK, M. MAHNING, The Electronic Structureof Beta-Phase Palladium Hydride, Z. Phys. B, 23,15 (1976).

31.R. WISNIEWSKY, A. ROSTOKY, Hall Effect in The Pd-HSystem, Phys. Rev. B, 3,2,251 (1971).

32.E. WICKE, H. BRODOWSKY, Hydrogen in Palladiumand Palladium Alloys, Hydrogen in Metals II,Springer Verlag, Berlin, Heidelberg, New York(1978) Chap. 3.

33.T. MAOKA, M. ENYO, Surf. Technology, 9, 147(1979).

34.M. ENYO, J. Electroanal. Chem., 134, 75 (1982).

35.M. ENYO, P.C. BISWAS, J. Electroanal. Chem., 357,67 (1993).

36.B.E. CONWAY, J. O’M. BOCKRIS, E. YEAGER, S.U.M.KHAN, R.E. WHITE, Comprehensive Treatise ofElectrochemistry, Vol. 7, Chap. 5, p. 241, PlenumPress, New York (1983).

68 COMPLESSITÀ & SVILUPPO 2003

V. VIOLANTE, E. SANTORO, F. SARTO, L. CAPOBIANCO, A. ROSADA

69COMPLESSITÀ & SVILUPPO 2003

&com

ple

ssità

svilu

ppo

La biomassa è la più antica e tra le più rilevantifonti di energia rinnovabile a livello mondiale. Le

innovazioni tecnologiche nel settore rendono ilriscaldamento dei grandi edifici sensibilmente più

economico di quello convenzionale e comparabilenelle emissioni di gas e polveri

GIUSEPPE TOMASSETTI *LUCA CASTELLAZZI**FRANCESCO VIVOLI**

ENEA* Unità di Agenzia

** Fonti Rinnovabilie Cicli Energetici Innovativi

Biomasse:dal legno “calore sostenibile”

2003 Tratto da: ENERGIA, AMBIENTE E INNOVAZIONE 2/03

ceppi), residui della lavorazione del le-gname (segatura, refili, intestature), resi-dui agroindustriali (sanse, raspi, lolla diriso) e dell’industria alimentare (grassidi macellazione, noccioli di frutta, gusci);

4. rifiuti speciali a matrice biologica (tavoledei cantieri, legno delle demolizionidegli edifici, mobili a fine vita, oli di frit-tura, pali e traversine);

5. frazione biogenica dei rifiuti solidi urba-ni (carta, legno, tessuti, residui alimenta-ri, residui di giardinaggio e potature ur-bane);

6. rifiuti organici degli impianti delle fogna-ture urbane e degli allevamenti zootec-nici.

Le biomasse, la prima fonte energetica chel’umanità ha avuto a disposizione, ancoraoggi costituiscono la fonte di energia rinno-vabile più importante in molti paesi in viadi sviluppo e a livello mondiale, insieme al-l’idroelettrico, tra le più rilevanti.Dal punto di vista tecnico le biomasse accu-mulano energia negli anni, fino a una densità,a parità di peso secco pari a poco menodella metà di quella del petrolio; è pertantopossibile utilizzare questa fonte rinnovabilese l’utente ne ha bisogno, mentre altre fontirinnovabili sono disponibili solo in alcunimomenti del giorno e dell’anno, per di piùdifficilmente prevedibili; le biomasse, quindi,hanno per l’utente affidabilità comparabilecon quella delle fonti fossili.Ultimo aspetto, non meno importante èquello tecnologico. Sono già sul mercatodispositivi, a costi contenuti e complessitàlimitata, che permettono di utilizzare subitole biomasse anche in maniera decentrata.

L’utilizzo delle biomasse in ItaliaPer l’utilizzo delle biomasse coesistono oggi,in particolare in Italia, sia impianti con tecno-logia obsoleta, quasi senza strumentazione,che impianti più moderni (dalle tecnologiedel letto fluido alla fiamma rovescia), e tec-nologie che invece puntano ad una valoriz-

70 COMPLESSITÀ & SVILUPPO 2003

GIUSEPPE TOMASSETTI, LUCA CASTELLAZZI, FRANCESCO VIVOLI

Si definiscono biomasse tutte quelle so-stanze a matrice organica, appartenenti almondo animale o vegetale, aventi stato fisi-co solido, liquido o gassoso, che possonoessere impiegate a scopo energetico; l’e-nergia chimica in esse contenute deriva, inultima analisi, dal sole ed è accumulata at-traverso la sintesi clorofilliana.Nell’ambito delle fonti rinnovabili di energiail termine biomassa si applica solo alle so-stanze che hanno la possibilità di essere rin-novate in termini di tempo congruenti con lavita umana, per cui sono escluse quelleforme completamente fossilizzate, quali car-boni, ligniti, catrami, petroli e metano.Le biomasse costituiscono una forma sofi-sticata di accumulo dell’energia solare.Questa, infatti, consente alle piante di con-vertire la CO2 atmosferica in materia orga-nica, tramite il processo di fotosintesi. Labiomassa è ampiamente disponibile ovun-que e rappresenta una risorsa locale, pulitae rinnovabile.Alcune tipologie di biomassa, come lalegna da ardere, sono coltivate, raccolte ecommercializzate direttamente per usoenergetico. Al contrario, altre tipologie dibiomasse hanno un ciclo principale di vita,di valore maggiore, come materia primaper l’industria delle costruzioni, per lacarta, per i mobili o per uso alimentare,mentre sia gli scarti dei processi di trasfor-mazione (lolla del riso) che i prodotti stessia fine vita (pellets e cassette da imballo)possono essere poi valorizzati a scopoenergetico. Sulla base di queste premessele biomasse sono raggruppabili nelle se-guente famiglie principali:

1. biomasse forestali, legno ricavato dapiante destinate alla combustione (legnada ardere);

2. colture energetiche dedicate (sia percombustione diretta che per trasforma-zione in biocombustibili);

3. residui delle attività agricole (paglie epotature arboricole), residui delle atti-vità forestali (ramaglie e cime, scorze,

zazione delle potenzialità termiche nel ri-spetto dei vincoli ambientali sulle emissioni.Il primo tipo di impianti è basato sull’auto-consumo di materiali di scarto consideratidi poco valore, mentre nel secondo caso siimpiegano combustibili lavorati per miglio-re efficienza e comodità del cliente, come ipellets, con prezzi che, nel caso di utilizzoper caminetti, possono arrivare ad avvici-narsi a quelli del gasolio. La coesistenza ditecnologie così disparate costituisce un in-dicatore del fatto che l’Italia non ha condot-to, nel campo delle biomasse, una politicamolto efficace; il punto più debole del si-stema italiano delle biomasse per usoenergetico è costituito dal mancato raccor-do fra consumatori e disponibilità del com-bustibile. Inoltre il patrimonio boschivo ri-sulta essere particolarmente degradato siaper la scarsa manutenzione, a causa del-l’abbandono generalizzato della montagnae della ripidezza dei pendii, sia per il nu-mero sempre crescente di incendi estivinonostante ci siano decine di migliaia dipersone impegnate nelle foreste, anche sea titolo di occupazione di emergenza. Incompenso è generalizzato l’autoconsumo,il prelievo diretto, al limite dell’illegalità, suiterreni di proprietà pubblica.Da queste considerazioni si evince che inItalia il combustibile “legno” costa e co-sterà sempre molto e perciò risulta propo-nibile solo per impieghi che accettino taliprezzi. È questo il caso del riscaldamentonel settore civile, ove si sostituiscono com-bustibili di qualità costosi e tassati per laproduzione di elettricità; ove si sostituisca-no combustibili meno tassati, non sembrainvece avere prospettive all’infuori del CIP6, fatto salvo l’uso di rifiuti per i quali gliaspetti di smaltimento sono preponderanti.Sono invece disponibili grandi quantità discarti dalle attività agricole e dalle indu-strie dei mobili; inoltre vengono importa-te, prevalentemente dalla Germania, circa1,5 milioni di tonnellate all’anno di legnodalle demolizioni, legno peraltro conside-

rato tossico e pericoloso per la presenzadi vernici ed impregnanti, legno che inItalia viene riciclato per costruire pannelliin parte riesportati dall’industria comemobili.La normativa presenta un altro punto debo-le. A partire dagli anni 80 si è venuta svilup-pando una legislazione ambientale secon-do la quale tutti gli scarti delle attività pro-duttive dovevano essere classificati comepotenzialmente pericolosi e perciò essereammessi alla combustione solo in grandiimpianti dotati di particolari strumentazionidi controllo.Anche il sistema degli incentivi, per lungotempo centrato solo sulla produzione dielettricità (dal CIP 6 ai certificati verdi), nonè risultato particolarmente efficace per ladiffusione di questa tecnologia. Inoltre, a li-vello di programmi di ricerca europei si èpreferito considerare le biomasse comepossibile fonte “alternativa” e non “integra-tiva” di quella fossile; sono stati così privile-giati e finanziati progetti a lungo terminecome quelli relativi alle colture energetichededicate, alla gassificazione, alla produzio-ne di biocombustibili, piuttosto che con-centrarsi sulle problematiche della combu-stione di prodotti già commerciali, dai ca-minetti alle stufe, fino alle caldaie.Questo approccio si è adattato male allarealtà italiana, dove la produzione di bio-massa non è concentrata nelle grandi se-gherie come in Svezia e Canada, ma avvie-ne in modo molto diffuso su tutto il territorio;per questo motivo gli impianti dedicati allaproduzione di sola elettricità (CIP 6) stenta-no a trovare oggi il materiale a loro necessa-rio e, per via dei costi di esercizio, difficil-mente continueranno ad operare quando gliincentivi non saranno più elargiti.Tuttavia negli ultimi anni la situazione si è fi-nalmente evoluta; infatti nel 1999 è statomesso in opera un sistema di incentivi pergli impianti di teleriscaldamento nelle zonemontane, e nel marzo 2002, un decreto legi-slativo ha classificato le biomasse residuali

71COMPLESSITÀ & SVILUPPO 2003

BIOMASSE: DAL LEGNO “CALORE SOSTENIBILE”

fra i combustibili solidi ammissibili, anchese sussistono alcune incongruenze con ilcomplesso delle altre leggi; inoltre i decretisull’efficienza energetica del 24/4/2001,“certificati bianchi”, valorizzano in modoadeguato il calore prodotto dalle biomasse.Infine l’entrata nel mercato del legno com-pattato in pastiglie, “pellets”, e delle relati-ve stufe e caldaie totalmente meccanizzate,sta rivoluzionando il mercato; esiste tuttaviail pericolo che la diffusione rapida del loroutilizzo porti solo ad un aumento delle im-portazioni dall’estero del combustibile le-gnoso senza un reale beneficio per i nostriagricoltori e per il “sistema boschi”italiano1.

La disponibilità di biomasse inItaliaStimare le quantità di biomasse prodotte eutilizzate nel nostro Paese non è un compi-to facile sia perché spesso i dati relativi aquesti prodotti provengono da diverse fontie non sono omogenei, sia perché spessovengono utilizzati e scambiati in circuitinon commerciali (autoconsumo, fuori com-mercio ecc).Si vuole dare, di seguito, un’idea degli ordi-ni di grandezza in gioco per avere unastima approssimativa della grande poten-zialità di questa fonte energetica.

Biomasse forestali

A seconda della metodologia e dei para-metri di rilevamento della superficie bo-schiva si ottengono stime differenti2. Secon-do l’Annuario di Statistica del 1995, la su-perficie forestale italiana è di 6.821.281 et-tari, pari al 22,4% del territorio nazionale; idati sono basati sui parametri di coperturaminima pari al 50% e superficie minima di0,5 ettari. Invece, secondo recenti stimeEUROSTAT (1998), che si basano anche surilevamenti satellitari, le foreste italiane siestendono su 9.857.000 ettari, poco menodi un terzo della superficie territoriale na-zionale: queste stime sono state elaboratein base ai parametri internazionali ossia dicopertura minima del 10% e superficie mi-nima di 0,5 ettari.Inoltre, in base a stime dell’InventarioForestale Nazionale, mentre l’accrescimen-to boschivo si attesta a 3 metri cubi per et-taro l’anno il tasso di utilizzazione risulta es-sere di circa 1 metro cubo per ettaro l’anno;questo enorme accumulo di legno mostraquale sia la potenzialità energetica dei no-stri boschi, ma anche di quanta maggiorecura e gestione avrebbero bisogno, dal mo-mento che l’abbandono dei boschi, untempo utilizzati a ceduo, cioè a taglio dibreve periodo per produrre carbone, li ren-dono vulnerabili verso incendi e malattie.Secondo i dati ufficiali dell’ ISTAT, la super-ficie tagliata copre l’1,9% di quella totale,per una quantità pari a circa 9.912.000metri cubi l’anno.

Residui delle attività agricole,forestali, agro-industriali edell’industria alimentare

Non è facile fornire una stima sulle quantitàdi residui in quanto non esiste alcun lavoroanalitico nazionale recente e attendibile. Peravere un’idea degli ordini di grandezza ingioco ci si può riferire alla stima su un totaledi 17,2 Mt/anno effettuata nel 1994 dall’AIGR(Associazione Italiana Genio Rurale):

72 COMPLESSITÀ & SVILUPPO 2003

GIUSEPPE TOMASSETTI, LUCA CASTELLAZZI, FRANCESCO VIVOLI

Figura 1Pellets di legno

Fonte: AA.VV., Combustibili legno-si: calore sostenibile per gli edificiresidenziali, ENEA 2002

– residui agricoli: 7,8 Mt/anno;– residui industria legno: 7,7 Mt/anno;– residui industria agroalimentare: 1,6 Mt/

anno.

Per quanto riguarda la sola sansa ci si rife-risce ai dati forniti dall’ASSITOL che indicain 0,5 Mt/anno la quantità disponibile disansa esausta escludendo le importazioni.A seguito del fenomeno della “muccapazza” ci sono anche centinaia di migliaiadi tonnellate di farine animali alle qualivanno aggiunte i grassi e gli oli vegetaliusati.

Frazione organica, detta anchebiogenica, dei rifiuti solidi urbani

La quota prodotta ogni anno è stimabile in5 Mt di cui ne vengono utilizzate, per il re-cupero energetico, solo 0,27 tonnellate in23 impianti.

Rifiuti speciali a matrice biologica

Non esistono dati che permettano di effet-tuare una stima precisa. Tuttavia secondoFederlegno, l’industria mobiliera italianaproduce da sola 4 Mt/anno di residui le-gnosi di cui 1 Mt/anno autoconsumati.

Coltivazioni energetiche

Attualmente le aree destinate a coltureenergetiche dedicate sono molto ridotteed essenzialmente dedicate ad attività diricerca. Attualmente infatti sono solo 40 gliettari coltivati con specie forestali a rapidoaccrescimento e a breve turno di rotazionecon finalità specificatamente energetiche,ma si prevede che entro il 2005 si possa ar-rivare a 3500-5000 ettari, procedendoanche alla sostituzione della pioppicolturaclassica2.

Importazioni

L’Italia alimenta un forte flusso di importa-zioni di legna da ardere, di carbone dilegna, di legna di recupero dalla selezione

dei rifiuti (0,5 Mt/anno dalla sola Germa-nia), di residui dell’industria agroalimenta-re (sansa e noccioli da tutto il bacino delMediterraneo); mentre si sta aprendo oral’enorme mercato mondiale del cippato edei pellets.

Come trarre energia dallebiomasseLe biomasse, a seconda del tipo e dellacomposizione, possono essere: bruciate perfornire calore; convertite in altro combustibi-le (metano, etanolo, metanolo, prodotti car-boniosi) mediante l’impiego di microrgani-smi oppure dall’azione di elevate temperatu-re o di agenti chimici; infine, direttamenteusate per la generazione di energia elettrica.I processi di conversione delle biomassesono, quindi, di due tipi:

• termochimici: combustione diretta, gassi-ficazione, pirolisi, carbonizzazione, estra-zione di oli vegetali, a seconda dei conte-nuti in carbonio e azoto (rapporto C/N) edell'umidità presente nella materia orga-nica da trattare;

• biochimici: digestione anaerobica, fer-mentazione alcolica, digestione aerobica.

Tecnologie di conversione termochimica

Tali tecnologie possono essere così in-dividuate:– combustione diretta in caldaie di vario

tipo secondo la taglia (vedi Appendicesu “La tecnologia di combustione dellalegna”);

73COMPLESSITÀ & SVILUPPO 2003

BIOMASSE: DAL LEGNO “CALORE SOSTENIBILE”

Figura 2Cippato di legno

Fonte: AA.VV., Combustibili legno-si: calore sostenibile per gli edificiresidenziali, ENEA 2002

– gassificazione, ossidazione incompletaper la produzione di un gas combustibile(CO, N2, H2) utilizzabile per alimentare di-rettamente motori alternativi a ciclo Otto;

– pirolisi, decomposizione termochimicadi materiali organici, ottenuto mediantel’applicazione di calore, a temperaturecomprese tra 400 e 800 °C in assenza diun agente ossidante;

– estrazione di oli e produzione di biodie-sel, estratti da piante oleaginose, qualisoia, colza, girasole ecc., che possonoessere utilizzati come combustibili nellostato in cui vengono estratti.

Processi di conversione biochimica

Questi processi permettono di ricavareenergia per reazione chimica dovuta alcontributo di enzimi, funghi e micro-orga-nismi che si formano nella biomassa sottoparticolari condizioni:

– digestione anaerobica, un processo diconversione di tipo biochimico, consi-stente nella demolizione, ad opera dimicro-organismi, di sostanze organichecomplesse (lipidi, protidi, glucidi) conte-nute nei vegetali e nei sottoprodotti e ri-

fiuti (deiezioni animali, reflui civili, rifiutialimentari e frazione organica dei rifiutisolidi urbani con rapporto C/N inferiorea 30%), che produce un gas (biogas) co-stituito per il 50÷70% da metano e per larestante parte soprattutto da CO2 edavente un potere calorifico medio del-l'ordine di 23.000 kJ/Nm3;

– fermentazione alcolica, un processo, ditipo micro-aerofilo, di trasformazione inetanolo dei glucidi contenuti nelle pro-duzioni vegetali; un derivato dell’etanoloè l’ETBE (EtilTertioButilEtere); l’etanolo el’ETBE sono utilizzabili anche nei motoria combustione interna;

– digestione aerobica, un processo consi-stente nella metabolizzazione delle so-stanze organiche per opera di micro-or-ganismi, il cui sviluppo è condizionatodalla presenza di ossigeno. Questi batte-ri convertono sostanze complesse inaltre più semplici, liberando CO2 e H2Oe producendo un elevato riscaldamentodel substrato, proporzionale alla loro atti-vità metabolica. Il calore prodotto puòessere così trasferito all’esterno, me-diante scambiatori a fluido.

74 COMPLESSITÀ & SVILUPPO 2003

GIUSEPPE TOMASSETTI, LUCA CASTELLAZZI, FRANCESCO VIVOLI

Tabella 1Produzione lorda dienergia elettrica dabiomasse e rifiuti(1994-2001)

GWh 1994 1995 1996 1997 1998 1999 2000 2001

Solo produzione di energia elettrica 156,6 202,8 365,7 527,5 770,6 995,4 933,5 1060,1

Solidi 135,6 167,6 239,7 231,1 317,8 454,2 409,4 465,0RSU 133,2 154,1 223,1 216,6 259,3 235,1 266,5 313,0Colture e rifiuti agroindustriali 2,4 13,5 16,6 14,5 58,5 219,1 142,8 152,0

Biogas 21 35,2 126 296,4 452,8 541,2 524,1 595,0Da discariche 21 35,1 125,9 296,1 452 539,6 539,6 593,8Da fanghi 0 0,1 0,1 0,2 0,6 0,5 0,3 0,1Deiezioni animali – – – – – 0,8 0,2 1,1Colture e rifiuti agroindustriali – – – – – 0,3 0,2 –

Cogenerazione 128 184,3 238,5 292,8 458,2 826,9 972,8 1527,3

Solidi 113,4 116,9 157,5 216,3 417 785,4 930,7 1437,8RSU 55,3 14,3 17,1 35,5 204,9 417,9 537,0 945,5Colture e rifiuti agroindustriali 58,1 102,6 140,4 180,8 212,1 367,5 393,8 492,4

Biogas 14,6 67,4 81 76,5 41,2 41,5 42,0 89,4Da discariche 3,4 53,8 67,9 64,5 26,8 26,8 27,8 70,8Da fanghi 2,4 2,9 3,1 2,7 4,2 5,8 5,8 4,5Deiezioni animali 6,3 8,1 7,6 6,9 5,7 5,6 4,7 8,7Colture e rifiuti agroindustriali 2,5 2,6 2,4 2,4 4,5 3,3 3,7 5,3

Totale 284,7 387,1 604,2 820,3 1.228,8 1.822,3 1.906,2 2.587,3

Fonte: GRTN, dati statistici sull’energia elettrica in Italia 2001.

Legna per riscaldamentodomestico e per calore diprocesso industrialeDue recenti indagini statistiche dell’ENEAsul consumo di legna per il riscaldamentodomestico3, basate su 6.000 interviste te-lefoniche, hanno stimato un consumo resi-denziale di legna da ardere tra 16 e 20Mt/anno. Questo dato risulta essere di granlunga superiore a quello rilevato dal-l’ISTAT, sia per una prevedibile sottostimadelle indagini ufficiali sia perché più dellametà della legna deriva da autoapprovigio-namento per autoconsumo.Per quanto riguarda la produzione di calo-re di processo industriale, l’ENEA ha rile-vato l’installazione di circa 1.300 impiantiper un totale di 2.400 MWt installati.

Una nuova tecnologia per ilriscaldamento residenziale alegnaOgni anno un ettaro di bosco produce tragli 8.000 e i 40.000 kWh di energia termicapotenzialmente utilizzabili e sufficienti peril riscaldamento di una singola unità abitati-va o di una piccola scuola materna4.Gli attuali canali di approvvigionamentopossono variare a seconda della realtà pro-duttiva locale: la legna da ardere, provenien-te dai boschi e dalle potature dei viali e deiparchi; il cippato ed i pellets, provenienti dairesidui di produzione, dalle segherie e dalleimprese di costruzione e di carpenteria; iresidui derivanti dalla produzione agricola odall’industria alimentare, come i gusci dinocciola e la sansa di olivo, che possono co-stituire una eccellente fonte energetica.Dove risulti necessario il trasporto su lun-ghe distanze ed è necessaria una logisticacompletamente automatizzata, conviene ri-correre ai pellets.I pellets sono prodotti pressando i residuidalla lavorazione del legno, e trasformanocosì un materiale da smaltire in un combu-stibile di alta qualità. Inoltre, il prodotto ot-

tenuto presenta caratteristiche termochimi-che e merceologiche superiori, sia in ter-mini qualitativi che di omogeneità, rispettoa quelle del cippato e della legna tal quale:maggiore contenuto energetico, minorecontenuto di acqua, pezzatura più unifor-me e costante. Queste qualità rendono ipellets di più facile gestione e trasportabi-lità, e consentono periodi di immagazzina-mento più lunghi: pertanto il prodotto puòessere commercializzato economicamentesu un raggio distributivo più ampio e rap-presentare un passo avanti verso un siste-ma energetico più diversificato e ambien-talmente sostenibile.Recentemente sono stati realizzati diversiimpianti per la produzione di pellets invarie parti d’Europa. Un elenco dei fornito-ri di questo combustibile è riportato sulsito www.bioheat.info al quale si può acce-dere per consultare l’elenco dei produttoridi caldaie e dei fornitori di combustibili le-gnosi nonché le schede relative agli im-pianti realizzati con successo.

75COMPLESSITÀ & SVILUPPO 2003

BIOMASSE: DAL LEGNO “CALORE SOSTENIBILE”

Figura 3Caldaia con carica-mento automaticodel combustibile escarico delle ceneri

1. Dosatore a coclea con strato di sbarramento2. Azionamento griglia di avanzamento3. Ventola di accensione4. Alimentazione aria primaria regolata5. Griglia di avanzamento6. Contenitore per la cenere della griglia7. Ventola testa snodata8. Camera di combustione a rotazione

9. Scambiatore di calore caldaia10. Porta caldaia11. Scambiatore di calore

per sicurezza termica12. Ventola gas combusti

Fonte: AA.VV., Combustibili legnosi: calore sostenibile per gli edifici resi-denziali, ENEA 2002

Il riscaldamento residenziale risulta essereresponsabile di circa un quarto della doman-da energetica totale del nostro sistema ener-getico. Utilizzare fonti di energia rinnovabilein questo settore può rappresentare un passoavanti verso un sistema energetico più diver-sificato e ambientalmente sostenibile.In Italia, negli ultimi anni e soprattutto nelleregioni del Nord, è stato realizzato un nu-mero sempre crescente di impianti a bio-masse. Il successo di questa tecnologia nelnostro Paese è legato, oltre che alla cre-scente sensibilità alle tematiche ambientali,

alla loro indubbia convenienza economica.Da notare, in particolare, che spesso sonodisponibili diverse possibilità di supportoattraverso programmi di finanziamento re-gionali, nazionali ed europei che possonoessere sfruttati per rendere ancora più con-veniente questa opzione di riscaldamento.Negli ultimi 20 anni le caldaie a legnahanno registrato una notevole evoluzionetecnologica, passando dai vecchi sistemi acaricamento manuale alle moderne e sofi-sticate caldaie ad elevato grado tecnologi-co, dotate di dispositivo di controllo auto-matico, e in grado di soddisfare da sole ilfabbisogno energetico delle unità abitativecon rendimenti termici che possono rag-giungere il 90%.Le caldaie moderne infatti bruciano siacombustibili legnosi di alta qualità, come ipellets, sia il cippato e gli scarti di lavora-zione, con emissioni paragonabili a quelledei sistemi convenzionali a gas e gasolio.Sono dotate di sistemi per l’accensione au-tomatica, di segnalazione in remoto dieventuali malfunzionamenti, di dispositiviautomatici per la rimozione delle ceneri eper la pulizia degli scambiatori di calore.La combustione può venire controllata inmodo automatico a seconda della doman-da energetica, della qualità del combustibi-le e della composizione dei gas di scarico.Il raggiungimento di queste prestazioni èstato possibile principalmente grazie alleseguenti innovazioni tecnologiche:– introduzione di almeno due flussi distinti

di aria primaria e secondaria in modo daottenere una regione di post-combustio-ne dei gas prodotti durante la pirolisi;

– introduzione della sonda lambda chepermette un controllo ottimale dellacombustione regolando l'immissionedell'aria secondaria in relazione alla per-centuale di ossigeno presente nei gascombusti;

– ricircolo dei fumi in camera di combustio-ne per controllare la temperatura ed au-mentare la turbolenza.

76 COMPLESSITÀ & SVILUPPO 2003

GIUSEPPE TOMASSETTI, LUCA CASTELLAZZI, FRANCESCO VIVOLI

Figura 4Caldaia a combusti-bile sfuso

Fonte: AA.VV., Combustibili legno-si: calore sostenibile per gli edificiresidenziali, ENEA 2002

Unità Cippato Pellets Gasolio Metano

r 10.000 10.000 4.000 3.000r 2.500 2.500 1.500 1.500r 10.000 8.500 4.500 4.000

A 22.500 21.000 10.000 8.500

r 15.750 14.700 10.000 8.500r/a 1.110 1.049 704 594

A/anno 1.110 1.049 704 594

r/anno 4.982 6.112 14.968 11.663r/anno 120 80 60 50

A/anno 5.102 6.192 15.028 11.713

r/anno 175 168 78 65r/anno 1.000 750 0 0r/anno 250 200 150 80r/anno 400 400 200 200r/anno 250 200 100 100

A/anno 2.075 1.718 528 445A/anno 8.287 8.959 16.259 12.752A/MWh 55,25 59,72 108,39 85,01

Tabella 2Costi di impianti abiomassa e di im-pianti a combustibi-le fossile

Fonte: AA.VV. - Combustibili legnosi: calore sostenibile per gli edifici pub-blici. ENEA 2002

77COMPLESSITÀ & SVILUPPO 2003

BIOMASSE: DAL LEGNO “CALORE SOSTENIBILE”

Sette requisiti per un valido progettodi riscaldamento a legna

1. Affidarsi a consulenti esperti La realizzazione di un impianto di riscaldamento a biomassa in un edificio pubblico deve essere cu-rata con particolare attenzione in modo che possa rappresentare un ottimo esempio da seguire sulpiano economico, ambientale e architettonico. È quindi molto importante affidarsi per la progettazio-ne e realizzazione ai migliori professionisti del settore e alla migliore tecnologia presente sul merca-to. Come primo approccio si potrebbero contattare le Agenzie locali per l’Energia per una consulen-za e un supporto tecnico, il cui elenco è reperibile sul sito www.bioheat.info.

2. Verifica della disponibilità del combustibileÈ di fondamentale importanza individuare il combustibile (trattato o non) maggiormente disponibilein loco e scegliere di conseguenza la caldaia più adatta alla sua combustione. Gli impianti sono, in-fatti, progettati per funzionare al meglio con determinate tipologie di combustibile.

3. Scelta dell’edificio più adattoScegliere attentamente l’edificio dove realizzare l’impianto. L’edificio scelto deve disporre, oltre chedi un locale caldaia sufficientemente ampio, anche di uno spazio adatto all’accumulo del combusti-bile legnoso facilmente accessibile ai mezzi di rifornimento.

4. Informare e coinvolgere l’intera comunitàÈ bene, comunque, che i cittadini e i rappresentanti politici vengano opportunamente informati, sindalle prime fasi, sullo sviluppo del progetto, in modo che si sentano coinvolti il più possibile nel pro-cesso decisionale e aprire quindi un importante momento di confronto.È utile e opportuno ricorrere quanto maggiormente a operatori ed esperti locali, in modo da au-mentare ulteriormente l’interesse intorno all’iniziativa e gli effetti positivi sulla comunità.

5. Scegliere una caldaia di elevata qualitàOccorre, quindi, scegliere una caldaia di alta qualità che risponda almeno aiseguenti requisiti:– abbia un’efficienza energetica > 85%;– garantisca emissioni basse (CO < 200 mg/m3, polveri < 150 mg/m3) sia a

pieno che a mezzo carico, e che comunque soddisfino la normativa vigente(DPCM 8 marzo 2002);

– sia dotato di un sistema automatico per la pulizia dello scambiatore di calo-re e per lo scarico delle ceneri;

– sia affidabile, facile da gestire e da mantenere; richiedere le referenze aiproduttori e farsi consigliare dagli operatori del settore.

6. Affidarsi a un serio responsabile per la gestione della caldaiaUn impianto di riscaldamento a legna necessita di una supervisione costan-te e competente. Per la sua gestione è possibile scegliere tra le seguentiopzioni:– individuare un dipendente comunale motivato e qualificato che diventi il re-

sponsabile della gestione globale dell’impianto;– affidarsi a una struttura esterna di servizi, per esempio lo stesso fornitore

del combustibile o una società di servizi energetici (ESCO), che fornisceall’amministrazione il calore.

7. Pubblicizzare e documentare la realizzazione del progettoÈ di notevole utilità che la realizzazione di un progetto di riscaldamento a bio-massa venga opportunamente promossa a livello locale e pubblicizzata nel-l’intera regione. Spesso, infatti, questi primi impianti diventano luoghi molto vi-sitati e attirano diversi curiosi. Essere preparati a questa prospettiva, avendopreventivamente raccolto informazioni durante le fasi di realizzazione e predi-sposto materiale divulgativo sulla progettazione e funzionamento dell’impian-to, è il modo migliore per stimolare la realizzazione di altre simili iniziative.

Figura 5aCaldaia con bruciatore sottoalimentato

Figura 5bCaldaia a griglia mobile

Fonte: AA.VV., Riscaldamento dei grandi edifici con combustibili legno-si, ENEA 2002

I costi

Le valutazioni economiche relative a siste-mi a combustibile legnoso si basano suicosti d’investimento, che sono generalmen-te più alti di quelli per impianti a combusti-bile tradizionale, e sui costi d’esercizio, cherisultano essere più bassi.I costi presentati nella tabella 2 sono relativiad un impianto da 100 kW che opera percirca 1500 ore/anno, per cui è stato ipotiz-zato un contributo in conto capitale del30% per gli impianti a biomassa.In Italia spesso è possibile usufruire di con-tributi regionali in conto capitale in percen-tuale variabile dal 30% al 60% a secondadella regione.I combustibili legnosi, inoltre, a parità dicontenuto energetico, sono significativa-mente più economici di quelli tradizionali.

Impatto ambientale dellacombustione a legna

È convinzione comune che la combustionedella legna sia molto inquinante: questo èvero per le caldaie tradizionali, dove la com-bustione non è ottimizzata, ma non per lemoderne caldaie ad alta tecnologia, proget-tate per ottenere una combustione dellalegna quasi perfetta e con emissioni compa-rabili a quelle di una caldaia a combustibileconvenzionale. Tale risultato è stato possibi-le grazie all’introduzione di diversi dispositi-vi, come la sonda lambda e, nelle caldaie digrossa taglia, di cicloni e filtri a manica edelettrostatici, ma anche grazie alla separa-

zione dell’aria primaria da quella seconda-ria e dal ricircolo dei fumi di combustione.Molto deve essere però ancora fatto perquanto riguarda i piccoli dispositivi dome-stici, come ad esempio i termocaminetti.Infatti bisognerebbe separare la zona dicombustione dalla zona di scambio termicoe utilizzare dei catalizzatori che permettanodi bruciare la fuliggine per aumentare sen-sibilmente i rendimenti termici e la qualitàdella combustione. Le emissioni climalte-ranti, nella combustione delle biomasse ve-getali a ciclo rapido possono essere trascu-rate solo nel caso in cui non si prendano inconsiderazione le spese energetiche relati-ve al taglio, al trattamento e al trasporto delcombustibile legnoso, per cui una valutazio-ne più puntuale richiede un’analisi sull’inte-ro ciclo di vita del combustibile.Le caldaie a legna hanno emissioni di SO2

simili o inferiori ai sistemi convenzionali ametano, leggermente maggiori per quantoriguarda NOx e CO, mentre sono più alte,ma comunque accettabili, le emissioni dipolveri4.

Bibliografia1. A. PANVINI, Aspetti di mercato: la situazione nazio-

nale e le prospettive – Atti Convegno ProgettoFuoco, verona 23 Marzo 2002;

2. ITABIA, Rapporto biocombustibili al 2001.

3. V. GERARDI, G. PERRELLA, Il consumo di biomassa afini energetici nel settore domestico, ENEA 1998 e2000;

4. L. CASTELLAZZI ET AL., Combustibili legnosi: caloresostenibile per gli edifici pubblici. ENEA 2002.

78 COMPLESSITÀ & SVILUPPO 2003

GIUSEPPE TOMASSETTI, LUCA CASTELLAZZI, FRANCESCO VIVOLI

79COMPLESSITÀ & SVILUPPO 2003

BIOMASSE: DAL LEGNO “CALORE SOSTENIBILE”

AppendiceLA TECNOLOGIA DI COMBUSTIONE DELLA LEGNA

L’impiego energetico dei combustibili di origine vegetale si presenta complesso per una serie dimotivi che possono essere così raggruppati:• la composizione chimica e la quantità d’acqua dipendono dalla specie e dalla parte utilizzata

della pianta, dal luogo di crescita, dal momento della raccolta e infine, dalla modalità di con-servazione;

• la pezzatura fisica, spesso molto variabile, dipende dal tipo di materiale, dal tipo di raccolta edalle lavorazioni subite;

• il processo di combustione avviene per stadi di essiccazione, pirolisi e gassificazione ed infineossidazione; essi rispondono a leggi differenti tra loro.

Le varie fasi della combustione e conseguenti implicazioni

Un combustibile vegetale è composto principalmente da cellulosa e lignina, di composizione CHmOn No, da acqua e, infine, da elementi scheletrici quali fosfati e potassio. Se si impiegano foglie oresidui di coltivazioni si possono avere presenze anche di zolfo e cloro.La prima fase, quella dell’essiccazione, si svolge per effetto del calore irraggiato dalle pareti e dallebraci ardenti; essa avviene a temperature da 20 °C di partenza fino a 150 °C circa e consiste nel-l’evaporazione dell’acqua contenuta tra fibra e fibra, legata non chimicamente. Il vapore d’acquaemesso dalle fibre viene asportato dall’aria primaria che attraversa il letto di materiale da bruciare.La seconda fase è costituita da due fenomeni che si sovrappongono, la pirolisi e la gassificazione.Per effetto della temperatura, crescente fino ai 600 °C, le macromolecole delle cellule vegetali sirompono dando luogo, in dipendenza soprattutto della velocità di riscaldamento, alla produzionedi molecole più piccole, allo stato gassoso e tutte combustibili a quelle temperature, quali alcoli,aldeidi, acqua, radicali liberi, metano e composti vari. Il residuo della pirolisi è sostanzialmente uncarbone poroso, il carbone di legna.Contemporaneamente per la presenza dell’aria primaria, all’interno del letto di materiale solido,si ha la combustione parziale sia del carbone residuo, sia di parte delle sostanze emesse con for-mazione di ossido di carbonio. In questa zona, specialmente in vicinanza del materiale, si ha quin-di una atmosfera riducente, con carenza di ossigeno (l < 1). La corrente gassosa (dall’azoto dell’aria ai prodotti di pirolisi formatesi) può trascinare particellesolide ancora non completamente combuste.La terza fase, quella della ossidazione, avviene al disopra del letto di materiale combustibile; si hal’aggiunta di altro ossigeno (aria secondaria) che si fa mescolare bene con i gas prodotti dal mate-riale solido, procurando la combustione completa con formazione di CO2, a temperature fra i 900°C e i 1000 °C, a seconda dell’eccesso d’aria.Il meccanismo di combustione completo esposto è molto delicato: per effetto della pezzatura delmateriale le condizioni cambiano. Se si brucia del polverino di legno la prima e la seconda fase sisovrappongono e c’è il rischio di trascinamento del residuo carbonizzato. Per dimensioni maggio-ri mentre lo strato esterno è già carbone l’interno continua a degasare e pirolizzare perché illegno è un buon isolante termico. Se si brucia su una griglia mobile, alimentata da un lato, le trefasi si susseguono nello spazio, quindi nello stesso momento esse coesistono in zone differenti; inuna tradizionale caldaia a caricamento manuale di tronchetti di piccolo diametro le tre fasi tendonoa scalarsi nel tempo con una certa omogeneità in tutto il volume, mentre, se si bruciano pezzi gran-di, quando l’esterno è già carbone, l’interno è ancora nella fase di degasaggio-pirolisi. La tabella ri-porta schematicamente il processo di combustione. Altri parametri sono, poi, da considerare; l’ossi-do di carbonio miscelato all’azoto ha una bassa velocità di combustione ed il processo di pirolisi as-sorbe energia. Ne consegue che, se i prodotti della gassificazione si disperdono in una corrente diaria fredda o lambiscono una parete fredda, la combustione rischia di non mantenersi e si ha il fumoacido e tossico, tipico dei caminetti che non tirano.Altri problemi sono costituiti dalle ceneri, la loro composizione dipende dal tipo di pianta e dal

80 COMPLESSITÀ & SVILUPPO 2003

GIUSEPPE TOMASSETTI, LUCA CASTELLAZZI, FRANCESCO VIVOLI

tipo di terreno; l’aumento del tenore di potassio provoca un abbassamento del punto di fusionedelle ceneri stesse, con il rischio di produrre intasamenti dei condotti dell’aria.Gli obiettivi da raggiungere sono: alta efficienza di combustione e basse emissioni di incombusti edi inquinanti.Per un’alta efficienza occorre limitare l’eccesso d’aria, richiesto per evitare gli incombusti, occorreun lungo tempo di residenza ad alta temperatura; ne deriva uno schema di caldaia piuttosto di-verso da quello dei combustibili tradizionali nel quale spesso le fiamme scaldano le pareti freddeper irraggiamento. Nel caso delle biomasse vegetali occorre prima assicurarsi la combustionecompleta in un ambiente caldo, isolato dal fluido freddo da scaldare, occorre dividere l’aria in dueimmissioni, una, quella primaria, sotto il materiale in combustione e l’altra, quella secondaria, chesi misceli con i gas prodottisi dal legno, senza raffreddarli troppo.Varie soluzioni sono state sviluppate per conciliare queste diverse esigenze.Lo schema di una caldaia a griglia del riquadro che segue, con camera di combustione primaria e se-condaria indica uno schema classico. La zona di gassificazione e quella di ossidazione sono ben se-parate, l’aria primaria, ridotta, limita il trascinamento di polveri e ceneri, l’aria secondaria è distribui-ta in modo omogeneo al fine di assicurarsi la combustione del CO senza un forte eccesso d’aria, inampio spazio di rivestimento da refrattari ben caldi.

Il regolamento

L’aria primaria controlla la gassificazione, quindi va regolata secondo la domanda di potenza. Laportata di aria secondaria deve invece ossidare tutti i gas che si sono formati. Il legame con laportata primaria non è diretto; serve relativamente poca aria secondaria all’avviamento, al contra-rio, in fase di riduzione di potenza, l’aria sotto le braci va ridotta mentre va lasciata l’aria secon-daria. Questo problema è stato finalmente risolto da pochi anni, grazie allo sviluppo dei sensorielettrochimici dell’ossigeno che permettono di controllare in tempo reale la richiesta di ossigeno.L’uso di sonde specifiche per l’ossido di carbonio permette di operare con minori eccessi d’aria.Le caldaie di potenza elevata, con combustione su griglia, hanno diversi sistemi di riciclo dei fumiprelevati dopo lo scambiatore. Questo riciclo può essere effettuato in punti diversi, l’effetto è dimantenere un’omogeneità delle temperature e delle portate anche in condizioni di carico ridotto,di limitare le temperature troppo elevate e quindi la formazione degli ossidi di azoto di originetermica, senza danneggiare il rendimento energetico.Nelle caldaie a biomassa è in genere difficile ottenere variazioni rapide del carico, specie se il carica-mento del materiale è discontinuo. La maggioranza delle caldaie di piccola potenza vendute in Italiaprevedono un funzionamento on-off comandato da un termostato. Se nella caldaia è rimasto delmateriale acceso esso continuerà a decomporsi e a degasare e perciò, anche chiusa l’aria primariaoccorre garantire abbastanza aria secondaria per lungo tempo per evitare sia emissioni dannose cheformazione di fuliggine sui tubi di scambio e nel camino. Senza una sonda per l’ossigeno è difficilecontrollare questo processo. Il modo più corretto previsto dalle normative per caldaie più semplici èquello di operare a portata d’aria costante fino all’esaurimento del materiale combustibile, accumu-lando il calore in un serbatoio di adeguato volume (qualche m3, non uno scaldabagno).Per mantenere alta l’efficienza occorre disporre di sistemi per togliere la cenere dagli scambiatori,cosa facile se i tubi di fumo sono verticali.Per caldaie di impiego per riscaldamento degli edifici è possibile far condensare i fumi con recu-pero di calore a temperature attorno ai 50 °C, con quantità rilevanti se si brucia materiale umido,come le scorze.

Il controllo delle emissioni

Gli accorgimenti per limitare l’ossido di carbonio valgono anche per gli altri possibili idrocarburiincombusti, i policiclici, i catrami, la fuliggine. Anni fa negli USA, per stufe metalliche era propo-sto un catalizzatore ceramico a base di corderite, che abbassava l’innesco della combustione dellafuliggine a 250 °C; sembra opportuno puntare a questo risultato col corretto progetto della zonadi ossidazione. Per quanto riguarda gli ossidi di azoto ci sono problemi con quelle biomasse ric-

81COMPLESSITÀ & SVILUPPO 2003

BIOMASSE: DAL LEGNO “CALORE SOSTENIBILE”

che in azoto. Possono utilizzarsi camere di riduzione o soprattutto sistemi secondari di tipo catali-tico e non catalitico.Il controllo delle polveri è importante sia per la loro capacità irritante (per effetto della potassa) siaperché possono contenere adsorbite sostanze incombuste, potenzialmente cancerogene.Un’aria primaria ridotta aiuta a trattenere la cenere nella zona di base, mentre le emissioni di polve-ri richiedono una particolare attenzione. Un sistema a cicloni è certamente efficace per le particelleincombuste, lo è molto meno per materiale così poroso e leggero come le ceneri volanti del legno.Un filtro a maniche in tessuto potrebbe essere danneggiato da una particella ardente, magari du-rante le fasi di accensione; per questo può essere necessario o accoppiarlo con un ciclone o usareun filtro ceramico.Sono stati sviluppati anche separatori rotanti di particelle, mentre nei sistemi a condensazione è laprecipitazione dell’acqua che contribuisce alla pulizia dei fumi da scaricare nell’atmosfera. Se siusano i legni di recupero, verniciati o impregnati, allora si ha presenza di metalli pesanti (Cd, Zn, Pb,Cu, As, Cr, Ni); al di sopra di certe percentuali si entra nel settore dei rifiuti. È importante che questimetalli restino nelle ceneri del focolare e che queste ceneri siano poi gestite separatamente da quel-le volanti. Ugualmente la presenza di Hg e di Cl pone problemi da inceneritori per il trattamento deifumi. Problemi aperti possono aversi con la paglia, i cereali o il mais (meno costosi delle pastiglie), igusci, i noccioli ecc, più ricchi di K, Na, Cl e S rispetto al legno degli alberi, essi possono dare proble-mi sia di corrosione a caldo che di fusione delle ceneri, con depositi negli scambiatori.

Legno CHmOnNo, ceneri (K,P)

Paglia o erba CHmOnNo, Cl, S, ceneri

H2O + polveri + gas combustibili

HC, CO, He, CH2, CH3OH, NH3, HCN

Fumi di combustione

Prodotti voluti: CO2, H2O, N2, O2

Prodotti non desiderati : NO, CO, HCl, SO2, polveri

Carbonedi legna

Calore

Aria secondaria

Aria primaria

Aria primaria (O2+N2)

Ceneresotto griglia

Tempi di residenza > 1- 1,5 secondi

Calore

(3° stadio) ossidazioneλ > 1

> 800 °C

(1° stadio) essiccazione20 ÷ 150 °C

(2° stadio) gassificazione pirolisi< 600 °C; λ > 1

IL PROCESSO DI COMBUSTIONE DELLE BIOMASSE SOLIDE SU GRIGLIA

Fonte: OBENBERGER I.,Biomass Combustion-Technological Overview,possibilities of optimization,unsolved problems. 2nd BiomassSummer School 1997

82 COMPLESSITÀ & SVILUPPO 2003

&com

ple

ssità

svilu

ppo

Il sistema del nostro Paese deve operareper attrarre qualità e competenze scientifiche,

creare cioè quelle condizioni perché una comunitàscientifica – aperta agli apporti di tutti i ricercatori –

sia messa in grado di produrre nuove esperienze

CARLO RUBBIACommissario Straordinario

ENEA

Universalità e dimensioneinternazionale della scienza

2003 Tratto da: ENERGIA, AMBIENTE E INNOVAZIONE 3/03

Oltre cento scienziati italiani provenienti daogni parte del mondo hanno partecipatodal 10 al 12 marzo, a Roma, al “I Convegnointernazionale degli scienziati italiani all’e-stero” promosso dal Ministro per gli Italianinel Mondo, Mirko Tremaglia.Duplice l’obiettivo dell’iniziativa organizzatain collaborazione con il Ministero degliAffari Esteri e d’intesa con il Ministerodell’Istruzione, Università e Ricerca e ilMinistero della Salute: da un lato rendere ildovuto omaggio a una categoria di italianieccellenti che continua a dare lustro al no-stro Paese; dall’altro gettare le basi per unnuovo rapporto tra gli scienziati all’estero e iloro colleghi in Italia al fine di stimolare si-nergie e collaborazioni tra le due parti.Il Convegno svolto sotto l’Alto Patronato delPresidente della Repubblica, oltre alle rela-zioni dei due premi Nobel Rita LeviMontalcini e Carlo Rubbia, ha visto gli inter-venti di personalità di spicco del mondoscientifico italiano, dei rappresentanti deimaggiori enti di ricerca italiani e dei mini-steri coinvolti nell’organizzazione.Nelle tre sessioni di lavoro “geografiche”(Nord America, Europa e Sud America-Africa-Australia) sono intervenuti gli scien-ziati italiani affermatisi nei rispettivi Paesi diattività, i quali hanno descritto le caratteristi-che più salienti delle proprie esperienzeprofessionali e hanno lanciato idee e propo-ste di collaborazione con gli enti di ricercaitaliani. In estrema sintesi, è emersa la ne-cessità di promuovere: l’acquisizione dinuove risorse; la piena gestione dei proget-ti; il massimo sostegno al lavoro dei giovaniricercatori; un maggior coinvolgimento deiprivati; l’introduzione del principio di meri-tocrazia; la creazione di uno specifico comi-tato scientifico di consultazione. È ancheemerso che un problema importante è lamancanza di equilibrio tra il numero dei ri-cercatori che vanno all’estero e quello deglistranieri che giungono in Italia. Per questo ènecessario incrementare i finanziamenti nelnostro Paese ricordando che la ricerca di

83COMPLESSITÀ & SVILUPPO 2003

UNIVERSALITÀ E DIMENSIONE INTERNAZIONALE DELLA SCIENZA

L

base è un investimento pubblico non soloopportuno ma anche fruttuoso, a lungo ter-mine, di utili non indifferenti.Pubblichiamo, insieme alla relazione delprof. Rubbia, l’Ordine del Giorno e ilDocumento finale del Convegno.

a moderna metodologia scientifica nac-que in Italia nel diciassettesimo secolo conGalileo Galilei. Tuttavia, lo sviluppo dellescienze naturali incominciò a prenderepiede solamente nella seconda metà deldiciottesimo e l’inizio del diciannovesimosecolo. Ne furono i principali catalizzatoriun numero limitato di grandi scienziati ap-partenenti ad alcune università europee. Laloro influenza si diffuse rapidamente inEuropa, grazie soprattutto al fatto che i limi-ti delle frontiere nazionali non impedivanoai giovani studenti di apprendere nelle uni-versità di loro scelta – da Londra o Parigi aSan Pietroburgo, da Uppsala a Bologna. Fuquesta la prima forma di una primitiva coo-perazione internazionale. La collaborazio-ne internazionale è quindi un fenomenoantico quasi quanto la scienza moderna.Parallelamente, durante il XIX secolo, nelmondo occidentale l’industrializzazione in-cominciò a fare i primi passi. L’interazionefra le scienze e le nuove industrie crebbeprogressivamente: uno dei primi esempi èrappresentato dell’industria chimica (l’hi-gh-tech del XIX secolo) nata in Germania,che divenne un leader internazionale delsettore. Nel secolo scorso tali esperienzehanno portato anche ad un primo esempiodel coinvolgimento governativo diretto, conla creazione di un nuovo e più forte organi-smo di ricerca, complementare al sistemauniversitario: gli Istituti Kaiser Wilhelm, fon-dati in Germania nel 1911, e ora conosciuticome Istituti Max Planck.Ad evidenza della vitalità della scienza inEuropa durante i primi 25 anni del 900, dei71 laureati Nobel per la fisica, la chimica ela medicina, 68 furono assegnati a scienzia-ti europei.

I tragici eventi in Europa durante il secondoquarto del 900 e le loro ripercussioni sulleattività scientifiche sono ben noti, e nonhanno bisogno di essere descritti oltre.Tuttavia, fu durante la seconda guerra mon-diale e gli anni immediatamente successiviche emerse finalmente una chiara consa-pevolezza del ruolo fondamentale che lascienza può avere per lo sviluppo indu-striale e per le sue applicazioni, sia civilisia militari. Il governo federale degli StatiUniti d’America aumentò rapidamente i fi-nanziamenti alla ricerca nei settori dellescienze naturali e della bio-medicina, suuna scala che non ha precedenti nella sto-ria. Si calcola che, subito dopo la guerra, ilbilancio della ricerca degli Stati Uniti si av-vicinasse alla metà del totale dei finanzia-menti mondiali alla ricerca.Durante il penultimo quarto del secolo,questi investimenti, coadiuvati dalle dimen-sioni del Paese e da una totale libertà di in-terazione e movimento degli scienziati,portarono la scienza americana ad una po-sizione di assoluta pre-eminenza in moltisettori. A testimonianza di ciò, troviamo an-cora una volta la nazionalita dei premiNobel. Durante i primi 25 anni del XX se-colo, solamente 3 su un totale di 71 laureatiNobel per la fisica, la chimica e la medici-na furono americani. Nei 25 anni che vannodal 1955 al 1980, i cittadini statunitensi furo-no 82 su un totale di 150. Molti di questiprovenivano originariamente dall’Europa,alla ricerca della libertà fuggendo gli orro-ri di regimi totalitari.Nello stesso tempo, un altro, nuovo e rivolu-zionario modo di portare avanti la ricercafondamentale trovò le sue radici nelVecchio Continente, che si stava faticosa-mente risollevando dai disastri della guer-ra verso una rinnovata prosperità: un fortemovimento di internazionalizzazione istitu-zionale della cooperazione scientifica simanifestò in un momento in cui un tale con-cetto – così popolare ai nostri giorni – eraancora essenzialmente sconosciuto. Un

primo eccellente esempio fu il CERN,l’Organizzazione Europea per la RicercaNucleare con sede a Ginevra – che festeg-gia l’anno prossimo i suoi 50 anni – e cheattualmente alimenta le ricerche di ben5000 scienziati nel settore della fisica delleparticelle elementari. Incidentalmente, peril numero di ospiti americani, il CERN equi-vale al secondo laboratorio statunitense inordine di grandezza nel settore delle parti-celle elementari. Forte di 20 Stati membrieuropei, il CERN può annoverare tra gli altrigli Stati Uniti, il Canada, la Russia e Israelecome paesi osservatori. È stata la necessitàdi consentire una comunicazione attiva a li-vello mondiale fra i suoi scienziati, che hadato luogo all’invenzione del World WideWeb. La partecipazione scientifica del-l’Italia è ben il 28,8% degli altri Stati mem-bri, nonostante che il nostro contributo fi-nanziario sia dell’ordine del 15%.Questo nuovo metodo di cooperazionescientifica su scala globale, a partire dalCERN come modello, fece la sua comparsaanche in molti altri settori come la meteo-rologia, l’astronomia, la biologia, la fusionenucleare e l’ingegneria spaziale.Purtroppo, non è solo la mente umana, masono anche le malattie a non conoscerefrontiere. Di particolare interesse nel setto-re della medicina sono i programmi inter-nazionali sulle malattie tropicali sotto l’egi-da dell’Organizzazione Mondiale per laSanità, una speciale agenzia delle NazioniUnite, anch’essa con sede a Ginevra. Sonoorganizzati sulla base di veri e propri con-sigli di ricerca internazionali, in cui pianifi-cazione e decisioni sono nelle mani discienziati esperti provenienti da tutto ilmondo. L’Organizzazione Mondiale per laSanità fornisce servizi di base e svolge l’i-nestimabile ruolo di organizzazione om-brello che garantisce l’accesso a questiservizi a tutti gli Stati membri. In questomodo, i migliori esperti su scala pIanetariapossono cooperare efficacemente su alcu-ni dei più difficili problemi che affliggono i

84 COMPLESSITÀ & SVILUPPO 2003

CARLO RUBBIA

Paesi in via di sviluppo: allo stesso tempo,il sistema delle Nazioni Unite può espan-dersi in maniera costruttiva e priva di con-troversie.Sono convinto che questi siano tutti validiesempi di forme diverse di collaborazioneinternazionale. Nel settore della ricerca ci-vile sta gradualmente crescendo il ricorsoalla formula della cooperazione internazio-nale che viene percepita come il prerequi-sito necessario alla pace e alla prosperitàda una sempre più ampia porzione dellapopolazione mondiale.La cooperazione internazionale ha avutoinfine il suo riscontro anche a livello delComitato Nobel. Negli anni ’30, la maggiorparte dei Nobel erano tedeschi. Nel 1976,anno eccezionale, tutti i laureati Nobel pro-venivano dagli Stati Uniti. Durante gli ultimianni, fatto senza precedenti nella storiadella Fondazione Nobel, mai tanti scienziatiprovenienti da tanti Paesi diversi furono in-signiti di tale onorificenza. Inoltre, nei setto-ri della scienza in cui il coinvolgimento in-ternazionale è il più avanzato, la maggiorparte dei laureati Nobel hanno effettuato leloro scoperte nel quadro di programmi diricerca internazionali.È questa una nuova tendenza, o semplice-mente una fluttuazione statistica, destinataa scomparire negli anni a venire? A mio pa-rere, è questo un nuovo cammino intrapre-so dalla scienza, destinato ad essere per-corso sempre più frequentemente con ilpassare del tempo. Non è un evento inci-dentale, è una via importante che si sta tra-sformando nella strada maestra per lascienza del futuro.Ma, per quale motivo dovremmo ricorrerealla cooperazione internazionale nella ri-cerca della conoscenza?La necessità di fare ricorso ad essa si giu-stifica solitamente in termini di finanzia-menti, vale a dire con il bisogno di condivi-dere gli enormi investimenti indispensabilialla costruzione di laboratori su larga scala.Quantunque esso ne sia il motivo più evi-

dente, non è la sola ragione del rimarche-vole successo della scienza basata sull’in-ternazionalizzazione. Vi sono, infatti, altredue, ben più significative, giustificazioni al-l’allargamento della ricerca ad una dimen-sione internazionale. La prima ragione èquella che definirei “il fattore umano”. Ilprogresso nella ricerca fondamentale è ge-nerato principalmente da “fluttuazioni”,ossia da cambiamenti improvvisi dovuti aprogressi concettuali. Senza un tale “cata-lizzatore”, anche i più massicci investimen-ti in termini di risorse non sarebbero ingrado di produrre effetti confrontabili.Nella scienza, si progredisce maggiormen-te grazie ad una singola idea innovativache attraverso gli sforzi continuati e pianifi-cati di centinaia di ricercatori con un ap-proccio più convenzionale – lavoro che sirende peraltro necessario, quantunque nonsufficiente per il più rapido progresso.Come nell’arte, anche nella scienza, dietroalle personalità di grande successo trovia-mo il talento. La Natura genera questi talen-ti con lentezza, con parsimonia e a ritmocostante. Esso origina soprattutto da dotinaturali, tuttavia affiancate ad una solida eapprofondita formazione accademica. Illoro numero non si può aumentare a co-mando: crescono spontaneamente laddovele conoscenze di una comunità sono ade-guate a fornire quella formazione di basedi cui questi talenti hanno bisogno. Questoterreno di coltura è oggi presente in moltenazioni, compresi molti dei Paesi in via disviluppo.I1 secondo elemento di cui vorrei parlare èquello che chiamerei “l’effetto collettivo”.I1 progresso scientifico viene notevolmen-te amplificato da un effetto non-lineare. Ciòè particolarmente vero per le interfacce fradiscipline, ad esempio, un’idea chimica ap-plicata alla biologia, un concetto matemati-co applicato alla fisica, la comprensionedelle funzioni di base e così via. In altre pa-role, un centinaio di scienziati in disciplinenon troppo differenti che operano – per

85COMPLESSITÀ & SVILUPPO 2003

UNIVERSALITÀ E DIMENSIONE INTERNAZIONALE DELLA SCIENZA

così dire – sotto lo stesso tetto, effettuanoprogressi di gran lunga maggiori e rapidirispetto allo stesso centinaio di personeche lavorano separatamente e isolate leune dalle altre. Questa è una caratteristicafondamentale del pensiero scientifico inno-vativo. Ciò costituisce, ad esempio, unadelle maggiori ragioni per cui, durante gliultimi dieci secoli, il progresso scientifico siè associato principalmente alle università,e cioè a comunità in cui studiosi di discipli-ne diverse si trovavano riuniti. Ai giorni no-stri, esso è percepito anche dal mondo del-l’industria come un elemento essenzialeallo svolgimento delle proprie attività di ri-cerca e sviluppo.Pertanto, tenendo conto delle enormi di-mensioni dell’impegno scientifico di oggi,sia la raccolta delle menti migliori che lacreazione di un appropriato melting potsono realizzabili in maniera ottimale sola-mente grazie alla collaborazione interna-zionale.Va detto tuttavia che questo processo di in-ternazionalizzazione della scienza era giàlatente da lungo tempo e che ciò di cui cistiamo rendendo conto oggi rispecchiasemplicemente la necessità di una miglio-re e più sistematica istituzionalizzazione diun processo pre-esistente. Ad esempio,negli Stati Uniti la scienza ha grandementeapprofittato del melting pot internazionale,grazie al rimarchevole e spontaneo pro-cesso che ha creato questo grande Paesea partire dalle radici di genti emigrate datutte le parti del mondoFino ad ora, il carattere internazionaledella scienza statunitense altro non è statose non il risultato della straordinaria gene-rosità di quel Paese nell’accogliere tantepersone provenienti da tutte le parti delmondo. Io sono stato uno di questi e, comeloro, mi sento profondamente in debito neiconfronti degli Stati Uniti per la generositàe l’ospitalità che vi ho trovato.Tuttavia, anche nel caso di un Paese im-mensamente potente e ricco come gli Stati

Uniti, questo meccanismo sarà ancora suffi-ciente a far fronte ai problemi che si pre-senteranno negli anni a venire? Potrà l’af-flusso di latino-americani e asiatici com-pensare il diminuito afflusso degli europei?Penso che la complessità sempre crescen-te della ricerca scientifica richiederà conforza nuovi passi, al fine di assicurare che ilcoinvolgimento internazionale sia orientatoverso forme più organizzate e meglio pia-nificate. Solo così ci si potrà assicurare chetutta l’energia libera, potenzialmente pre-sente sotto forma di risorse umane, possaessere incanalata efficacemente all’internodi una più ampia organizzazione di coope-razione fra nazioni amiche. Una tale coope-razione su vasta scala non va intesa comelimite o come obbligo, ma come stimoloalla libera circolazione di idee e scienziatiall’interno del sistema. La scienza va inco-raggiata e non imbrigliata dalla burocrazia.È una precipua responsabilità della societàcreare le condizioni più propizie affinché lacomunità scientifica sia messa in grado diprodurre nuove conoscenze, un compo-nente essenziale per il progressodell’Occidente in particolare e di tutto ilgenere umano, più in generale. Oggi ciòdipende inevitabilmente da una coopera-zione scientifica internazionale, sempre piùestesa e meglio strutturata.Da lungo tempo si sono stabiliti dei profon-di legami fra il vecchio e i nuovi continenti.Di recente, una nuova componente ha ini-ziato a giocare un ruolo sempre crescente.Il moderno Giappone e altri paesi orientali,come ad esempio l’India e la Cina, stannoemergendo con la necessità impellente dimigliorare i loro standard di vita, e al fine diacquisire una nuova e influente posizioneall’interno di un’economia globale. A primavista, ci sembra tuttavia (e questo vale inparticolare dal punto di vista degli euro-pei) che questi nuovi, emergenti meltingpot non parlino il nostro stesso linguaggioo delle stesse cose. Penso che questo siadovuto ad una nostra conoscenza piuttosto

86 COMPLESSITÀ & SVILUPPO 2003

CARLO RUBBIA

superficiale dei loro fondamenti culturali edelle loro genti. Ciò è forse dovuto ancheperché ci risulta difficile capire la loro pro-rompente ossessione per la produttività el’efficienza. Non stanno essi forse trascu-rando un’altra dimensione, altrettanto im-portante, vale a dire l’estetica e la qualitàdel prodotto, quella impercettibile alchimiafatta di originalità e fantasia?Produrre di più e a prezzi píù bassi: d’ac-cordo, ma a che fine/scopo?I prodotti correnti parlano alla nostra mentecome lo hanno saputo fare i capolavori deinostri antenati? È mia opinione che il futuroapparterrà a coloro che sapranno coglierequel confine misterioso, ma difficilmentequalificabile, che separa il brutto dal bello.È questa una filosofia che ha permeato lamaggior parte delle grandi civiltà del pas-sato; è questo un elemento fondamentale,che caratterizza il modo di percepire ilmondo circostante, almeno per noi occi-dentali. Non va dimenticato, ad esempio,che questo concetto affonda profondamen-te le sue radici nella storia e nella culturaitaliane, e che rappresenta uno dei più pre-ziosi patrimoni che abbiamo ereditato dalnostro passato ed è il motivo principale percui siamo apprezzati nel mondo.Confido nel fatto che attraverso una miglio-re comprensione gli uni degli altri possacambiare anche il nostro atteggiamento neiconfronti dei rimarchevoli successi ottenutidagli altri popoli con diverse radici cultura-li. È solamente attraverso dei legami piùsolidi fra tutti noi, attraverso la realizzazionedi un mondo veramente internazionalizza-to, basato su attività scientifiche fondatesulla cooperazione, nella quale tutti i diffe-renti patrimoni culturali – risultato dell’ere-dità del passato – saranno in grado dirafforzare i legami che ci uniscono, che riu-sciremo a pianificare lo scenario generaledel ventunesimo secolo, in un più esteso e

rinnovato quadro di unificazione scientificafra tutti i popoli civilizzati del pianeta.

Cari colleghi, voi siete una risorsa di altissi-ma qualità, un “prodotto” molto richiesto nelmondo. Siete riusciti ad imporvi, a trovare ilvostro ruolo – come ho fatto anch’io nelpassato – in un ambiente certo non facile,molto diverso da quello della nostra Patria.Andare a lavorare all’estero è sempre untrauma. Lo sanno i nostri lavoratori, che untempo dovevano partire lontano per “gua-dagnarsi la pagnotta”. Lo avete imparatoanche voi: non senza sacrifici, siete andati –e state andando – a portare all’estero la vo-stra intelligenza e le vostre conoscenze.Andare all’estero non è affatto un disonore.La cosiddetta fuga dei cervelli dimostra pa-radossalmente che abbiamo un sistema diformazione competitivo, e risorse umaneveramente di prima classe. Altrimenti, all’e-stero, non avreste trovato rispetto ed acco-glienza. Se oggi la ricerca incontra seriedifficoltà all’interno del nostro Paese, lacolpa non è quindi dei ricercatori. È il siste-ma complessivo del Paese che deve ade-guarsi, al fine di riconoscere ed attrarre nelmodo giusto le qualità e competenze nelcampo scientifico.La ricerca ormai si sviluppa preminente-mente in un ambito internazionale, ed èperfettamente fisiologico che anche i nostriricercatori si dirigano per tutte le`vie nellacomunità scientifica mondiale. A mio pare-re, il problema è altrove, è nella mancanzadi un equilibrio tra il numero di ricercatoriitaliani che vanno all’estero e il numero,oggi ben esiguo, di ricercatori stranieri chevengono in Italia. I1 capovolgimento di untale disequilibrio sarà la migliore e la piùrilevante misura del successo della riformadella ricerca in Italia che il nostro Governoattuale ha, ancora una volta di più, deciso diintraprendere.

87COMPLESSITÀ & SVILUPPO 2003

UNIVERSALITÀ E DIMENSIONE INTERNAZIONALE DELLA SCIENZA

88 COMPLESSITÀ & SVILUPPO 2003

CARLO RUBBIA

ORDINE DEL GIORNO

Il Primo Convegno Internazionale degli Scienziati italiani all'estero, svoltosi a Roma dal 10 al

12 marzo 2003 sotto l'Alto patronato del Presidente della Repubblica, ha rafforzato lo spirito

di collaborazione tra gli scienziati italiani nel mondo e gli organi istituzionali coinvolti nella

promozione e nel sostegno della ricerca e della tecnologia italiana.

In tale contesto ed al fine di assicurare un seguito costruttivo alle proposte emerse nel corso

dei lavori, e stata decisa la costituzione di un Comitato scientifico permanente degli scienzia-

ti italiani nel mondo, sotto la presidenza del Ministro per gli Italiani nel Mondo, On. Mirko

Tremaglia.

Questo organismo sarà composto dai delegati del Ministero degli Affari Esteri, del Ministero

della Salute, del Ministero dell'Istruzione, dell'Università e della Ricerca, del Ministero degli

Affari Regionali, del Ministero delle Comunicazioni, del Ministero per le Attivita Produttive,

nonché dai membri del comitato organizzatore del Convegno.

Ne faranno parte altresì una rappresentanza degli scienziati italiani operanti nelle tre aree

geograflche Nord America, Europa, America Latina, Australia e Sudafrica e degli addetti

scientifici in servizio presso le sedi diplomatiche nelle medesime aree geografiche.

Obiettivi prioritari del Comitato scientifico, che si avvarrà della collaborazione dell'Ufficio di

presidenza del Consiglio Generale degli Italiani all'Estero, sono il potenziamento delle rela-

zioni tra gli scienziati italiani all'estero e quelli operanti in Italia, la progettazione di centri

d'eccellenza per la ricerca scientifica in Italia, la realizzazione e lo sviluppo di una banca dati

dei ricercatori italiani all'estero, nonche il collegamento tra le Università italiane e i ricercatori

italiani all'estero.

Primo Convegno Internazionale degli Scienziati italiani all’Estero(Roma, 10-12 marzo 2003)

I partecipanti al primo Convegno degli Scienziati Italiani all’estero, tenutosi a Roma il 10-12

marzo 2003, su iniziativa del Ministro per gli Italiani nel Mondo, On. Mirko Tremaglia, espri-

mono la loro soddisfazione per l’accresciuta attenzione che l’Italia oggi mostra per la realtà

costituita dalla diffusa presenza di ricercatori italiani negli enti e nelle istituzioni straniere.

Sottolineano altresì come questa presenza, lungi dal doversi connotare in senso negativo

come "fuga dei cervelli" e come spoliazione di risorse umane intellettuali, debba essere con-

siderata positiva in termini di circolazione delle idee e delle informazioni e di arricchimento

del "sistema Italia".

A fronte di questa situazione esiste una ricchezza costituita dal capitale intellettuale italiano

diffusamente presente nelle strutture di ricerca e di alta formazione dei paesi oltreoceano

che non si può ignorare.

Si tratta di capitalizzare la risorsa costituita dagli italiani operanti all’estero nel settore della ri-

cerca scientifica e dell’alta formazione, nella logica di valorizzarne le competenze, il ruolo, il

sistema di relazioni ed il lavoro attraverso forme di integrazione della loro attività nell’ambito

del nostro sistema formativo e di ricerca sia pubblico che privato.

Documento finale del Convegno degli Scienziati e Ricercatoriitaliani nel mondo

(Roma, 10-12 marzo 2003)

89COMPLESSITÀ & SVILUPPO 2003

UNIVERSALITÀ E DIMENSIONE INTERNAZIONALE DELLA SCIENZA

Tale integrazione può essere realizzata attraverso la mobilità individuale dei singoli studiosi

ed anche con forme di promozione e di incentivazione della loro partecipazione a distanza ai

programmi di ricerca effettuati nelle istituzioni italiane.

Prendendo atto delle molteplici indicazioni emerse nel corso dell’ampio e approfondito di-

battito e rallegrandosi dell’impegno del Ministro Tremaglia a voler sviluppare una politica atta

ad assicurare il contributo che gli scienziati italiani all’estero potranno recare allo sviluppo

della ricerca in Italia, i partecipanti indicano alcuni momenti significativi.

Tra questi vi è il progetto di istituire una anagrafe telematica degli studiosi italiani all’estero

che permetta di avere un quadro aggiornato della loro consistenza e distribuzione.

In particolare si suggerisce di porre in essere un sistema volto a potenziare la costituzione di

reti e di iniziative di ricerca che coinvolgano centri e studiosi operanti in Italia ed i ricercatori

italiani all’estero. Si potrebbe immaginare sin da ora in Italia, tenendo anche presente gli im-

portanti contributi che possono venire dalle Regioni, un sistema di finanziamenti riservati a

progetti di ricercatori italiani, a stages semestrali, annuali o biennali per soggiorni di ricerca-

tori italiani all’estero presso centri nazionali, nell’ambito di specifici programmi di coopera-

zione scientifica.

In questa prospettiva si suggerisce anche l’incentivazione della partecipazione a distanza a

programmi di ricerca effettuati nelle istituzioni italiane attraverso il finanziamento individuale

allo studioso residente all’estero ed il finanziamento di micro-reti di ricerca tra individui ed

istituzioni italiane.

Si auspica inoltre la costituzione di reti telematiche tra gli studiosi italiani all’estero, articolate

per disciplina, in corrispondenza alle reti italiane, in modo da costituire una banca dati al ser-

vizio di tutti gli scienziati. Questo vale in modo specifico per gli accordi già presi tra gli ospe-

dali italiani all’estero ed i centri sanitari di eccellenza operanti in Italia.

La selezione delle proposte dovrebbe essere effettuata dal Ministero per gli Italiani nel

Mondo sulla base di criteri di congruità scientifica espressi dai rappresentanti eminenti della

stessa comunità di ricercatori e dal Comitato Scientifico Nazionale, tenendo conto del livello

di integrazione delle proposte con gli orientamenti dell’ultimo piano nazionale di ricerca e

del sesto Programma Quadro di ricerca comunitaria.

Nel corso del convegno è stata avviata una comune riflessione sul contributo che le esperien-

ze dei vari ricercatori, nelle loro diverse realtà, possono dare al potenziamento ed alle neces-

sarie trasformazioni dell’organizzazione della ricerca in Italia ed alle ricadute sulla società e

l’economia italiana.

Il confronto tra grandi sistemi e una attenta analisi sulle strategie atte ad introdurre elementi di

innovazione di maggiore efficacia nel nostro sistema, possono costituire uno stimolo al cam-

biamento ma, soprattutto, devono offrire una preziosa consulenza tecnica ai responsabili poli-

tici. L’obiettivo è duplice ed è emerso con chiarezza nel corso del convegno: agevolare il la-

voro di ricerca degli studiosi in Italia e rendere più efficaci i risultati aiutando a superare inac-

cettabili ritardi.

I partecipanti al Primo Congresso degli Scienziati Italiani all’Estero auspicano di poter arre-

care il loro contributo, assieme al Ministero per gli Italiani nel Mondo, dando seguito a questa

iniziativa con ulteriori periodici contatti con la comunità scientifica italiana e con i responsabi-

li della politica di ricerca e di sviluppo industriale al fine di assicurare al nostro Paese una po-

sizione internazionale degna della sua storia e delle sue ricche potenzialità umane.

Questo per noi significa la politica dell’Italianità.

90 COMPLESSITÀ & SVILUPPO 2003

&com

ple

ssità

svilu

ppo

Dopo microelettronica e biotecnologia si staaffermando un nuovo paradigma scientifico e

tecnologico, foriero di formidabili sviluppi in tutti isettori applicativi nel prossimo decennio.

Fisica, chimica e biologia contribuiscono a questanuova disciplina. Fra i paesi all’avanguardia, molte

conferme e alcune sorprese

ANTONIO NOBILI*SALVATORE SCAGLIONE**

ENEA,* Senior Board

** UTS Tecnologie e Fisiche Avanzate

La nanotecnologia: premessaper una nuova rivoluzione scientifica?

2003 Tratto da: ENERGIA, AMBIENTE E INNOVAZIONE 3/03

scientifica che porta insito in sé anche unabbassamento dell’efficienza (si duplicanole stesse attività applicate in campi diversied impermeabili fra loro), dall’altra si assi-ste alla convergenza di discipline che finoad oggi hanno dialogato tra loro in modomarginale.Discipline come la fisica, la scienza dei ma-teriali, la medicina, la chimica e la biologiastanno avendo un grado di sovrapposizio-ne tale che ormai si parla apertamentedella nanoscienza come di una nuova bran-ca della conoscenza che sta costruendo unproprio autonomo paradigma che non puòessere certamente assimilato alla semplicesomma delle regole che governano le sin-gole parti.Esistono vari indicatori che evidenziano lacostruzione del nuovo paradigma o comeviene riportato in alcuni interventi, para-digm shift, come per esempio: le analisi “bi-bliometriche” sulle pubblicazioni e sui bre-vetti presentati nell’ambito delle nanotecno-logie; la comparazione tra l’andamento delrapporto tra le nano-pubblicazioni ed inano-brevetti disaggregato per disciplina.Un altro indicatore, forse meno concreto eche ci riporta alla prima frase di questapremessa, è il susseguirsi di workshop econgressi in cui vengono organizzate dellesessioni monotematiche sull’impatto che lananoscienza ha sulla società e sulle conse-guenze che avranno sull’uomo e sull’eco-nomia le “promesse” eventualmente man-tenute dalla nanotecnologia stessa.Anche da un’analisi preliminare dei docu-menti di lavoro messi a disposizionedall’Unione Europea per il perfezionamen-to del VI Programma Quadro nell’ambitodelle nanotecnologie e nanoscienze3, si

91COMPLESSITÀ & SVILUPPO 2003

LA NANOTECNOLOGIA: PREMESSA PER UNA NUOVA RIVOLUZIONE SCIENTIFICA?

Achi pone una certa attenzione al progres-so della scienza e della tecnologia, nonsarà sfuggito lo strano e anomalo processoche sta avvenendo nell’ultimo decennio in-torno allo sviluppo delle nanoscienze edelle nanotecnologie. La definizione diquesto processo è ben riportata da J.A.Armstrong nel suo intervento al workshop,organizzato dal National Science Foun-dation nel settembre del 2000, dal titolo“Societal Implications of Nanoscience AndNanotechnology”1 nel quale ci si chiede laragione per cui un piano di sviluppo tecno-logico di tipo governativo (National Nano-technology Iniziative - NNI) necessiti di unosforzo per comprendere le implicazioni so-ciali dei risultati del piano stesso.Si intuisce, dalle questioni poste dall’auto-re, che i meccanismi messi in moto dallosviluppo delle nanoscienze sono diversi ri-spetto a quelli messi in moto dai grandiprocessi tecnologici del secolo trascorso. Èfacile infatti incontrare sia nella letteraturaspecialistica sia nei quotidiani a più largadiffusione, un numero sempre maggiore diarticoli che elencano le grandi sfide che lananoscienza si appresta ad affrontare e, diconseguenza, le grandi speranze che su-scita. Quest’ultima affermazione appariràforse esagerata rispetto ad un’attivitàscientifico-tecnologica che, da Galileo inpoi, ha visto l’attività intellettuale dell’uomospecializzarsi sempre di più in un processoche ha affrontato delle sfide formidabili intermini di profondità della comprensionema che ha perso una visione di insieme2.Appare infatti curioso che, mentre da unaparte si è assistito al continuo allarme, lan-ciato dagli addetti ai lavori e non, sul peri-colo della specializzazione dell’attività

1 “First question: Why are we having this workshop at all? When the Administration and Congress fund an NSF initiative to build a highenergy physics detector, or a supercomputer, or an Engineering Research Center, we do not normally proceed to collective scru-tiny of possible societal impacts…….”.

2 MARCELLO CINI, Un paradiso perduto, ed. Feltrinelli, IV edizione, 1999, pp 17-30. “…..L’unità dell’universo, tuttavia, è soltanto teorica.Nella pratica occorre infatti interrogare il gran libro della natura là dove si presenta nella sua massima semplicità e regolarità: lonta-no dalla complicazione e dall’irregolarità che caratterizzano il turbinio dei fenomeni terrestri. Soltanto un’accurata selezione all’in-terno di questo mondo disordinato può permettere di individuare alcuni fenomeni particolarmente semplici, sfrondandoli dalle ac-cidentalità contingenti, e di interpretarli mediante l’armonia del linguaggio geometrico. Ma in questo modo ciò che si guadagna inprofondità si perde in estensione……”.

3 VI Framework Programme, Draft work Programme Thematic Area 3, “Nanotechnology and nanosciences, knowledge-based multi-functional materials, new production processes and devices”, 28 ottobre 2002.

evince che l’obiettivo primario di quest’a-rea tematica è quello di favorire una discon-tinuità rispetto al passato in modo da pro-muovere dei cambiamenti radicali nei pro-dotti, nei processi industriali e nella orga-nizzazione della produzione. Inoltre, sem-pre nel VI Programma Quadro, le attività diricerca dovrebbero incoraggiare il dialogocon la Società e generare “entusiasmo” perla scienza. Interessante è anche il para-grafo, di cui uno stralcio viene qui riportato,nel quale si evidenzia esplicitamente unasensibilità nuova per le implicazioni socialidei risultati di quest’area tematica3.

La sfida per l’Europa è di incoraggia-re una transizione industriale versouna produzione basata sulle cono-scenze e sull’organizzazione di siste-ma e considerare la produzione dauna prospettiva olistica, che com-prenda non solo “l’hardware” e il“software” ma anche le persone ed ilmodo con cui esse imparano e condi-vidono le conoscenze.

Che cosa si intende per“nanotecnologia”La definizione non è semplice e neancheunivoca; infatti nel tempo si è evoluta conl’incremento del numero delle varie disci-pline scientifiche che si sono occupate ditale argomento. L’origine delle nanotecno-logie, almeno per quanto riguarda la suaideazione, va comunque ricercata nelcampo della fisica: infatti il fisico RichardFeynman nel 1959, durante il suo lunch-talkal Caltech, afferma che gli atomi su piccolascala si comportano diversamente rispettoal comportamento che hanno su largascala e, quindi, se si opera su dimensioniatomiche le leggi delle fisica sono diverse,

così come ci si aspetta che gli atomi faccia-no delle cose diverse4. Le attività vere eproprie sulle nanotecnologie possono es-sere fatte risalire a circa 15 anni fa5 anchese è solo negli ultimi 5-6 anni che il numerodelle pubblicazioni ha avuto una crescitaesponenziale.Per quanto riguarda la definizione di “na-notecnologia”, quella riportata da A.Franks6, “la nanotecnologia è quell’attivitàtecnologica in cui le dimensioni o le tolle-ranze che variano nell’intervallo tra 0,1 e100 nm (dalle dimensioni di un atomo allalunghezza d’onda della luce) giocano unruolo cruciale”, ha avuto per un lungo pe-riodo un largo consenso.Negli ultimissimi anni, questa definizionetende ad essere sostituita da una più com-plessa ma che tiene meglio conto dell’ap-proccio inter-disciplinare alla materia.Nell’articolo di D.E. Nicolau et al.,5 viene ri-portata un’analisi dei vari concetti che sot-tendono alla definizione di nanotecnologia.Se per nanotecnologia viene intesa l’attivitàsu scala nanometrica, si ricade nella tecno-logia classica: infatti, nella microlitografianel lontano UV sono stati “scritti” dei dispo-sitivi a semiconduttore di dimensione benal disotto dei 200 nm. Se si intende invecel’alterazione di singoli atomi o molecole,anche in questo caso sia la microscopia aforza atomica sia quella ad effetto tunnelsono in grado di manipolare atomi e mole-cole. Quindi, se si intende come prodottofinale della nanotecnologia ogni compo-nente in scala nanometrica, i “dispositivielettronici quantistici” soddisfano questocriterio.Tuttavia, si è ancora ben lontani dalla crea-zione di un nuovo paradigma scientificonecessario per un prodotto rivoluzionario.Sembra quindi che queste versioni delconcetto di nanotecnologia (miniaturizza-

92 COMPLESSITÀ & SVILUPPO 2003

ANTONIO NOBILI, SALVATORE SCAGLIONE

4 HANS FOGELBERG, The Grand Politics of Technoscience: Contextualizing Nanotechnology, lavoro presentato al seminario: “The Battle atthe bottom: Making the most of Feynman Legacy”, Stockolm, 19 aprile, 2001.

5 D.E. NICOLAU, J. PHILLIMORE ET AL., Nanotechnology at the crossroads: the hard or the soft way?, Microelectronics Journal, 31, (2000) pp.611-616.

6 A. FRANKS, “Nanotechnology”, J. Phys. E. Sci. Instrum., 20 (1987), pp. 1442-1451.

zione sempre più spinta) siano alla ricercadi un prodotto “vincente” che si supponedebba produrre una rivoluzione simile aquella prodotta dalla microelettronica.Un approccio diverso da quello riportatosopra viene proposto dal Foresight Instituteper i criteri dell’assegnazione del PremioFeynman7, secondo i quali criteri devonoessere realizzati contemporaneamente duedispositivi operanti su scala nanometrica,uno per il calcolo ed uno di posizionamen-to. Questi dispositivi rappresentano proba-bilmente il culmine ultimo delle potenzia-lità della fisica a stato solido e quindi dellatecnologia basata su di essa. Anche sel’ambito in cui ricercare le soluzioni pervincere il premio Feynman non è esplicita-mente menzionato, in modo un po’ riduttivosi suggerisce che la tecnologia dello statosolido sembra essere la disciplina da cuiverranno prodotti tali “nano-dispositivi”.Una più attenta analisi degli indicatori pre-cedentemente menzionati (nano-pubblica-zioni, nano-brevetti), fa emergere un altrofattore, la natura interdisciplinare della nano-scienza e nanotecnologia. Probabilmente èproprio questa la direzione giusta per dareuna corretta definizione della nascente di-sciplina. Infatti, Tegart afferma che i ricerca-tori ed i tecnologi operano nel campo dellenanotecnologie da tre diverse direzioni: la fi-sica, la chimica e la biologia8.

In fisica, la microelettronicaprocede verso dimensioni sem-pre più piccole ed è già ingrado di realizzare delle strut-ture sub-micrometriche. Il pro-cesso di miniaturizzazione ren-derà necessari per i processoridei computer delle strutture na-nometriche.

In chimica, la migliore cono-scenza dei sistemi complessi haportato a nuovi catalizzatori,membrane, sensori e tecnolo-gie dei coating che sono corre-lati alla capacità di realizzaredelle strutture a livello atomicoe molecolare.In biologia, i sistemi viventihanno delle sotto-unità le cuidimensioni sono nelle scale deimicron e dei nanometri, questepossono essere combinate conmateriali nanostrutturati non vi-venti in modo da creare nuovidispositivi.

Alla luce di quanto riportato, si può aggior-nare la definizione precedente come: “Lananotecnologia è il controllo diretto di ma-teriali e dispositivi su scala atomica e mo-lecolare”.Viene introdotto quindi il concetto di dispo-sitivo che, in questo caso, è da intendersinella sua definizione più vasta: si parla in-fatti anche di sistemi micro-elettro-mecca-nici (MEMS, micro-electro-mechanical sy-stem). E, come riportato dalla letteratura,sono proprio questi ultimi che rappresen-tano una formidabile sfida per il futuro ed ilpunto d’incontro tra le discipline sopra ac-cennate.

Analisi della produzione di nano-paper e nano-patentPer descrivere l’evoluzione di una qualsiasiattività scientifica e tecnologica H. Gruppha sviluppato un modello, illustrato in figura1, per cui questa viene divisa in otto fasi9. Lafase I si riferisce al lavoro iniziale di esplo-razione scientifica, la fase II comprende sia

93COMPLESSITÀ & SVILUPPO 2003

LA NANOTECNOLOGIA: PREMESSA PER UNA NUOVA RIVOLUZIONE SCIENTIFICA?

7 “The yet to-be-awarded computing device has to fit into a cube no larger than 50 nm in any dimension, and be capable of addingaccurately any pair of 8-bit binary numbers and producing its output as a pattern of raised nanometer-scale bumps on an atomical-ly precise and level surface. The second device, to be built simultaneously with the former, is a positional device that fits into a cubeno larger than 100 nm in any dimension. The device must be able to move to a directed sequence of positions anywhere within acube 50 nm in each dimension, perform all directed actions with a positioning accuracy of 0.1 nm or better, and perform at least1000 accurate, nanometer-scale positioning motions per second for at least 60 consecutive seconds.”.

8 G. TEGART, Nanotechnology, The Technology for the 21th Century, presentato al “APEC CTF Workshop”, Ottawa, 5-7 novembre 2001.9 R. COMPAÑÓ, A. HULLMANN, Nanotechnology, 13 (2002) 243-247.

l’incremento dell’attività scientifica che l’ap-parire di quella tecnologica. I primi prototi-pi appaiono nella fase III mentre le fasi IV eV sono caratterizzate da una stagnazionedell’attività più propriamente scientifica edalla difficoltà ad applicare commercial-mente i risultati tecnologici.Un processo di riorientazione nelle strate-gie industriali e quindi l’emergere di unimportante numero di applicazioni indu-striali caratterizza le fasi VI e VII. La fase dimaturità, la VIII, segna una forte penetra-zione nel mercato mentre l’attività di ricer-ca scientifica diminuisce rispetto a quellatecnologica di innovazione del prodotto.Questo modello è basato su due indicatori,le pubblicazioni ed i brevetti e la sua appli-cazione ha dato dei buoni risultati nello

spiegare l’evoluzione di tecnologie oramaimature come la biotecnologia e la tecnolo-gia dei microsistemi.In figura 2 è illustrato l’andamento dei bre-vetti e delle pubblicazioni scientifiche sullenanotecnologie9 nell’intervallo temporaleche va dal 1981 al 1998. Applicando questidati al modello sviluppato da H. Grupp, ri-sulta che le nanotecnologie si trovano nellafase II o nella parte iniziale della fase III.Quindi ci si dovrebbe aspettare un’attivitàscientifica, in termini di indagine di tipoesplorativo, e un numero di pubblicazioniche tendono a quella fase che prelude lastagnazione (fra tre-cinque anni). È proprioin questa fase che l’attività tecnologica do-vrebbe avere il suo massimo sviluppo. Neiprossimi dieci anni ci si aspetta quindi unforte incremento dei prototipi applicativi edei brevetti anche se saremo ancora lonta-ni dalla loro commercializzazione.Dalla definizione di nanotecnologia si evincechiaramente che l’accostamento inter-disci-plinare, o meglio ancora trans-disciplinare5

alla materia, è l’unico in grado di assicurareun prodotto finale che sia più della somma li-neare delle parti e che generi una nuova di-sciplina con una propria struttura teorica.Allo stadio di sviluppo attuale della nano-tecnologia (da intendersi come l’insieme ditutte le tecnologie operanti su scala nano-metrica) possiamo immaginare che essa èla convoluzione di un numero di nanotec-nologie con diversi obiettivi la cui scalatemporale di evoluzione potrebbe esseresignificativamente diversa una dall’altra. Cisono “nano-prodotti” già disponibili sulmercato (nanoparticelle di ossido di titaniousate nelle creme per la protezione solareo nanoparticelle di carbone per migliorarela resistenza dei pneumatici) mentre altriprodotti sono ancora nella fase iniziale diideazione ma che già hanno una previsio-ne sulla loro evoluzione temporale comeper esempio i componenti elettroniciCMOS operanti su scala nanometrica onano-componenti sviluppati nell’ambitodella chimica e della farmaceutica per dia-

94 COMPLESSITÀ & SVILUPPO 2003

ANTONIO NOBILI, SALVATORE SCAGLIONE

Scienza

Tecnologia

Produzione

I II III IV V VI VII VIII

Live

llo d

i atti

vità

Figura 1Modello dell’attivitàscientifica e tecnologi-ca elaborato da H.Grupp. Le attività dal-la scienza alla produ-zione sono state sud-divise in otto fasi

Pubblicazioni

Brevetti

14000

12000

10000

8000

6000

4000

2000

0

Num

ero

di p

ubbl

icaz

ioni

(S

CI)

350

300

250

200

150

100

50

0

Num

ero di brevetti (EP

O)

1981

1983

1985

1987

1989

1991

1993

1995

1997

Figura 2Andamento dei bre-vetti e delle pubblica-zioni scientifiche sullenanotecnologie dal1981 al 1998

gnosi medica non invasiva o trattamentiper il cancro ecc.Nella tabella 1 viene riportato il numero diarticoli scientifici pubblicati negli anni chevanno dal 1991 al 199610. L’informazionepiù significativa di questa tabella è che ildato viene disaggregato per materia edinoltre, per ognuna di esse, viene calcolatoil coefficiente di crescita lineare.Come si può vedere le pubblicazioni inscienze naturali hanno la crescita maggio-re, mentre l’ingegneria, la scienza dei ma-teriali e le scienze della vita sembrano per-dere in importanza. Questo dato sembre-rebbe in contraddizione rispetto a quantodetto nei precedenti paragrafi sulle originidella nanoscienza, cioè la tecnologia deimateriali a stato solido.Nel lavoro di Meyer e Persson il numero diarticoli pubblicati per anno nello stesso in-tervallo temporale di quello riportato nellatabella 1, viene suddiviso per sotto-discipli-ne indicando nelle scienze chimiche e fisi-che la crescita maggiore insieme agli arti-coli con un forte taglio multidisciplinare. Ildato apparentemente contraddittorio dellatabella 1 viene quindi risolto considerandoche aumenta sempre di più il numero dichimici e fisici che prestano la loro operanell’ambito delle scienze naturali abbando-nando i loro ambiti tradizionali.Per concludere questo paragrafo si citano

qui di seguito alcune frasi riprese dallepremesse di due rapporti in cui viene ulte-riormente sottolineato il carattere inter-di-sciplinare dell’attività scientifico-tecnologi-ca sulle nanotecnologie.

La nanotecnologia è un terminemolto popolare per la costruzione el’utilizzazione di strutture funzionaliche abbiano almeno una delle di-mensioni caratteristiche dell’ordinedei nanometri. Tali materiali e sistemipossono essere progettati in modo daesibire nuove proprietà, nuovi feno-meni e nuovi processi di tipo fisico,chimico e biologico proprio graziealle loro dimensioni. Quando le carat-teristiche strutturali hanno dimensioniintermedie tra quelle di un atomo iso-lato e quelle del materiale massivo(da 1 a 100 nm) gli oggetti spessomostrano dei comportamenti fisici so-stanzialmente differenti da quelli mo-strati sia dai singoli atomi sia dai ma-teriali massivi11.Emergono due importanti risultatidallo studio del WTEC: nel primo siafferma che la capacità di realizzaredei materiali nanostrutturati pernuove prestazioni può considerarsiacquisita. La capacità di nanostruttu-rare è essenziale quindi nel campo

95COMPLESSITÀ & SVILUPPO 2003

LA NANOTECNOLOGIA: PREMESSA PER UNA NUOVA RIVOLUZIONE SCIENTIFICA?

Tabella 1Numero di articoliscientifici pubblicatinegli anni che van-no dal 1991 al 1996

Disciplina 1991 1992 1993 1994 1995 1996 Totale Crescita* Errore Standard

Scienze naturali 119 205 386 612 765 946 3033 3,2 3,7

Scienze multidisciplinari 51 103 141 189 289 367 1140 0,4 2,2

Ingegneria e Scienza dei materiali 74 92 127 184 235 209 921 -2,3 1,9

Scienze della vita 30 47 30 59 70 56 292 -1,5 1,8

Non-classificato 0 0 0 1 5 24 30 0,2 0,4

Totale 274 447 684 1045 1364 1602 5416

* Distribuzione degli articoli per disciplina

10 M. MEYER, O. PERSSSON, “Nanotechnology-Interdisciplinarity, Patterns of Collaboration and Differences in Application”,Scientometrics, 42(2) (1998) 195-205.

11 National Science and Technology Council Committee on Technology, Interagency Working Group on Nanoscience, Engineeringand Technology (IWGN), Nanotechnology Research Directions: IWGN Workshop Report Vision for Nanotechnology R&D in the NextDecade, September 1999.

delle applicazioni che necessitano diprestazioni di nuovo tipo.Tale capacitàrappresenta una rivoluzione nella ma-nipolazione dei materiali per il benedell’Umanità e segna quindi l’inizio diuna nuova era. La sintesi ed il controllodei materiali di dimensioni nanometri-che permette l’accesso a nuove pro-prietà dei materiali ed alle nuove ca-ratteristiche di dispositivi che non haprecedenti. Ogni anno, un sempremaggior numero di ricercatori prove-nienti da un’ampia gamma di discipli-ne viene coinvolto in questo campo,ed ogni anno si assiste ad un aumentodi nuove idee ed all’esplosione dinuove opportunità nella scena interna-zionale delle attività sulle nanostruttu-re. Dal secondo risultato dello studio sievince come in tutto il mondo ci sia unampio spettro di discipline che contri-buisce allo sviluppo della nanoscienzae della nanotecnologia. Il rapido au-mento del livello delle attività interdi-

sciplinari nel campo della nanostruttu-razione è eccitante e diventa semprepiù importante, è proprio nella inter-sezione tra le varie discipline che risie-de la vera novità12.

Anche se i dati presentati non sono ovvia-mente esaustivi, possono essere però con-siderati sufficienti per trarre alcune conclu-sioni, peraltro già accennate, ma che trova-no ora maggior forza. Le attività sulle nano-tecnologie, sia esse di tipo scientifico siatecnologico, devono tenere conto dell’a-spetto interdisciplinare con cui evolvono leconoscenze in tale campo.

Nano-paper e nano-patent nelmondoIl numero di pubblicazioni e di brevetti di-saggregati per nazione sono un altro indi-catore su come le nanoscienze rivestanoun ruolo importante per lo sviluppo futurodella ricerca scientifica e tecnologica. Èfuor di dubbio infatti che alcuni paesi sono

96 COMPLESSITÀ & SVILUPPO 2003

ANTONIO NOBILI, SALVATORE SCAGLIONE

Tabella 2Numero di nano-pubblicazioni e nano-brevetti pubblicatinell’intervallo tempo-rale indicato. Vienecalcolato anche il rap-porto tra le nano-pubblicazioni ed i na-no-brevetti. La ricercaè stata effettuataestraendo i dati daScience Citation Index10

Nazioni Numero di pubblicazioni Numero di brevetti Rapporto1988-96 1990-97 pubblicazioni/brevetti

USA 2062 1636 1,26Giappone 649 150 4,33Germania 547 84 6,51Francia 505 68 7,43Regno Unito 249 34 7,32Svizzera 142 15 9,47Taiwan 39 15 2,60Olanda 96 12 8,00Italia 148 10 14,80Australia 51 6 8,50Svezia 52 5 10,40Belgio 67 4 16,75Finlandia 20 4 5,00Irlanda 20 3 6,67Norvegia 4 3 1,33Danimarca 45 2 22,5Spagna 162 1 162,00Hong Kong 11 1 11,00Totale 4869 2053 2,37

12 RICHARD W. SIEGEL, Rensselaer Polytechnic Institute Panel Chair in: Nanostructure Science and Technology a Worldwide Study, Editedby R.W. Siegel, E. Hu, M.C. Roco, WTEC (World Technology Division), Loyola College in Maryland, 1999, p. xvii.

tradizionalmente all’avanguardia nelle atti-vità di ricerca, sia in termini di investimentiche in termini di indicazioni delle lineestrategiche di tali attività. Infatti, paesi comegli Stati Uniti, la Germania, il Giappone, laFrancia ed il Regno Unito hanno rivestitonegli ultimi 50 anni un ruolo di guida nellaricerca scientifica e tecnologica. Anche nelcaso delle nanotecnologie e nanoscienze, idati riportati nelle tabelle 2 e 3 sui nano-arti-coli e sui nano-brevetti confermano taleruolo almeno in termini assoluti. È interes-sante l’inserimento della Repubblica Po-polare Cinese nel gruppetto di testa dellenazioni a più alta produttività di pubblicazio-ni e brevetti (tabella 3). Fare un’analisi criticadel perché esiste una classifica dei paesicoinvolti nello sviluppo delle nanoscienze(tabella 2 e seguenti) va oltre gli scopi diquesto articolo, mentre invece è importanteutilizzare come ulteriore indicatore dell’im-portanza delle nanoscienze, il livello di coin-volgimento dei paesi tecnologicamenteavanzati che tradizionalmente hanno unafunzione di traino dell’economia mondiale.Un’ulteriore informazione può essere otte-nuta anche dal valore del rapporto tra lenano-pubblicazioni ed i nano-brevetti che,in prima approssimazione, indicano la capa-cità di trasferire le conoscenze dal mondodella ricerca a quello applicativo-industria-

le. Nella quarta colonna della tabella 2, il va-lore di tale rapporto viene riportato e mo-stra che i paesi in testa alla classifica (nazio-ni guida) hanno anche un proficuo rapportotra il mondo della ricerca ed il mondo indu-striale. I dati della tabella 2 e 3 vanno peròletti con attenzione, in quanto riportano i va-lori assoluti delle pubblicazioni e non tengo-no conto per esempio del numero di abi-tanti (che in qualche modo dovrebbe esserecorrelato con il numero di addetti alle nano-attività) o del prodotto interno lordo (gene-ralmente proporzionale ai finanziamenti im-piegati nella ricerca). Una certa sorpresaviene riservata da questi dati eseguendo lanormalizzazione per milione di abitanticome riportato nella tabella 4, e confrontan-do questa con la tabella 3, si può notare chela classifica viene completamente cambiata.I primi posti sono infatti occupati da paesi dimodeste dimensioni in termini di numero diabitanti (fatta eccezione per la Germania)ma che evidentemente hanno elaboratodelle strategie che li porta ad investire pe-santemente le proprie risorse umane sullenano-scienze e nano-tecnologie.

ConclusioniNanoscienza e nanotecnologia costituisco-no un binomio il cui impetuoso sviluppo haormai superato le ristrette cerchie degli

97COMPLESSITÀ & SVILUPPO 2003

LA NANOTECNOLOGIA: PREMESSA PER UNA NUOVA RIVOLUZIONE SCIENTIFICA?

Tabella 3Classifica delle nano-pubblicazioni e deinano-brevetti delleprime 15 nazioni. Idati sono espressi intermini percentuali ri-spetto al totale pub-blicato9

Pubblicazioni (1997-99) (%) Brevetti EPO&PCT (1991-99) (%)

1 23,7 USA 42,0 USA

2 12,5 Giappone 15,3 Germania

3 10,7 Germania 12,6 Giappone

4 6,3 Cina 9,1 Francia

5 6,3 Francia 4,7 Regno Unito

6 5,4 Regno Unito 3,7 Svizzera

7 4,6 Russia 2,0 Canada

8 2,6 Italia 1,7 Belgio

9 2,3 Svizzera 1,7 Olanda

10 2,1 Spagna 1,7 Italia

11 1,8 Canada 1,4 Australia

12 1,8 Corea del Sud 1,1 Israele

13 1,6 Olanda 1,1 Russia

14 1,4 India 0,9 Svezia

15 1,4 Svezia 0,5 Spagna

specialisti investendo parti crescenti dellasocietà civile in confronti, dibattiti, riflessio-ni; queste due parole inoltre sono ormai di-venute parole chiave in numerosi piani na-zionali o sopranazionali di ricerca.Partendo da questa base, si è voluto svilup-pare un ragionamento che costituisce ad untempo una fondamentale premessa per lacomprensione del fenomeno (è una rivolu-zione scientifica?) ed un incisivo spunto diriflessione strategica sugli impatti delle tec-nologie derivate sul sistema produttivo (èun salto di paradigma tecnologico?). La ri-sposta a tali domande non è povera di con-seguenze e può condizionare profonda-mente le modalità di approccio al problemasia in termini di risorse che di strumenti diintervento. A questo proposito suona comemonito quanto affermato da J. Zysman nel-l’articolo “Nazioni, istituzioni e sviluppo tec-nologico”13: “…Man mano che nuove ricet-te diventano rilevanti, sono necessari requi-siti di tipo diverso per quanto riguarda il fi-nanziamento, le competenze, l’organizza-zione e le regole di mercato.”Per affrontare il problema in termini il piùpossibile oggettivi, si sono considerati idati “bibliometrici” su pubblicazioni e bre-vetti a partire dal 1988, con l’intento di di-

mostrare in termini quantitativi quanto se-riamente siano intervenuti in questo campoi paesi tradizionalmente trainanti in campotecnologico. I risultati naturalmente nonsono sorprendenti, anche se da un’analisipiù dettagliata (dati normalizzati per milionidi abitanti) portano ai primi posti alcunipaesi piccoli, ma di grande spessore tecno-logico come Svizzera ed Israele. Que-st’ultimo aspetto appare particolarmente si-gnificativo ed è sicuramente uno dei puntiche è necessario approfondire, specialmen-te in relazione a considerazioni di strategiaindustriale per un paese come l’Italia.C’è però un aspetto a questo proposito cheè più rilevante degli altri e che si ritiene op-portuno evidenziare e porre in discussione:esso consiste nel collegare la presenza ditali paesi nell’attuale fase dello sviluppodelle nanotecnologie con uno straordinarioaccorciamento dei tempi di trasferimentodelle tecnologie dai paesi trainanti ai paesiutilizzatori di grande tradizione hi-tech; se èquesto che sta realmente avvenendo, signi-fica che si va rapidamente consolidando edefinendo il gruppo di paesi che ha supe-rato lo spartiacque del nuovo paradigmatecnologico e che il divario rispetto aglialtri rischia di diventare incolmabile.

98 COMPLESSITÀ & SVILUPPO 2003

ANTONIO NOBILI, SALVATORE SCAGLIONE

Pubblicazioni per milione di abitanti Brevetti (EPO&PCT) per milione di abitanti(1997-99) (1991-99)

1 150,2 Svizzera 12,2 Svizzera2 91,4 Israele 4,4 Germania3 73,5 Svezia 3,9 Israele4 61,5 Germania 3,8 Belgio5 56,9 Danimarca 3,6 Francia6 56,8 Singapore 3,5 USA7 52,6 Austria 2,4 Olanda8 50,0 Francia 2,4 Svezia9 48,3 Finlandia 2,3 Giappone10 47,7 Olanda 1,8 Regno Unito11 46,4 Giappone 1,5 Canada12 43,6 Belgio 1,3 Australia13 42,7 Regno Unito 1,0 Austria14 39,2 USA 0,5 Italia15 36,0 Slovenia 0,3 Spagna

Tabella 4Classifica delle nano-pubblicazioni e deinano-brevetti norma-lizzati delle prime 15nazioni. I dati sononormalizzati per mi-lione di abitanti

13 ZYSMAN, “Nazioni, istituzioni e sviluppo tecnologico”, in Scienza e tecnologia verso il nuovo millennio, AA.VV., (2001), pp. 31-79, ed.ENEA.

99COMPLESSITÀ & SVILUPPO 2003

&com

ple

ssità

svilu

ppo

Un racconto sulle macchine calcolatrici del futuro, in cui si parla della vera lunghezza dei numeri,

dell’entropia di un calcolatore e di quel che si può onon si può calcolare

FABRIZIO CLERIENEA

UTS Materiali e Nuove Tecnologie

Calcolatori quantistici

2003 Tratto da: ENERGIA, AMBIENTE E INNOVAZIONE 3/03

plementarità[1] tra le variabili posizione evelocità del tasto ‘k’, né di posizione e velo-cità di tutti gli elettroni che fluiscono neicircuiti interni del calcolatore ... la vostrabrava lettera ‘k’ appare sullo schermo, pre-cisa e prevedibile, proprio nel punto chevoi richiedete. Non lasciatevi fuorviare. Lacombinazione di meccanica quantistica ecalcolatori che stiamo inseguendo in que-sto articolo è, invece, legata in manieramolto più profonda al funzionamento deidispositivi elementari che svolgono le ope-razioni dentro un calcolatore elettronico. Inparticolare, quello che ci domandiamo è see come la natura quantistica dei costituentifondamentali della materia, atomi, protoni,elettroni, possa interferire con il funziona-mento di un calcolatore elettronico quandole dimensioni dei suoi dispositivi, i transi-stor, diminuiscono fino ad approssimarsialla scala atomica, circa un decimo di mi-lionesimo di metro, o 10-10 (significa 10 ele-vato alla potenza -10, ovvero 1 diviso per10 elevato alla potenza 10) metri.Ricordiamo che già oggi i transistor hannodimensioni dell’ordine di circa 10-7 metri,solo mille volte maggiori del limite atomi-co, e tali dimensioni continuano a scenderea ritmo circa costante grazie alla tecnologiadi integrazione elettronica sempre piùspinta.Dunque, armati solo di alcune elementaris-sime nozioni di meccanica quantistica, fac-ciamo un potente salto concettuale e provia-mo ad immaginare un calcolatore i cui com-ponenti elementari siano delle dimensionidi un singolo atomo. Un calcolatore la cuimemoria sia enormemente grande, espo-nenzialmente[2] più estesa della sua realedimensione fisica in megabytes. Un calcola-tore che possa lavorare in parallelo su un setdi dati anch’esso esponenzialmente grande.Un calcolatore che svolga le sue operazioninon nell’ordinario spazio euclideo tridimen-sionale, quello nel quale noi continuiamo aschiacciare i tasti della sua tastiera, ma inuno spazio surreale e iper-reale, lo spazio diHilbert, che comprende tutte le possibili

100 COMPLESSITÀ & SVILUPPO 2003

FABRIZIO CLERI

Accade spesso nella scienza che risultatiimportanti scaturiscano dalla combinazio-ne di idee apparentemente prive di alcunarelazione. E due idee apparentementescorrelate sono meccanica quantistica ecalcolatore. Che relazione c’è tra la descri-zione fisica del mondo atomico e subato-mico e una macchina che serve ‘solo’ perfare calcoli? Una possibile osservazioneche verrà subito in mente a qualche lettoreè la seguente: “Beh, ma in fondo se alnome ‘calcolatore’ si aggiunge, corretta-mente, l’attributo ‘elettronico’ le due ideenon sono mica poi tanto scorrelate: tuttisanno che i transistor che svolgono il lavorocomputazionale dentro un moderno calco-latore elettronico sono costruiti con mate-riali speciali, i ‘semiconduttori’, il cui fun-zionamento è profondamente basato pro-prio sulle leggi della meccanica quantisti-ca.” Osservazione vera solo a metà. È infat-ti perfettamente vero che un transistor fun-ziona solo in virtù di processi fisici gover-nati in ultima analisi dalla meccanica quan-tistica, ma d’altra parte è altrettanto veroche ogni transistor in un calcolatore elettro-nico viene comandato da impulsi di cor-rente elettrica ‘macroscopici’, forniti cioèda un normalissimo alimentatore a corren-te continua che obbedisce alle leggi dell’e-lettromagnetismo classico stabilite daJames Clerk Maxwell ben più di cento annifa. Dunque, il comportamento di un transi-stor dal punto di vista dell’utente che pestanumeri e lettere sulla tastiera è perfetta-mente comprensibile e prevedibile sullabase della fisica classica di fine ‘800.Per capirci, quando premete sulla tastiera iltasto con la lettera ‘k’, sullo schermo delvostro personal computer appare esatta-mente il simbolo ‘k’ in maniera assoluta-mente prevedibile, ripetibile e sicura (tantosicura che se questo evento, per caso, nondovesse succedere riportereste subito ilvostro personal computer al rivenditore,protestando con buona ragione). La lettera‘k’ appare, senza starsi a preoccupare delprincipio di indeterminazione o della com-

funzioni matematiche che si possono co-struire a partire dalle variabili che definisco-no lo stato dei suoi dati.Quello che stiamo immaginando è un cal-colatore quantistico.

I misteri della funzione d’ondaL'idea di un calcolatore quantistico è sem-plice, sebbene la sua realizzazione praticanon lo sia altrettanto. Ragionando per ana-logia, cominciamo col ricordare che in uncalcolatore ordinario tutte le cifre binarie, obit, di un numero scritto in un registro dimemoria hanno un valore (“stato”) ben de-finito, 0 oppure 1, a ciascun istante neltempo: ad esempio 01100101 per un regi-stro di memoria ad 8 bit.In un calcolatore quantistico, invece, direm-mo che lo stato di quel certo registro è de-scritto da una “funzione d’onda” Ψ dei di-versi stati 0 e 1 dei singoli bit, e scriverem-mo una formula matematica del tipo:

| Ψ > = a1 | 01100101> + a2 | 11101011>+ a3 | 01010001> + ...

Quella che abbiamo appena scritto è unaespressione del cosiddetto ‘principio di so-vrapposizione’ della meccanica quantisti-ca. Tale fondamentale principio affermache la descrizione più completa possibiledi un sistema che ammette tanti stati diversiè data da una funzione matematica (appun-to la funzione d’onda Ψ) che descrive lacombinazione, o sovrapposizione, di tuttiquesti stati. La formula dice quindi che tuttele possibili combinazioni di 0 e 1 degli ottobit che costituiscono il registro sono pre-senti nella Ψ moltiplicate per dei numeri, ingenerale complessi, a1, a2, a3, ... (la scrittu-ra ‘...’ in matematica vuol dire ‘eccetera’).Questo vuol dire che se vi chiedete qual èil valore del terzo bit nel vostro registro ad8 bit non è possibile semplicemente an-darlo a guardare e vedere se segna 0 o 1. Ilsuo valore è contenuto nella funzione d’on-da in maniera complicata, mescolato con-temporaneamente a quello degli altri sette

bit. Per di più questo valore non è ‘sempli-cemente’ mescolato. La descrizione quan-tistica delle condizioni di un sistema me-diante una funzione d’onda ci costringe apassare dal dominio delle certezze e dellaprevedibilità del mondo macroscopico al-l’apparente caos di incertezza ed impreci-sione del mondo atomico. Secondo le re-gole della meccanica quantistica, le possi-bili combinazioni di bit, scritte nella formu-la precedente con la simbologia | ... >, rap-presentano una descrizione completa(cioè una “base”) di tutti gli stati possibilidel registro considerato. Ed un’altra parti-colare funzione matematica costruita a par-tire dalla funzione d’onda, cioè il suo mo-dulo elevato al quadrato – che si indicaconvenzionalmente con il simbolo |Ψ|2 –descrive la probabilità complessiva di tro-vare il registro in uno qualsiasi dei suoipossibili stati. Corrispondentemente aquesta definizione, in meccanica quantisti-ca possiamo misurare soltanto la probabi-lità che l’intero registro si trovi proprio in uncerto stato ben definito, ad esempio01100101: questa probabilità è uguale alvalore numerico |a1|2 , cioè il modulo ele-vato al quadrato del corrispondente coeffi-ciente della funzione d’onda. Se la cosa viappare troppo difficile, per ora concentra-tevi soltanto su questo concetto fondamen-tale: dobbiamo rinunciare all’idea che ognisingolo bit del registro abbia in ogni istanteun valore ben preciso e dobbiamo invececonvivere con l’idea che il registro nel suocomplesso sia descritto da una particolaresequenza di 0 e 1 solo con una certa pro-babilità. Questo fatto si chiama ‘inviluppo’(o entanglement) della funzione d’ondacomplessiva di più oggetti elementari.Come stiamo appena cominciando ad in-travvedere, un calcolatore quantistico sibasa proprio sui concetti di probabilità edindeterminazione tipici della meccanicaquantistica. Però il descrivere probabilisti-camente lo stato di un calcolatore quantisti-co non ha a che fare con le incertezze e leprobabilità della vita di tutti i giorni. Ad

101COMPLESSITÀ & SVILUPPO 2003

CALCOLATORI QUANTISTICI

esempio, se la nostra banca disponesse diun calcolatore quantistico per svolgere lesue operazioni non dovremmo necessaria-mente aspettarci di trovare ogni tanto, conuna certa probabilità, il doppio dei quattri-ni nel nostro estratto conto. In quanto nu-meri complessi, i coefficienti a1, a2, ... sonocaratterizzati da un ‘modulo’ e da una ‘fase’(un po’ come la freccia di un cartello strada-le è caratterizzata da una lunghezza e dauna direzione). Proprio le fasi dei coeffi-cienti hanno un significato fisico particolar-mente interessante: esse infatti possono de-scrivere fenomeni di interferenza tra statidiversi nel nostro calcolatore, molto similiagli ordinari fenomeni di interferenza otticatra onde luminose che danno luogo, adesempio, agli affascinanti colori cangiantisulla superficie delle bolle di sapone. L’usodi tali fenomeni, puramente quantistici, diinterferenza ‘numerica’ (anzichè ottica) ri-sulta essere un modo di svolgere calcoliestremamente efficiente, assai più efficientedelle normali operazioni di addizione omoltiplicazione che tutti conosciamo.Secondo la meccanica quantistica, la fun-zione d’onda Ψ dichiara che ogni registrodel calcolatore quantistico esiste simulta-neamente in tutti i suoi possibili stati finchènon viene effettuata una misura del conte-nuto del registro: solo quando operiamocon un processo fisico di misura osservia-mo un particolare stato k, ad esempio il so-lito 01100101, con probabilità|ak|2. Le pro-prietà “esponenziali” del calcolatore quan-tistico provengono proprio da questa esi-stenza simultanea di tutti i possibili stati deisuoi registri. Abbiamo accennato prece-dentemente che il calcolatore quantisticoopera in una spazio particolare, lo spaziodelle funzioni matematiche (ad esempio ilmodulo, la retta, la parabola, ...) costruibilicon tutti i suoi stati; tale spazio è detto spa-zio di Hilbert. Così come il nostro spazioeuclideo ha tre dimensioni (la larghezza,l’altezza e la profondità), il numero di di-mensioni dello spazio di Hilbert per un si-stema (il calcolatore quantistico) composto

di N variabili (i registri di memoria) a 2stati (lo 0 e lo 1) è pari a 2N, cioè aumentaesponenzialmente all’aumentare di N. In uncalcolatore convenzionale, un chip di me-moria RAM da 1 kbyte può immagazzinaresolo 8 mila bit in forma di numeri 0 o 1 (unbyte è pari ad 8 bit), mentre un calcolatorequantistico che disponga anch’esso di 1kbyte è in grado di immagazzinare unaquantità di informazione pari a tutti gli statidegli 8 mila bit che riempono il suo spaziodi Hilbert, cioè 28000, un numero inimmagi-nabilmente enorme, che potremmo ap-prossimare come dieci seguito da duemi-laquattrocento zeri! Ed il parallelismo, per quanto detto appenasopra, viene gratis. Un calcolatore conven-zionale è sempre costretto ad eseguire lesue computazioni sequenzialmente: adesempio, l’operazione X=3+5 viene ese-guita ponendo anzitutto il numero 3 in unregistro temporaneo, poi il numero 5 in unaltro registro temporaneo, spostando quin-di il contenuto del primo registro nel regi-stro della X e sommandoci infine il conte-nuto del secondo registro. Se, poi, tale ope-razione va compiuta per tanti registri di Xdiverse, nei quali debbono ad esempio es-sere sommate altrettante coppie di numeriinteri N ed M, come X=N+M, il calcolatoredovrà eseguire in sequenza tante volte lastessa procedura descritta quante sono lecoppie di registri per le quali la computa-zione va effettuata. Se ciascuna computa-zione prende una certa quantità di tempoelementare, il tempo totale necessario saràdunque dato dal prodotto del tempo ele-mentare per il numero dei registri conte-nenti le varie X da calcolare. In un calcola-tore quantistico, invece, ogni variazionedello stato di un registro si ripercuote si-multaneamente su tutte le possibili funzioninello spazio di Hilbert che dipendono dallostato di quel registro (ricordate, la formuladella funzione d’onda scritta sopra contie-ne simultaneamente tutte le possibili com-binazioni degli stati di un registro: variarela funzione d’onda del registro significa va-

102 COMPLESSITÀ & SVILUPPO 2003

FABRIZIO CLERI

riare simultaneamente il contributo di tuttequeste possibili combinazioni). Quindi leoperazioni come la X=N+M sopra descrit-ta verranno compiute simultaneamente (inparallelo) per tutti i registri interessati, in unsolo intervallo di tempo elementare.Questo rivoluzionario modo di svolgerecalcoli ed ottenere risultati in parallelo sututti i possibili stati quantici di un registrocostituisce l’essenza della “computazionequantistica” (o quantum computing).

La computazione quantisticaBisogna innanzitutto notare una cosa. Oggi,a circa 15 anni di distanza dall’idea iniziale,sulla computazione quantistica si sa teori-camente già tutto. Ogni anno si svolgononel mondo diversi convegni specialistici,popolati da numerosi scienziati, più chealtro matematici, in grado di descrivereteoricamente computazioni estremamentecomplesse svolte sui cosiddetti qubits(quantum bits), che parlano comunementedi concetti tipo entanglement, decoerenza,teletrasporto, compressione dei dati, codi-fica superdensa, correzione degli errori.Sfortunatamente, però, non è stato ancorapossibile fabbricare un solo reale circuitologico operante sui qubits in maniera stabi-le e riproducibile, e lo stesso concetto diqubit è difficile da tradurre in una qualchegrandezza fisica affidabile e misurabile.“Ehi!” starà dicendo adesso qualche letto-re, “ma questo qui ci vuol prendere in giro.Sta parlando di un calcolatore che fa mira-bilia, che calcola quantità impressionanti dinumeri a velocità strabiliante, ma che ha unsolo difetto: non esiste!”. In effetti, a tutt’og-gi esistono solo alcuni esperimenti di fisicaatomica, estremamente complessi e raffi-nati, fatti su sistemi composti da due atomio due quanti di luce (fotoni), cioè su spazidi Hilbert con appena 22=4 stati. E l’intero‘circuito logico’ che lavora con questi duequbits occupa lo spazio di una stanza di la-boratorio! Si direbbe che c’è ancora molta,molta strada da fare ... Ma ricordatevi che

all’inizio degli anni 50 il calcolatore ENIACoccupava un intero edificio, mentre il com-puter portatile che trent’anni dopo avetenella vostra borsa è circa un milione divolte più piccolo e circa un miliardo divolte più potente del mostruoso ENIAC.Vedremo alla fine di questo articolo alcunedelle strade oggi ipotizzate per costruiredispositivi in grado di svolgere operazionisui qubits. Ma, per il momento, continuiamoad occuparci della teoria.Stando alle cronache, tutta la storia dellacomputazione quantistica sarebbe comin-ciata intorno alla metà degli anni 80 da unadiscussione tra Charles Bennett ed un per-sonaggio molto amato e compianto anchedal pubblico non specialista, il premioNobel per la fisica Richard Paul Feynman.Bennett, allora all’IBM di Yorktown Heightsin California, stava studiando il problemadella “termodinamica della computazio-ne”, cioè i fenomeni legati alla produzionedi entropia e dissipazione di energia[3]

nelle operazioni elementari svolte sia daiveri e propri dispositivi elettronici che daaltri dispositivi di calcolo più generali,idealizzati. Tali problemi erano e sono digrande interesse, poichè uno dei principalilimiti pratici alla potenza dei calcolatori èproprio legato alla dissipazione di energiae al surriscaldamento dei circuiti elettroni-ci. Feynman afferma che Bennett, duranteuna discussione su tali argomenti, gli avevasuggerito di pensare, in qualità di espertodi meccanica quantistica, alle eventuali li-mitazioni poste dal principio di indetermi-nazione nei suoi problemi di termodinami-ca del calcolo. Sull’onda di questo suggeri-mento, Feynman (che era un tipo estrema-mente curioso e non si faceva spaventaredalle difficoltà scientifiche di nessun gene-re) svolse un bellissimo studio di principio,prontamente pubblicato in Optics News delfebbraio 1985. Cercando di rispondere aBennett, egli pensò ad una macchina idea-le composta da elementi operativi quanti-stici per la quale definì una particolareclasse di funzioni matematiche dette hamil-

103COMPLESSITÀ & SVILUPPO 2003

CALCOLATORI QUANTISTICI

toniane[4] che ne potessero permetterel’impiego come “calcolatore”.Il suo primo pensiero fu che le leggi dellameccanica quantistica (come pure quelledella meccanica classica, dell’elettroma-gnetismo o della gravità) sono reversibilinel tempo, cioè i fenomeni che esse de-scrivono avvengono allo stesso modo sel’orologio del laboratorio si muove in avan-ti, verso il futuro, o all’indietro, verso il pas-sato. Una macchina da calcolo quantisticadovrebbe quindi operare in maniera com-pletamente reversibile.Ma in termodinamica il concetto di macchi-na reversibile è sinonimo di operazioni idea-li di trasformazione di energia, che avven-gono cioè senza dissipare alcuna quantità dicalore e con aumento di entropia nullo. Enessuna macchina termica reale è in gradodi operare in maniera completamente re-versibile, poichè il mondo reale contiene atutti i livelli diversi gradi di irreversibilità (sipensi, ad esempio, all’attrito presente in ma-niera ineliminabile in un qualsiasi dispositi-vo meccanico). Il che è solo un altro mododi dire, secondo il secondo principio dellatermodinamica, che il calore può passaresolo da un corpo più caldo ad uno più fred-do, o che non esiste in natura alcuna formadi perpetuum mobile. Il massimo che si rie-sce ad ottenere nella pratica è una macchi-na in grado di compiere trasformazioni cosi-dette adiabatiche, nelle quali lo stato del si-stema varia in maniera impercettibile tra unistante e l’altro e la dissipazione di energia èquindi ridotta al livello minimo consentitodalla termodinamica. Fu proprio sfruttandoin maniera estremamente originale ed intel-ligente il concetto di macchina adiabaticache il grande Rick Feynman risolse il pro-blema dal punto di vista teorico, gettando lebasi di tutti gli sviluppi successivi della teo-ria della computazione quantistica.

Ma quanto è grande un numero?Secondo la moderna scienza dei calcolato-ri, un “calcolatore universale” può essere

costruito da una rete, complessa a piacere,fatta di un numero, grande a piacere, di ele-menti primitivi interconnessi. In un calcola-tore convenzionale tale rete sarebbe costi-tuita da un insieme di fili elettrici che tra-sportano da un elemento primitivo all'altroi due voltaggi standard che rappresentanolo 0 e lo 1, ad esempio –5 e +5 Volt. Gli ele-menti primitivi che connettono tra loro i re-gistri devono essere quelli della logicabooleana, cioè AND, OR e NOT. Tali ele-menti primitivi sono in grado di fornire unarisposta (cioè un certo valore di voltaggioin uscita) in funzione dello stato dei registriin ingresso. Ad esempio, un elemento ANDdà una risposta positiva (voltaggio “alto”,ovvero +5 Volt, ovvero 1) solo se il valore ditutti i registri in ingresso è positivo; l’ele-mento OR invece dà un valore positivo sealmeno uno dei registri è positivo; NOT tra-sforma un ingresso positivo in una uscitanegativa o viceversa. Con l’aiuto di sempli-ci teoremi di teoria della computazione sipuò far vedere che in realtà bastano solodue elementi primitivi combinati, ad esem-pio AND e XOR (OR esclusivo, positivo seuno e uno solo degli ingressi è positivo),oppure NAND (somma di NOT e AND) eOR, per compiere qualsiasi operazione lo-gica nelle computazioni abitualmente svol-te dai calcolatori convenzionali (compresiquelli che quasi ognuno di noi ha sul suotavolo).Per amor di completezza, notiamo che pergli scopi della computazione quantisticabisogna anche considerare il “filo” in uncerto livello di dettaglio, poichè un calcola-tore quantistico potrebbe non avere affattofili ma, ad esempio, impulsi di luce cherimbalzano tra due molecole. Ci si accor-gerà allora che abbiamo in realtà bisognodi altre due primitive logiche, chiamate ri-spettivamente FANOUT (due fili legati aduno solo) e EXCHANGE (due fili collegatiin croce). Ma questo non cambia l’essenzadel ragionamento che stiamo facendo.Nell’unità centrale di un calcolatore con-venzionale (la famosa CPU, o central pro-

104 COMPLESSITÀ & SVILUPPO 2003

FABRIZIO CLERI

cessing unit) ognuno degli elementi primiti-vi booleani è realizzato mediante combina-zione di un certo numero di transistor, unamezza dozzina o giù di lì. E in una CPUsono presenti centinaia di migliaia di ele-menti logici primitivi (i gates), per un totaledi parecchi milioni di transistor, raggrup-pati ed organizzati secondo un ordine benpreciso predisposto dagli ingegneri chehanno progettato il chip di silicio contenen-te la CPU.Ma quanto è grande un numero? Qualcunopenserà che questa è una domanda scioc-ca, e che un numero è ovviamente grande... quanto il numero stesso. Cioè, il numeromille è proprio mille, ed è ovviamente piùgrande del numero centoventisette. Seperò come ‘lunghezza di un numero’ defi-nissimo, ad esempio, la quantità di letterenecessaria per scriverlo in italiano (oanche in inglese), il numero centoventisettesarebbe più grande del numero mille. Nonvi sto di nuovo prendendo in giro. La ‘lun-ghezza di un numero’ è un concetto moltoserio che sta, tra l’altro, alla base della teo-ria dell’informazione. Numeri che defini-scono quantità estremamente grandi oestremamente precise (cioè che richiedo-no un elevato numero di cifre decimali)possono essere spesso codificati in manie-ra molto più compatta, che non stupida-mente enumerando tutte le cifre che licompongono. Anche perchè queste po-trebbero essere infinite... Ad esempio, perdefinire il numero periodico 1,333333....fatto da una cifra 1 seguita da una quantitàinfinita di cifre 3, basta convenzionalmentescrivere un trattino sopra una sola cifra 3,cioè 1,3–. Oppure si può scriverlo in formarazionale, cioè come un rapporto di altridue numeri più ‘semplici’, cioè 4/3. Conpochissimi simboli, quindi, possiamo codi-ficare una quantità di cifre teoricamente in-finita senza perderne il significato. Esisteperò una categoria di numeri, identificatadal matematico russo Gregory Chaitin, cheè ‘incomprimibile’, cioè che occupa unalunghezza pari alla quantità di cifre che de-

finiscono il numero stesso. Il prototipo ditali numeri è il cosiddetto numero ‘omegadi Chaitin’, che è inoltre un numero realecioè non scrivibile come il rapporto di duenumeri interi. Un tale numero ha una quan-tità infinita di cifre, come qualsiasi numeroreale, ma non lo si può scrivere in altromodo che elencando tutte le sue cifre unadietro l’altra! Per un calcolatore elettronico questo è uncompito in linea di principio impossibile.Nei registri dei calcolatori si possono scri-vere, infatti, soltanto numeri di lunghezzaben definita, e se un numero ha più cifre si-gnificative di quante ne permetta il regi-stro... beh, bisogna ‘troncarlo’, cioè scriver-lo in maniera approssimata. E questo èvero per tutti i numeri reali, non solo per inumeri di Chaitin. Ad esempio, il simbolo"pi greco" indica un numero reale con infi-nite cifre, le cui prime sono come è noto3,1415926539.... Questo non è un numerodi Chaitin: possiamo darne infatti una assaiconcisa definizione geometrica lunga ap-pena dodici parole italiane, cioè “il rappor-to tra la lunghezza di una circonferenza e ilsuo diametro”, oppure una ancor più sinte-tica definizione trigonometrica (che oltre-tutto è valida in qualsiasi lingua terrestre enon soltanto in italiano) come 4•arccos(1)che tradotta in italiano suona: “quattro voltela misura in radianti dell’arco il cui cosenovale uno”. Peraltro, in uno dei nostri moder-ni, potentissimi calcolatori non possiamofar altro che scrivere il nostro π in formaapprossimata, ad esempio fermandoci allesue prime otto cifre significative 3,1415926.Questa è dunque la grandezza dei numeriche abbiamo in mente? Otto cifre allavolta? No, anche questa volta non lasciatevifuorviare dai pur affascinanti argomentidella teoria dell’informazione.Ci stiamo chiedendo, invece: qual è la di-mensione fisica di un bit in un calcolatoreelettronico convenzionale? Questa dimen-sione ci servirà, alla fine, per scoprirequanto calore dissipa un calcolatore perogni operazione svolta. Vediamo di trovar-

105COMPLESSITÀ & SVILUPPO 2003

CALCOLATORI QUANTISTICI

ne una stima approssimata. Secondo nu-meri abbastanza recenti, un chip di tipoCMOS (la tecnologia più recente, che per-mette di fabbricare delle CPU molto com-patte partendo da materiali fatti a strati disemiconduttori ed ossidi metallici) delledimensioni lineari di qualche centimetro,contiene circa un miliardo di transistor percm2. Facendo un conticino a spanne, in uncm2 possiamo mettere oltre 1016 atomi,quindi ogni transistor è fatto da almeno 108

atomi. Cioè, dal nostro punto di vista, unnumero binario come 0 o 1 è ‘grande’ circaqualche centinaio di milioni di atomi.Questo valore torna abbastanza bene conla stima sperimentale della minima quan-tità di energia che bisogna dissipare peroperare su un bit, che è dell’ordine di 109

unità kBT[5] per operazione. Cioè ogniatomo consuma all’incirca una unità kBT dienergia mentre il transistor svolge la suaoperazione sulla cifra binaria assegnatagli.Abbiamo così trovato la dimensione fisicadi un numero come viene immagazzinatonel registro di memoria di un calcolatore.In apparenza tale dimensione sembra,come abbiamo detto, ragionevole. E altret-tanto ragionevole sembra la quantità inge-gneristica ad esso collegata, la stima delcalore dissipato per cambiare di valorequesto numero ‘fisico’, ad esempio da 0 a1. D’altra parte, la stima di principio di que-sta stessa quantità di calore per un calcola-tore ideale è invece ridicolmente piùbassa.Vediamo un po’ come si ottiene que-sta stima teorica. Se cambiamo ‘adiabatica-mente’ lo stato di un bit con una operazioneAND, il nuovo valore dello stato sarà uno deidue valori possibili 0 o 1, indipendente-mente da quello che era prima. Quindi se-condo la termodinamica la variazione dienergia interna sarà nulla (i due stati sonoperfettamente equivalenti), mentre la varia-zione di entropia sarà di log2 unità. In ter-mini di dissipazione di calore avremmoquindi una quantità pari a kBT log2 unità, sela trasformazione avviene alla temperaturaT, cioè circa 0,69 kBT: un valore un miliardo

di volte inferiore del 109 kBT trovato per uncalcolatore elettronico reale.Questo ragionamento era stato già fatto dalmatematico Rolf Landauer nel 1961, ed èquindi noto come “principio di Landauer”.Per molto tempo questo valore era stato ri-tenuto un limite inferiore assoluto, ottenutosulla base di criteri rigorosamente termo-dinamici, per la dissipazione di calore inuna operazione elementare di calcolo. Inaltre parole nessun calcolatore, reale oideale, può consumare meno di 0,69 kBTunità di energia per svolgere anche il piùelementare dei calcoli.

Perché un calcolatore dissipaenergia (e produce entropia...)Ma la questione sembra del tutto accade-mica, poiché abbiamo appena detto cheun calcolatore vero dissipa circa 109 kBTper ogni operazione elementare, un nume-ro enormemente più grande: per questonelle macchine del mondo reale siamocosì preoccupati della dissipazione di calo-re! Bennett si accorse che questa enormediscrepanza è dovuta al modo operativopiuttosto brutale che viene usato nei calco-latori per cambiare il valore di un bit. Infatti,in un calcolatore convenzionale per cam-biare il voltaggio di un transistor (cioè pas-sare da 0 a 1 o viceversa) questo viene“scaricato a terra”, facendo passare dellacorrente elettrica (cioè un flusso di elettro-ni) attraverso una resistenza (una specie disetaccio che fa perdere gradualmenteenergia agli elettroni); e per riportare il vol-taggio al valore iniziale dobbiamo di nuovofar passare la stessa quantità di corrente at-traverso la medesima resistenza. Un taleprocesso è altamente dissipativo poichècoinvolge il flusso di un enorme numero dielettroni lungo il filo metallico conduttore egli elettroni, nel condurre elettricità da unpunto all’altro del filo, sprecano quasi tuttala loro energia in calore riscaldando il filo(notiamo, di passaggio, che una delle stra-de per miniaturizzare l’elettronica digitale

106 COMPLESSITÀ & SVILUPPO 2003

FABRIZIO CLERI

è il tentativo di costruire dei transistor a“singolo elettrone”, cioè di dispositivi incui il passaggio di un solo elettrone per-mette di cambiare lo stato del sistema. Diquesti processi, che vanno sotto il nome di“elettronica molecolare”, magari parlere-mo un’altra volta...). La dissipazione dienergia nel filo potrebbe essere fortemen-te ridotta se, ad esempio, la corrente dascaricare a terra potesse invece venire im-magazzinata in una induttanza (una speciedi circuito elettrico di parcheggio) per poivenire restituita al successivo cambiamen-to di stato. Tecnicamente però questa solu-zione è di fatto impraticabile per una seriedi complicate motivazioni tecniche, tantoche addirittura nelle macchine da calcolo“naturali” come il DNA si stima che l’opera-zione di copiatura di un singolo bit (rappre-sentato in questo caso una singola baseproteica) da un punto all’altro della se-quenza genetica dissipi una quantità dienergia pari a circa 100 unità kBT, anchequesta assai maggiore del limite teorico diLandauer. Neanche la Natura è riuscita adottimizzare le risorse energetiche...Dobbiamo dunque tenerci le nostre resi-stenze e rassegnarci a sprecare ogni voltaun sacco di energia termica.Ma se, allora, siamo già decine di miliardidi volte lontani dal valore ideale diLandauer kBT log2 può sembrare del tuttoridicolo starsi a chiedere se questo valoreè davvero il limite inferiore o se questo li-mite non possa essere praticamente consi-derato uguale a zero. Questo problemaperò era fondamentale per Feynman, cheaveva in mente processi di computazionecompletamente reversibili da poter poi tra-sferire nell’ambito del suo ideale calcolato-re quantistico. Per Feynman lo zero dovevaessere veramente zero, non bastava chefosse un numero ridicolmente piccolo.Feynman arrivò in effetti a formulare la teo-ria di un procedimento completamente re-versibile (descritta sinteticamente nel ri-quadro “Calcoli quantistici termodinamica-mente reversibili).

Feynman poteva così concludere il suo la-voro (puramente teorico) del 1985 in ma-niera abbastanza trionfalistica, affermandotestualmente che “sembra che le leggidella fisica non presentino alcuna realebarriera nel ridurre le dimensioni dei cal-colatori, fino ad avere bit della dimensionedi un singolo atomo dove il comportamen-to quantistico dominerà”. In un certosenso, questa era la sua brillantissima ri-sposta agli amletici dubbi del suo amicoCharles Bennett. E questo sembrerebbeessere il futuro che attende dietro l’angoloanche i nostri calcolatori, mentre le dimen-sioni fisiche dei singoli elementi attivi, itransistor di oggi, continuano a diminuire,arrivando pericolosamente a sfiorare il li-mite atomico.

Complesso come un polinomio ...o di più?Un punto importante che il pur esaurienteFeynman non aveva toccato nel suo studioteorico riguarda un fatto di cui si accorsemolto presto David Deutsch, un brillantematematico di Cambridge: un calcolatorequantistico può affrontare calcoli moltocomplessi in maniera estremamente effi-ciente con un uso “scaltro” della meccani-ca quantistica, realizzando cioè computa-zioni che sfruttino l’interferenza costruttivatra le funzioni d’onda dei vari registri. Ma“quanto” complessi? Deutsch capì che lacomputazione quantistica era in grado diabbattere uno dei pilastri fondanti dellascienza della computabilità, quello secon-do cui esiste una unica definizione dellacomplessità computazionale per ciascunproblema matematico (vedi riquadro“Turing e la computibilità”).Un famoso esempio di calcolo non-polino-miale è la fattorizzazione di un numero neisuoi fattori primi. Consideriamo il numeroN = 51688, il quale si fattorizza in 23 x 7 x13 x 71. Questo numero ha cinque cifre,per cui la lunghezza del dato di input è del-l’ordine di logN, la base del logaritmo es-

107COMPLESSITÀ & SVILUPPO 2003

CALCOLATORI QUANTISTICI

sendo determinata dal sistema di numera-zione nel quale esprimiamo N; in questocaso stiamo usando il sistema decimale,per cui log10(51688) = 5.312, cioè circa 5, ilnumero di cifre dell’input appunto. Mentreper un numero relativamente piccolo,come quello dell’esempio, i suoi fattoriprimi (che abbiamo già scritti sopra: 2, 7,13 e 71) possono essere facilmente trovati

con qualche semplice tentativo, trovare ifattori primi di un numero di lunghezzaqualsiasi, anche con parecchie centinaia dicifre significative, può essere una operazio-ne assai complessa. Per questo scopo esi-stono diversi procedimenti matematici difattorizzazione che danno la soluzione. Unuso pratico assai importante di tali proce-dimenti di fattorizzazione è nella codifica

108 COMPLESSITÀ & SVILUPPO 2003

FABRIZIO CLERI

Calcoli quantistici termodinamicamente reversibili

In realtà Bennerr stesso aveva già dimostrato che il famoso limite di Landauer di kBT log2 per opera-zione era in realtà troppo grande poichè non è affatto necessario impiegare operazioni primitive ir-reversibili in un procedimento di calcolo ideale. In effetti, si può dimostrare che se il calcolo vienesvolto con tutti elementi logici primitivi reversibili l’energia minima necessaria da dissipare diventaindipendente dal numero di operazioni logiche da eseguire nel calcolo, e vale ancora kBT log2 maquesta volta per ciascun bit del registro contenente il risultato finale della computazione (output).Questa energia dipendente solo dalla dimensione del registro dei risultati (quanto più grande è lacosa da calcolare, tanta maggiore energia va consumata) in realtà non è altro che quantità di energianecessaria per riazzerare il calcolatore ad ogni nuovo utilizzo. In effetti, l’operazione logica di ERASEè l'unica operazione veramente non reversibile (neanche da un punto di vista logico), poichè parten-do da uno stato qualsiasi (0 o 1) e riportandolo a zero dobbiamo portare a coincidere il risultato fi-nale della nostra computazione (che sarà genericamente una qualsiasi combinazione di 0 e 1) con ilregistro 000000.... (tecnicamente si direbbe che “dobbiamo comprimere lo spazio delle fasi di unfattore 2 per ogni bit di output”), cioè dobbiamo spendere una quantità di energia pari a kBT log2per ogni bit dell’output.Ma, si disse Feynman, anche questa minima energia di kBT log2 unità per ogni bit del registro di out-put potrebbe essere risparmiata, se si potesse usarla come parte dell'output stesso. Ad esempio lapotremmo impiegare per controbilanciare l’entropia (legata alla trasformazione di informazione) neltrasmettere il risultato della computazione da un punto a un altro del calcolatore. Cerchiamo di capi-re come questo è possibile. Secondo Feynman, questo limite potrebbe essere raggiunto da un cal-colatore ideale reversibile che lavori a velocità infinitesimale (cioè un calcolatore adiabatico).Feynman quindi si diede da fare a dimostrare come sarebbe possibile disegnare circuiti logici com-pletamente reversibili mediante i quali costruire un calcolatore universale. Nella sua dimostrazioneegli fa notare come un qualsiasi calcolo reversibile debba necessariamente produrre non solo ilcontenuto del registro di output ma anche una certa quantità di “spazzatura”, cioè dei bit inutili. E di-mostra poco dopo che questa spazzatura può sempre essere riarrangiata in modo tale che coincidaproprio con il contenuto del registro di input. Questa produzione di spazzatura è necessaria per ren-dere reversibili operatori logici come AND, XOR, eccetera, che di per sé non lo sarebbero. Senzascendere in dettagli, diciamo che una tale procedura è reversibile poiché, conoscendo simultanea-mente alla fine della computazione il contenuto del registro di input e di output, possiamo ripercor-rere il circuito logico all'indietro e rimettere uno ad uno tutti gli stati nella loro condizione iniziale:spendiamo cioè l’informazione contenuta nei bit-spazzatura come una quantità di entropia esatta-mente corrispondente all’opposto della quantità di calore dissipata in ogni passo della computazio-ne: il bilancio delle due quantità fa quindi zero.Eureka! Disponiamo adesso di una logica di computazione a dissipazione nulla, cioè perfettamentereversibile e quindi applicabile ad un calcolatore quantistico.E finalmente Feynman può passare a costruire un set di hamiltoniane quantistiche[4] in grado di ri-produrre matematicamente tutte le operazioni primitive reversibili necessarie, componendo le qualiin sequenze logiche arbitrarie si può realizzare l’equivalente quantistico del calcolatore universale acosto energetico nullo, in grado di svolgere una qualsiasi computazione arbitrariamente complicata.

di chiavi per crittografare messaggi ecombinazioni di casseforti o archivi, siareali che virtuali. Si tratta di procedimentidi calcolo piuttosto complessi e non ci in-teressa qui discuterli. Ci vogliamo solopreoccupare di quanto questi procedi-menti matematici (algoritmi) siano com-plessi nel senso di Turing, cioè quantosiano faticosi da calcolare al crescere delnumero di cifre del numero N del quale sicercano i fattori primi.Sui calcolatori convenzionali il miglior al-

goritmo di fattorizzazione conosciuto (P.Odlyzko, AT&T Laboratories, 1995) costa:

O (exp [(64/9)1/3 (logN)1/3 (log logN)2/3] )

operazioni elementari al crescere di N.Questa scrittura, O(...), significa che al cre-scere di N (il numero da fattorizzare) il nu-mero di operazioni elementari che un cal-colatore deve svolgere cresce almenocome l’esponenziale di logN (cioè il nume-ro di cifre di N) elevato, a sua volta, alla po-tenza 1/3 e moltiplicato per qualche altro

109COMPLESSITÀ & SVILUPPO 2003

CALCOLATORI QUANTISTICI

Turing e la computibilità

Il concetto di complessità di una computazione venne introdotto dal matematico inglese Alan Turingin un suo famoso lavoro del 1936. Sebbene né Turing né nessun altro a quel tempo avesse alcunaidea del se e come un vero computer avrebbe potuto funzionare nel futuro (Von Neumann ancoranon si era messo a pensare al problema), egli impiegò la suggestiva visione di una macchina imma-ginaria per il suo lavoro. Una “macchina di Turing” consiste di: un rotolo di carta, a tutti gli effetti dilunghezza infinita, suddiviso in cellette; una “testina” di scrittura (che potrebbe essere, indifferente-mente, il cervello di Turing o il vostro cervello, o una calcolatrice tascabile, o anche un personalcomputer o chissà che altro) può scrivere un 1 quando trova uno 0 nella casella, può viceversa can-cellare un 1 trasformandolo in 0, oppure può semplicemente leggere il contenuto della casella.Dopo aver compiuto una di queste tre operazioni, la testina può spostarsi di una cella a destra o a si-nistra, oppure può fermarsi. Per ogni computazione matematica, secondo Turing, è possibile definireuna combinazione di regole (“spostati a destra”, “cancella il contenuto della cella”, “vai a sinistra”,“se trovi uno zero cambialo in uno” e così via...) che consentono alla testina di svolgere la computa-zione in un certo numero – magari lunghissimo, ma finito – di passi elementari. Un tale dispositivo,interamente ideale, è secondo Turing una macchina universale in grado di svolgere qualsiasi com-putazione, e quindi dovrebbe rappresentare il paradigma concettuale per qualsiasi macchina dacalcolo passata o futura.Il risultato straordinario di un tale procedimento astratto, che probabilmente lo stesso Turing inizial-mente non sospettava, è che la macchina di Turing è anche un paradigma universale per stabilireche cosa si può o non si può calcolare. Quando ci si mette a ragionare sull’essenza profonda dellecombinazioni di regole che definiscono una qualunque computazione nella macchina di Turing, ci siaccorge che i problemi computazionali (tutti i problemi del mondo!) sono divisi in due classi: i pro-blemi di complessità cosidetta ‘polinomiale’ e gli altri, detti per converso ‘non polinomiali’. Un pro-blema polinomiale può essere risolto in un numero grande a piacere – ma comunque controllabile –di passi elementari; in particolare, quando la dimensione N dei dati da calcolare cresce, il numero dioperazioni che la macchina deve compiere (e quindi il tempo necessario) cresce anch’esso, con unalegge di potenza: ad esempio come il quadrato (N2) o il cubo (N3) o la quinta potenza (N5) della di-mensione dei dati, o anche come una combinazione di varie potenze. Cioè il numero di operazionipuò essere scritto come un polinomio la cui variabile incognita è la lunghezza dei dati da calcolare.Se invece il problema non cade in questa categoria esso è non polinomiale nel senso che, al cresce-re della dimensione dei dati di partenza, il numero di operazioni cresce con rapidità irraggiungibile(esponenziale) ed il problema non può essere risolto in generale, ma solo quando le dimensioni deidati non sono troppo grandi. Inoltre, data la assoluta generalità della macchina di Turing, la rispostaalla domanda se un problema sia polinomiale o meno dovrebbe essere indipendente dai dettaglidell'apparato fisico usato per svolgere il calcolo, sia esso appunto un cervello umano, un regolomeccanico, una calcolatrice tascabile o un enorme supercalcolatore.

fattore meno importante. Quindi lo scalingè esponenziale rispetto al numero di cifredell’input. Non solo, dunque, l’algoritmonecessario per scomporre un numero infattori primi cresce in tempo non-polino-miale, ma cresce anche con la massima ra-pidità matematicamente possibile: si puòinfatti dimostrare che nessun algoritmo ma-tematico può crescere più rapidamenteche in modo esponenziale.La legge di scaling ci dice come aumenta iltempo necessario per il calcolo, ma non cidice il tempo assoluto. Per conoscerlo bi-sogna avere un dato di riferimento. Eccoloqua. Nel 1994 un numero a 129 cifre, notocome RSA129, venne fattorizzato usandol’algoritmo di Odlyzko: il calcolo vennesvolto suddividendolo in parallelo su circa1600 potenti workstation sparse per ilmondo, impiegando un tempo di circa 8mesi. Basandosi sul calcolo di RSA129 perstimare il cosiddetto prefattore della leggedi scaling esponenziale, si trova che fatto-rizzare un numero di 250 cifre (di quelli,per intenderci, che si trovano in un tipicocodice di sicurezza bancario) richiedereb-be circa 800.000 anni, mentre fattorizzareun numero di 1000 cifre richiederebbe nonmeno di 1025 anni, cioè parecchi miliardi divolte l’età dell’universo! Sembra quindi cheil vostro conto bancario sia esponenzial-mente al sicuro...Ma tutto questo è vero per calcolatori cheseguono le leggi della fisica classica.Nel 1985 Deutsch (tra il singolare disinte-resse delle principali banche mondiali) di-mostrò in maniera rigorosa che un calcola-tore quantistico può risolvere in un tempopolinomiale problemi che sono non-polino-miali su qualsiasi macchina classica, pro-prio sfruttando i concetti che abbiamosopra accennato di interferenza e paralleli-smo. E nel 1994 Peter Schor, traducendo inpratica il risultato teorico di Deutsch, pre-sentò ad un congresso internazionale dimatematica un nuovo algoritmo (detto perl’appunto “algoritmo di fattorizzazione diSchor”) per la fattorizzazione di numeri in

fattori primi secondo la logica di calcolodella computazione quantistica, capace discalare come:

O ((logN)2+e)

dove e è un numero piccolo, dell’ordine di0,2 o 0,3. La scrittura O(...) in questo casosignifica il numero di operazioni che il cal-colatore quantistico deve compiere al cre-scere di N, cresce come logN elevato allapotenza 2+e , cioè lo scaling è stavolta poli-nomiale, un semplice polinomio di secon-do grado o poco più, nella dimensione del-l’input.Descrivere in poche parole l’algoritmo diSchor non è impresa semplice (e non latenterò certo qui) ma va sottolineato che daquando tale algoritmo è stato scoperto ilcalcolo quantistico ha cominciato ad esserpreso tremendamente sul serio da tutta lacomunità scientifica e dalle agenzie gover-native e ministeri preposti alla sovvenzionedelle attività di ricerca, i quali ormai desti-nano crescenti quantità di denaro alle ricer-che sulla computazione quantistica.

Imperfetta, come una macchinaidealeDa un punto di vista tecnico, la macchinaideale di Feynman potrebbe essere realiz-zata in pratica costruendo un set di elemen-ti fisici quantistici (per il momento non me-glio identificati) i quali possano assumeredue diverse configurazioni definite e misu-rabili, corrispondenti ai due stati 0 e 1. Adesempio, una molecola con tutti gli elettroniallo stato fondamentale (lo stato 0) e la stes-sa molecola con un elettrone in un livelloenergetico eccitato (lo stato 1). Ogni opera-zione logica è rappresentata da un operato-re fisico (ad esempio, un impulso di un rag-gio laser) che fa cambiare di stato l’elettro-ne nella molecola, eccitandolo o diseccitan-dolo e facendo passare così la “molecola-transistor” dallo 0 allo 1 e viceversa.Come in tutti i sistemi fisici, in una macchi-na del genere ci saranno necessariamente

110 COMPLESSITÀ & SVILUPPO 2003

FABRIZIO CLERI

delle imperfezioni (ricordiamo, non esisto-no in natura macchine termiche ideali). Adesempio, una prima sorgente di imperfe-zione potrebbe essere costituita dalla diso-mogeneità dei coefficienti di accoppia-mento da un punto all'altro della catena dielementi fisici. Se gli elementi sono, adesempio, atomi depositati su un substratosolido irregolare, tale disomogeneità è co-stituita da difetti strutturali della superficiee provoca una certa differenza tra le vibra-zioni termiche degli atomi: propagare uncerto stato, ad esempio la condizione di 0,da un atomo all'altro sarebbe allora equiva-lente a far muovere un elettrone lungo unfilo metallico conduttore, e l'equivalentedella resistenza elettrica sarebbe una certacasualità nella probabilità di collisione.È degno di nota, a questo proposito, che ilprincipio di indeterminazione di Heisen-berg di per sè non costituisce una limita-zione alla capacità operativa di una talemacchina. Nel senso che, non essendo as-segnato un tempo definito entro cui realiz-zare il calcolo, il completamento di unacomputazione ha una estensione tempora-le probabilistica, indipendente dal numerodi passi elementari. Tutte le questioni asso-ciate al principio di Heisenberg sono, inve-ce, legate all’indeterminazione sulla prepa-razione dello stato iniziale (registro diinput) e alla misurazione dello stato finale(registro di output), entrambe operazioniche richiedono la capacità di misurare ve-locità e posizione di elementi fisici quanti-stici. Come abbiamo detto (vedi [1]), per si-stemi che obbediscono alla meccanicaquantistica non è possibile specificare si-multaneamente con precisione assolutaposizione e velocità, quindi non saremomai in grado di definire con precisione as-soluta l’energia iniziale di ogni singolo ele-mento posto in un punto preciso della cate-na. Il principio di indeterminazione ci im-pedisce di conoscere con precisione asso-luta l’input e l’output del calcolatore quanti-stico, tutto quello che possiamo ottenere èdi avere una ragionevole probabilità che

input e output coincidano con quello chevogliamo. (“Signor Rossi, il suo conto inbanca contiene molto probabilmente undebito di ...”.) Inoltre nella macchina diFeynman esisterebbero termini di accop-piamento debole tra gli elementi che costi-tuiscono i registri, cioè ci sarebbero deitermini aggiuntivi (spuri) nella funzione ha-miltoniana, oltre quelli che vengono consi-derati esplicitamente per svolgere la com-putazione. Insomma, una tale macchina sa-rebbe un oggetto molto delicato, in cui lapreparazione dello stato iniziale, in partico-lare, richiederebbe una bella dose di abi-lità da parte dei fisici sperimentali prepostial suo funzionamento.In generale, il tempo necessario per svol-gere una computazione sarà determinatodall'intensità dell’accoppiamento tra ele-mento ed elemento, così come descrittonella funzione hamiltoniana della catena.Siccome i tempi legati alla variazione diuno stato in un atomo o una molecola (adesempio, il tempo necessario per portareun elettrone allo stato eccitato) sono estre-mamente rapidi, le singole operazioni in uncalcolatore quantistico avvengono moltorapidamente. Se ciascun termine dell’ha-miltoniana fosse, ad esempio, dell’ordine di10-13 erg, dalla famosa relazione di indeter-minazione di Heisenberg si ottiene che iltempo minimo di calcolo è dell’ordine di10-15 secondi per operazione. Peraltro, giàsecondo Feynman questo valore non rap-presentava un terribile miglioramento ri-spetto ai tempi di commutazione tipici del-l’elettronica digitale del 1985, all’epocafermi a circa10-10 secondi (tali limiti sonoormai ampiamente superati). Centomilavolte più veloce, forse meno. Molto, ma nonmoltissimo, certo, rispetto allo sforzo ne-cessario per costruire una tale macchina...Ma il problema principale del funziona-mento di un calcolatore quantistico è lega-to, ancora una volta, al concetto di reversi-bilità. In effetti, alcuni dei lettori che non co-noscono la fisica potrebbero essersi chie-sti, leggendo le pagine precedenti: “Se le

111COMPLESSITÀ & SVILUPPO 2003

CALCOLATORI QUANTISTICI

leggi della fisica, e in particolare quelledella meccanica quantistica, sono perfetta-mente reversibili rispetto al tempo comehai detto, com’è che il mondo macroscopi-co è invece assolutamente irreversibile?Come mai un organismo biologico può in-vecchiare ma non ringiovanire, un vasorotto in mille cocci non può tornare intero,una miscela grigiastra di acqua e inchio-stro non può separarsi spontaneamente inacqua limpida e inchiostro nero?” Il proble-ma della generazione dell’irreversibilità apartire da leggi matematicamente reversi-bili è forse uno dei più centrali della fisicamoderna e mantiene ben occupati nume-rosi cervelli da oltre un secolo, da quandocioè Ludwig Boltzmann per primo forma-lizzò i concetti di entropia e irreversibilità.Non saremo certo noi a risolvere tale pro-blema in questo nostro racconto, ma dicia-mo almeno che una delle strade oggi piùpromettenti per riconciliare reversibilitàmicroscopica e irreversibilità macroscopi-ca sembra essere il concetto di “decoeren-za”. Tale concetto è un altro elemento fon-damentale della descrizione quantisticadella natura.Quello che si intende in meccanica quanti-stica per decoerenza è che lo stato di so-vrapposizione pura, descritto dalla funzio-ne d’onda di un certo sistema, non dura in-definitamente ma permane solo per uncerto tempo, cioè finchè il sistema quanti-stico non comincia ad interagire con ilmondo circostante. Quando tale interazio-ne si manifesta, lo stato puro decade (cioèinizia a degradarsi) e come si usa dire tec-nicamente ‘perde coerenza’. L’interazionecol mondo circostante è ineliminabile,come ci dice la seconda legge della ter-modinamica[3], e descrive l’irruzione del-l’irreversibilità nel mondo altrimenti perfet-tamente simmetrico e reversibile della fisi-ca atomica e molecolare. Il tempo di de-coerenza dipende dal tipo di interazionetra gli elementi quantistici del sistema, edefinisce il ‘tempo di vita’ di un sistemaquantistico per cui vale la perfetta sovrap-

posizione tra tutti i suoi stati così come de-scritta dalla funzione d’onda. In pratica, uncalcolatore quantistico è veramente rever-sibile solo per un tempo pari al tempo didecoerenza del processo fisico sul qualeesso si basa per svolgere le sue computa-zioni sui qubits. I tempi di decoerenza mi-surati per alcuni processi fisici di potenzia-le interesse per la computazione quantisti-ca, come la risonanza magnetica di spinnucleare (NMR), la risonanza paramagneti-ca di spin elettronico, la trappola ionica, lamicrocavità ottica, l’effetto Mossbauer ealtri, variano moltissimo, tra un decimo dimiliardesimo di secondo fino a qualche mi-gliaio di secondi per la NMR. Non è peròtanto importante la velocità assoluta con laquale il calcolatore quantistico sa calcolare,ma quanti calcoli può svolgere durante ilsuo tempo di decoerenza, prima cioè chelo stato iniziale preparato nel registro diinput decada in un rumore numerico indi-stinto. Consideriamo il tempo di decoeren-za di ciascun processo diviso per l’energiacoinvolta nella transizione quantistica (adesempio, il cambiamento da 0 a 1) divisaper la costante di Planck: tale quantità rap-presenta il numero di transizioni elementaripossibili durante un tempo di decoerenza,cioè il massimo numero di ‘calcoli’ che ilcalcolatore quantistico può svolgere. Per iprocessi fisici considerati fino ad oggi,questo numero varia tra circa mille e un mi-liardo di operazioni. In pratica, questo nonè un dato molto interessante, poichè unqualsiasi programma di calcolo moderno,ad esempio la simulazione ad elementi fini-ti di un giunto cardanico, richiede parecchimiliardi di calcoli in virgola mobile.Bisogna quindi cercare di estendere almassimo il tempo di coerenza.

Dalla teoria alla pratica, adelantecon judicio...Da un punto di vista tecnico, la macchinaideale di Feynman potrebbe essere realiz-zata in pratica cercando di sfruttare le più

112 COMPLESSITÀ & SVILUPPO 2003

FABRIZIO CLERI

moderne tecnologie sviluppate per alcunicomplessi esperimenti di fisica atomica.Proverò a descrivere i tratti salienti di tre di-versi esempi sperando che, pur senza nes-suna pretesa di completezza, questa brevedescrizione serva a far cogliere almenol’eccezionale complessità ed originalitàdelle soluzioni, pur nella necessaria limita-zione dei (difficilmente comprensibili) det-tagli tecnici.Un primo esempio è la “trappola ionica”. Inesperimenti realizzati all’Università delColorado, è stato possibile intrappolare unsingolo ione (un atomo carico di elettricitàpositiva) di berillio all’interno di una picco-la regione di spazio delimitata da intensicampi elettrici oscillanti.Con una combinazione di ulteriori campielettrici e di fasci laser, lo ione intrappolatopuò essere rallentato fino quasi a fermarlo,compatibilmente con i limiti imposti dalquantistico principio di indeterminazione. Idue elettroni rimasti intorno allo ione risul-tano sensibili a particolari impulsi laser,che possono spostarli da uno stato energe-tico ad un altro con una modalità ben con-trollabile. Ogni volta che un impulso laserinduce la transizione di un elettrone, lo ionevibra leggermente nella sua trappola elet-trica. Le vibrazioni dello ione sono stretta-mente accoppiate con la transizione dell’e-lettrone, in una unica funzione d’onda. Ogniione così intrappolato, con i due elettroniche possono passare tra uno stato energe-tico e l’altro, rappresenta un qubit.Per realizzare un circuito logico booleano,come AND, OR, NOT eccetera, bisogna ac-coppiare almeno due qubits, cioè avvicina-re almeno due ioni nella stessa trappola inmodo da poter effettuare calcoli quantisticicon la funzione d’onda complessiva deidue ioni e dei quattro elettroni. In una mo-difica di questo esperimento, realizzataall’Università di Innsbruck, la trappola èstata realizzata in modo da disporre parec-chi ioni uguali allineati. In questo modo letransizioni degli elettroni si accoppianonon più alle vibrazioni di ogni singolo ione

ma alle vibrazioni collettive della catena,che appare come una microscopica colla-na di perle. Ogni computazione svolta conuna simile ‘macchina’ richiederebbe unasequenza di tantissimi impulsi laser bendefiniti (pensiamo alle regole della mac-china di Turing), tanto che il limite teoricomassimo è stimato in questo caso in appe-na 10000 operazioni al secondo. L’idea diusare impulsi laser ultracorti, per accelera-re la computazione, si scontra con la ne-cessità di aumentare parallelamente l’in-tensità del fascio laser, aumentando così laprobabilità di errore (questo è dovuto alfatto che aumentando l’intensità aumentanoi cosiddetti effetti nonlineari, cioè il fasciolaser interagisce con più elettroni simulta-neamente).Un secondo esempio è la ottica quantisticain cavità. Un tale esperimento, già realizza-to separatamente alla Ecole Normale diParigi e al Caltech di Pasadena, consiste didue specchi molto ravvicinati (a circa uncentesimo di millimetro di distanza!) tra iquali vengono fatti passare a bassissimavelocità gli atomi di un gas, mentre un laserli bombarda con luce ad una frequenzaleggermente diversa da quella ottimale.Grazie al confinamento, ciascun atomo puòemettere e ricatturare un quanto di luce, ofotone, più e più volte, sfruttandone il “rim-balzo” contro gli specchi. In questo caso ilqubit è rappresentato dal sistema combi-nato atomo più fotone.Se un atomo in uno stato eccitato entranella cavità tra i due specchi, con una certaprobabilità può lasciare un fotone entro lacavità uscendone così diseccitato. La fun-zione d’onda della cavità descrive adessola sovrapposizione dei due stati “fotonepresente” e “fotone assente” (1 e 0, a suomodo). Quando un secondo atomo attra-versa la cavità, il suo stato si mescola conquello già presente nella cavità e può cam-biare o meno, in funzione della presenza omeno del fotone all’interno della cavità. Aquesto punto, un fascio laser bombarda ilsecondo atomo esattamente quando que-

113COMPLESSITÀ & SVILUPPO 2003

CALCOLATORI QUANTISTICI

114 COMPLESSITÀ & SVILUPPO 2003

FABRIZIO CLERI

Attività dell’ENEA sui materiali e tecnologieper la computazione quantistica

Nel corso di un programma di ricerca congiunto, condotto dall’autore e dal prof. P. Keblinski, delDepartment of Materials Engineering del Rensselaer Polytechnic Institute (RPI) negli USA, è stato re-centemente proposto un metodo assai originale per implementare in maniera potenzialmente moltoefficiente gli elementi di base di un circuito detto “Quantum Cellular Automaton”, o AutomaCellulare Quantistico (QCA), suscettibile di essere convertito in un “qubit” per il calcolo quantistico.Tale circuito teorico elementare, introdotto qualche anno fa dal gruppo di C.S. Lent dell’Università diNotre Dame, composto da quattro “punti quantici” a distanze nanometriche e collegati fra di loro (fi-gura 1), svolge le funzioni di un circuito bistabile e permetterebbe di realizzare idealmente tutte lefunzioni dell’elettronica convenzionale senza bisogno di transistor.

Figura 1Schema dell’automa cellulare quantistico secondo Toth e Lent(pubblicato in Physical Review A63, 052315 (2001)). a. Geometriadella cella: i cerchi rappresentano punti quantici (o “quantumdots”), le linee rappresentano percorsi di tunneling, attraverso iquali un elettrone può saltare da un quantum dot all’altro. b.Due elettroni, in nero, sono iniettati in ciascuna coppia di quan-tum dots. Per repulsione coulombiana, esistono due configurazio-ni equivalenti P = +1 e P = –1, che corrispondono ad un elementobistabile, come un transistor.

1

P = +1 P = –1

2

3

4

a)

b)

In particolare, è stato recentemente mostrato dal gruppo di Notre Dame che collegando fra loro inmaniera opportuna molti elementi del tipo descritto è possibile trasformare un insieme di QCA in uninsieme di qubits, per realizzare circuiti che svolgono tutte le funzioni logiche elementari di un calco-latore quantistico. Fino ad ora, però, non esistono realizzazioni pratiche su scala nanometrica di di-spositivi fisici in grado di svolgere le funzioni previste teoricamente per un QCA.La nostra ricerca dimostra, mediante l’analisi di modelli teorici, che combinando quattro nanotubi dicarbonio fra di loro è possibile realizzare il frammento elementare di QCA necessario per ottenereun qubit. (Le proprietà dei nanotubi di carbonio sono oggetto di attiva ricerca da parte dell’ENEA,vedi Energia, Ambiente, Innovazione n. 1/2001, pp.64-71).In questo caso sono state studiate le proprietà di giunzioni tra coppie di nanotubi incrociati e succes-sivamente irraggiati da un fascio di elettroni, in modo da creare una zona di “fusione” tra i due tubi dicarbonio. Le dimensioni del sistema risultante sono di appena qualche nanometro. È stato trovatoche sotto particolari condizioni di irraggiamento, la zona centrale di giunzione che connette i duenanotubi si comporta proprio come un punto quantico. È stato quindi ipotizzato che assemblandouna nanostruttura come quella riportata nella figura 2 sarebbe possibile realizzare un QCA in ma-niera relativamente semplice e riproducibile. Combinando parecchi nanotubi in una configurazionea scacchiera e irraggiando (vedi didascalia) i punti di giunzione e i bracci che li congiungono inmodo opportuno si potrebbero realizzare gli elementi circuitali (qubits) di un computer quantistico.Sono attualmente in corso attività sperimentali congiunte, presso ENEA e RPI, per verificare in prati-ca le previsioni teoriche.

Figura 2Realizzazione di una cella QCA mediante quattro nanotubidi carbonio. a. I quattro nanotubi vengono posizionati su unsubstrato, ad esempio mediante nanomanipolazione con unmicroscopio a forza atomica. I quattro punti di giunzionevengono irraggiati con un fascio di elettroni, creando quat-tro punti quantici nelle regioni di giunzione. b. Succes-sivamente, con un ulteriore irraggiamento con elettroni adose più elevata, i contatti orizzontali tra le due coppie dipunti quantici vengono “bruciati”, Questa configurazionerappresenta una possibile realizzazione pratica su scala na-nometrica della cella rappresentata in figura 1-a.

sto si trova entro la cavità. La luce del fasciolaser ha una frequenza tale da non averealcun effetto sul secondo atomo, a menoche nella cavità non sia già presente il foto-ne lasciato dall’atomo precedente. Solo inquesto caso, infatti, gli stati quantici del se-condo atomo vengono ‘distorti’ di queltanto che basta a permettere al laser di in-teragire con l’atomo stesso, cambiandonecosì lo stato. La funzione d’onda che de-scrive l’insieme del primo e secondoatomo e del fotone è un qubit, che può es-sere pilotato nello stato 0 o 1 (misurato sulsecondo atomo) a seconda del valore dellostato prefissato per il primo atomo.Un ultimo esempio che voglio brevementedescrivere è il quantum computer in pro-vetta, proposto da scienziati del Mas-sachusetts Institute of Technology e del-l’Università di Stanford. L’idea è basata sullatecnologia, ormai matura, della risonanzamagnetica nucleare, o NMR. Alcune mole-cole organiche, ad esempio il (2,3)-dibro-motiofene, contengono atomi di idrogeno ilcui nucleo (protone) può essere orientatonello spazio da un campo magnetico. Permotivi legati alla sua natura quantistica, l’o-rientazione del protone può assumere solodue valori rispetto alla direzione delcampo magnetico esterno, ad esempio“su” e “giù”, che costituiscono i due statidel qubit.Nella molecola (2,3)-dibromotiofene cisono due atomi di idrogeno, cosicchè ognimolecola è un sistema di due qubits accop-piati. Cioè, ogni molecola è un calcolatorequantistico, dunque una mole di questa so-stanza in una provetta contiene circa 1023

calcolatori quantistici.... Molecole com-plesse possono contenere centinaia diatomi di idrogeno, e trasformarsi così incalcolatori con un enorme spazio diHilbert, cioè con un enorme numero distati. L’orientazione assoluta del protone(ovvero il suo spin nucleare) può esserecambiata in maniera molto ben controllatae rapida da un campo magnetico oscillantecon le raffinate tecniche della NMR, ren-

dendo questa tecnica (già ampiamenteusata ad esempio nella diagnostica medi-ca) un ottimo candidato per il quantumcomputing.Un bel problema, in questo caso, è costitui-to dal fatto che ciascuna molecola nellaprovetta ha una sua orientazione casuale eignota, che si somma all’orientazione dellospin nucleare dell’idrogeno. Quando vieneinviato l’impulso NMR tutti i protoni in cia-scuna molecola cambiano il proprio spinnucleare ma, siccome a questo si sommal’orientazione spaziale ignota della mole-cola, il risultato misurato è praticamente in-servibile. È come se ordinassimo a tutte lepersone che passeggiano casualmente inuna piazza di ‘voltarsi’ sperando di trovarlicosì tutti rivolti verso la stessa direzione!Con le raffinate tecniche sviluppate nellaNMR negli ultimi quarant’anni è tecnica-mente possibile selezionare gruppi di mo-lecole nella provetta orientate tutte allastessa maniera, combinando campi ma-gnetici di frequenze diverse. Però in questocaso l’ampiezza del segnale contenente la“soluzione” della computazione quantisti-ca viene sommersa nel rumore provenien-te dai qubits casuali di tutte le altre moleco-le: il nostro calcolatore ci sussurra la rispo-sta in uno stadio affollato di spettatori urlan-ti. Tale tecnica sembra molto promettentequalora ci si spinga a bassissime diluizionidelle molecole nella provetta, nel qual casoil rapporto segnale/rumore del calcolatorequantistico migliora molto efficacemente,anche perché il tempo di decoerenza dellospin nucleare è molto più lungo di quello dialtri processi fisici proposti.

Note1. I due concetti di complementarità e di indetermi-

nazione sono al centro della rivoluzione scientificae concettuale portata dalla meccanica quantistica,anche nota come “intepretazione di Cope-naghen”. Il principio di complementarità, definitoda Niels Bohr nel 1927, stabilisce che per i sistemifisici che obbediscono alla meccanica quantistica levariabili dinamiche compaiono in coppie rigida-mente collegate, ovvero ‘complementari’, in modoche la misura precisa di una impedisce la misura

115COMPLESSITÀ & SVILUPPO 2003

CALCOLATORI QUANTISTICI

precisa e contemporanea dell’altra. Questo è vero,ad esempio, per le variabili posizione e velocità diun elettrone. Il principio di indeterminazione, sco-perto poco prima da Werner Heisenberg sulla basedella interrelazione delle proprietà allo stessotempo corpuscolari ed ondulatorie della materia,descrive il concetto di complementarità in manieraquantitativa, fissando un errore minimo che lo spe-rimentatore commette nella misurazione simulta-nea di coppie di variabili complementari. Tale erro-re è espresso matematicamente nella famosa rela-zione di indeterminazione, la quale stabilisce che ilprodotto tra gli errori commessi nel misurare ledue variabili è almeno grande quanto la costantedi Planck: per mantenere costante questo prodot-to, una tanto maggiore precisione nella misura diuna delle due variabili implica una crescente im-precisione nella simultanea misura dell’altra.

2. In questo contesto la definizione di esponenzialeesprime la rapidità con la quale cresce una succes-sione di numeri. Il concetto di rapidità di crescita èlegato, in pratica, al rapporto tra due termini con-tigui nella successione. Una successione lineare èottenuta sommando una costante ai termini, adesempio 1, 2, 3, 4, 5, 6, ... : in questo caso il rap-porto tra due termini adiacenti decresce e tendeall’unità. Una successione geometrica è invece ot-tenuta moltiplicando il termine precedente peruna costante, ad esempio 1, 2, 4, 8, 16, 32, 64 ... :in questo caso il rapporto tra due termini adiacentiè proprio la costante moltiplicativa (nell’esempioindicato la costante è 2, infatti ogni termine si ot-tiene moltiplicando per 2 il precedente). Una suc-cessione esponenziale corrisponde ad una sequen-za di termini il cui rapporto è una potenza, adesempio 1, 3, 9, 27, 81, …

3. La termodinamica è la branca della fisica che studiai processi di trasformazione di energia in calore.Come tale è alla base del funzionamento dellemacchine termiche e, più in generale, di qualsiasisistema (anche il corpo umano) che operi una tra-sformazione tra diverse forme di energia. Le dueleggi fondamentali della termodinamica stabilisco-

no: (1) che l’energia totale di un sistema si conservasempre durante tutti i processi di trasformazione, e(2) che il grado di disordine di un sistema fisicoreale, cioè avente una efficienza di trasformazioneinferiore al 100%, tende sempre ad aumentare. Perlo studio dei processi di trasformazione la termodi-namica si serve di alcune grandezze fisiche comel’entropia, che misura il grado di disordine presentein un sistema; l’energia interna, che definisce lamassima quantità di calore che un sistema fisicoideale, cioè con efficienza di trasformazione dienergia in calore del 100%, può produrre; l’energialibera, che misura la capacità di un sistema idealedotato di una certa quantità di energia interna dicompiere una certa quantità di lavoro meccanico.

4. La hamiltoniana di un sistema fisico è una funzio-ne matematica (o un insieme di funzioni matema-tiche) che permette di definire l’energia totale delsistema conoscendo i valori di un insieme ben defi-nito di variabili caratteristiche del sistema, dettevariabili canoniche. Per un sistema che può esseredescritto come un insieme di punti materiali, adesempio i pianeti del sistema solare visti dallaTerra) le variabili canoniche sono la posizione e lavelocità di ciascun pianeta. Per sistemi descrittidalla meccanica quantistica è possibile scegliere levariabili canoniche in vari modi tra cui, ad esem-pio, il modulo elevato al quadrato (o matrice delladensità di probabilità) delle funzioni d’onda dellesingole particelle che compongono il sistema.

5. La misura di energia per sistemi a temperatura va-riabile viene convenientemente espressa in unità dikBT, dove kB è la costante di Boltzmann, pari a1.38x10-16 erg/grado, e T è la temperatura misura-ta in gradi Kelvin. Ad esempio, alla temperatura di300 gradi Kelvin (cioè a temperatura ambiente)una unità kBT vale circa 4x10-14 erg, un numeroestremamente piccolo rispetto alle energie tipichedei fenomeni macroscopici. Per confronto, si con-sideri che una massa di 1 Kg che cade nel vuoto dauna altezza di 1 metro arriva a terra con una ener-gia di moto (cinetica) pari a circa 100 milioni dierg.

116 COMPLESSITÀ & SVILUPPO 2003

FABRIZIO CLERI

&complessità sviluppo

117COMPLESSITÀ & SVILUPPO 2003

&com

ple

ssità

svilu

ppo

Progettare e costruire una “boa derivante” dedicataalle specifiche caratteristiche del Mar Mediterraneo è

l’obiettivo del progetto MELBA (MEditerraneanLagrangian Buoy Appliance), promosso dal Ministero

dell’Istruzione, dell’Università e della Ricerca econdotto operativamente dall’ENEA

FIORELLO CAVALLINIRAMIRO DELL’ERBA

DANIELE MAFFEIENEA

UTS Fusione

Una boa per conoscereil Mar Mediterraneo

2003 Tratto da: ENERGIA, AMBIENTE E INNOVAZIONE 4/03

Contesto e ruolo dell’ENEAnel progetto

La prima applicazione della legge 95/95,art. 3, ha comportato, fra le altre iniziative, illancio di un programma di ricerca di inte-resse dell’ENEA, denominato “AmbienteMediterraneo”; tale programma, nello spiri-to della legge, prevedeva che imprese na-zionali contribuissero allo sviluppo di tec-nologie innovative da utilizzare per attivitàdi ricerca in campo ambientale marino.A seguito di apposito bando nazionale furo-no individuati 17 progetti, proposti da uncerto numero di operatori nazionali, fra in-dustrie e enti di ricerca; il finanziamento glo-bale previsto a carico del Ministero del-l’Università e della Ricerca Scientifica eTecnologica (ora Ministero dell’Istruzione,dell’Università e della Ricerca – MIUR), chepoteva allora coprire una quota attorno al60% dell’impegno totale, fu opportunamen-te suddiviso fra i singoli progetti. All’internodi ciascuno di tali progetti compariva ENEAcome uno dei partner, oggetto quindi anchedi una parte del suddetto finanziamento.Fra questi progetti, contrassegnato dallasigla 3.3.1.4, trova luogo quello dedicatoallo sviluppo di un robot sottomarino auto-nomo, da adibire a campagne di misure dilunga portata e fino a profondità di 2000 m.L’acronimo MELBA sta per Boa Lagran-giana derivante per il Mediterraneo. IlMIUR ha indicato l’ENEA quale organizza-tore esecutivo di questo progetto.

* * *Il progetto MELBA ha come scopo la realiz-zazione di una boa derivante lagrangianadedicata alla particolare morfologia delMar Mediterraneo, il quale presenta ristret-te dimensioni spaziali, rispetto agli oceani,ma, in molti casi, una grande variabilità deifondali. Le boe lagrangiane seguono i flussidi corrente marina misurando le proprietàdi un elemento di acqua solidale con la boastessa (da cui il nome lagrangiana) per gliscopi più svariati, dalla sorveglianza am-bientale agli studi oceanografici. La boa

può immergersi e risalire, fornendo così mi-sure in profondità prestabilite; alcuni tipi disiffatte boe sono in commercio per lo studiodi correnti oceaniche. Il Mediterraneo, però,è caratterizzato da rapide variazioni dellaprofondità, rispetto ai più piatti fondali ocea-nici, nonché dall’influenza della costa, carat-teristiche che risultano determinanti per lecorrenti marine: l’elemento di acqua in istu-dio riflette queste peculiarità. La nostra boa,inoltre, è progettata per operare in vicinanzadella costa che rende le missioni operativemolto differenti da quelle in oceano apertonelle quali sono in uso ad oggi. La dinamicadi un elemento acquoso è infatti grandemen-te influenzata da questi fattori; l’analisi dellostesso va quindi svolta su scale spaziali infe-riori, tipicamente delle decine di miglia; con-seguentemente anche la durata delle missio-ni è inferiore, rispetto a quelle oceaniche.Poiché il nostro studio concerne prevalen-temente l’inquinamento ambientale abbia-mo concentrato la nostra attenzione versola zona costiera, maggiormente influenzatadalle attività umane. Una delle possibili atti-vità costiere di MELBA, ad esempio, è ilcampionamento ad alta frequenza (ovveroad intervalli di alcune ore) di acque dibassa profondità (minori di 100 metri) incui è osservabile l’evoluzione della massadi plankton e le conseguenze dell’attivitàumana sullo stesso. Il sistema di controllo diMELBA deve tenere presente queste consi-derazioni, sia per missioni di medio olungo periodo in mare aperto, sia per mis-sioni di breve periodo molto ripetitive ededicate allo studio dell’ambiente marinocostiero su scale spazio temporali brevi.Il corpo della boa è formato da un tubo dialluminio, capace di resistere fino a 2000metri di profondità, e contenente il motoredi ascesa e discesa (unico moto consentitoalla boa), il sistema di comunicazione satel-litare e il sistema di controllo della missio-ne. La strumentazione sensoristica acces-soria è variabile in base al tipo di missioneda eseguire: essa può comprendere misu-re di conducibilità, salinità, temperatura,

118 COMPLESSITÀ & SVILUPPO 2003

FIORELLO CAVALLINI, RAMIRO DELL’ERBA, DANIELE MAFFEI

clorofilla ecc. Il sistema di comunicazione,attraverso il quale la boa invia i dati misura-ti ricevendone le nuove missioni conse-guenti, è a due vie supportato tramite lacostellazione satellitare Orbcomm.Un GPS (Global Position System) è integra-to per la georeferenzazione dei dati misu-rati, una volta che la boa è emersa.Le novità principali di MELBA, rispetto aprodotti commerciali, sono due: l’utilizzo diuna costellazione satellitare affidabile perlo scarico dei dati e la comunicazione adue vie che consentono all’operatore nellaboratorio di riprogrammare la missionedella boa via satellite in base ai risultati diuna missione precedente o altro. Inoltre viè un sistema di controllo “intelligente” ca-pace di intervenire in situazioni semplicimediante una serie di regole.

Boe derivantiLe boe Lagrangiane, sono così chiamatepoiché solidali nel moto con l’elemento ac-quoso in studio; esse sono sia di superficieche di profondità. In particolare queste ulti-me, dette anche “profilatori” dato il loromoto verticale, sono strumenti di misura ca-paci di scendere ad una predefinita profon-dità, misurare alcune caratteristiche, risalirealla superficie e trasmettere i dati ad unastazione di terra. Alla fine del loro lavorovanno generalmente perdute.L’uso di tali strumenti ha aperto vasti enuovi orizzonti nel campo degli studi clima-tici ed oceanografici; i loro costi, infatti, sonoincomparabilmente minori (il valore di unaboa è di circa 10.000 euro) rispetto allaconduzione di una campagna di misure construmenti usuali, quali una nave oceanogra-fica, che costa sì 10.000 euro, ma al giorno.

Caratteristiche del MarMediterraneoL’applicazione di queste tecnologie in marichiusi, quali il Mediterraneo, dove le scalespazio temporali sono spesso ridotte ri-

spetto agli oceani e le dinamiche mostranoalti gradienti dovuti alla struttura del fondoe delle coste, quasi sempre presenti nell’a-rea di esplorazione, richiedono l’uso distrumenti intelligenti. Un sistema di control-lo flessibile è di grande utilità per pro-grammare e soprattutto riprogrammare lemissioni così come la realizzazione di pro-cedure di fuga per evitare che la boa possarimanere intrappolata sul fondo marino.

MELBALo scopo del progetto MELBA è la realizza-zione di una boa Lagrangiana profilantededicata all’ambiente marino mediterra-neo. Il sistema di controllo è stato realizzatotenendo presente le considerazioni di cuisopra per missioni di lungo e medio termi-ne ma anche per missioni brevi e molto ri-petitive; in particolare missioni costiere,brevi e dedicate a misurazioni di inquina-mento e biologiche.

119COMPLESSITÀ & SVILUPPO 2003

UNA BOA PER CONOSCERE IL MAR MEDITERRANEO

Figura 1La boa MELBA

11. Sensore di conduttività12. Termosensore13. Sensore di pressione14. Fluorimetro/Torbidimetro15. Sensore livello ossigeno

disciolto16. Antenna17. Connettore esterno18. Elettronica19. Batteria10. Serbatoio olio11. Pompa, motore e valvola12. Vescica natatoria in

neoprene

La boa derivante (mostrata in figura 1) hauna profondità operativa massima di 2000metri. Il progetto è organizzato in quattroblocchi funzionali per la boa ed uno perl’interfaccia uomo-macchina. Ogni bloccosarà implementato separatamente e saràpoi connesso con gli altri tre. La struttura èdescritta nei seguenti sottoinsiemi:• corpo• batterie• sensori• elettronica di bordo• interfaccia uomo-macchina.

Corpo

Il corpo è formato da un cilindro di allumi-nio (costruito con tecniche di derivazioneaeronautica per essere capace di resisterefino a 2000 metri di profondità) contenerela strumentazione elettronica, il motore avescica per il movimento verticale, il siste-ma di controllo per la missione ed il siste-ma di emergenza. Il corpo è lo stesso inogni missione. L’unica variazione ammessaè la tipologia dei sensori esterni in base aidati che è necessario acquisire nella speci-fica missione, allo scopo di ridurre il pesodella boa. Il movimento verticale della boaè assicurato dal pompaggio di olio in unavescica esterna, similmente a quanto fattodai pesci, per controllare il livello di profon-dità a cui la boa è in equilibrio.

BatteriaUna parte considerevole del peso delcorpo è costituito dalle batterie, le qualidevono durare per l’intera vita della boa(200 cicli circa nel caso di missioni brevi). Ilpacco batterie è realizzato dall’unione inserie ed in parallelo di 72 batterie al litio dialta capacità (16,5 Ah 3,6 V).

SensoriNel corpo di MELBA sarà possibile caricarediverse tipologie di teste equipaggiate consensori di base CTD (conducibilità, tempe-ratura e profondità) e con altri sensori per lamisura della quantità di ossigeno disciolto,torbidità, fluorescenza; sarà possibile mon-tare diversi sensori specifici per l’uso inparticolari missioni. La boa è capace di ef-fettuare misure idrologiche, chimiche, bio-logiche e di geologia oceanografica.

Elettronica di bordo

L’elettronica di bordo consiste in :• sistema di comunicazione• sistema di controllo• sistema di acquisizione dati

Sistema di comunicazione

Il sistema di comunicazione è del tipo satel-litare a due vie (full duplex). Un GPS (GlobalPosition System), come mostrato in figura 2,è utilizzato per la georeferenzazione deidati all’atto dell’emersione della boa, quan-do questa trasmette i dati acquisiti. Per que-sto specifico sistema di comunicazione stia-mo sviluppando un’antenna unica adatta siaa ricevere dati GPS che a trasmettere e rice-vere dati dal satellite. Caratteristica essen-ziale di questa antenna è la capacità di resi-stere alle pressioni marine operative (2000metri pari a circa 200 atmosfere). Lo sche-ma logico del software per il controllo delmodem è mostrato in figura 3. La gestionedi questo software sarà un compito del si-stema di controllo della boa.

Il sistema di controllo e supervisione

Il sistema di controllo è responsabile per larealizzazione della missione programmata.

120 COMPLESSITÀ & SVILUPPO 2003

FIORELLO CAVALLINI, RAMIRO DELL’ERBA, DANIELE MAFFEI

Figura 2Schema a blocchi delsistema di comunica-zione Antenna

GPSAntenna

VHF

Sistemadi controllo

Portaassiale

PortaNMEA

Interruttoridigitali

GPS

Elettronica perrilevare i dati di

posizione

Modem

Elettronica permodulare i dati

Nonostante i soli movimenti e permessi allaboa siano dei sali e scendi noi proveremoad implementare un sistema di controllosofisticato. Sottolineiamo, ancora una voltaalcune peculiarità che distinguono le ne-cessità di una boa operante nel MarMediterraneo rispetto ad una operante nel-l’oceano. La principale differenza è l’altavariabilità del fondale marino e del contor-no della costa, che produce vortici su unascala spazio temporale ristretta. Noi vor-remmo che la boa fosse capace di seguirenon solo un profilo di profondità prgram-mato, ma anche altri parametri quali sali-nità, temperatura ecc. Un sistema di super-visione dovrebbe quindi essere implemen-tato per migliorare le probabilità di succes-so di una missione. Il sistema di supervisio-ne dovrebbe essere capace di mantenerela boa in un elemento di acqua a tempera-tura costante seguendo una corrente ter-mica. Inoltre lo stesso dovrebbe essere ca-pace di prendere qualche decisione ele-mentare in caso di rotture o malfunziona-menti non vitali quali, ad esempio, una cat-tiva trasmissione dei dati o un assorbimen-to elettrico anomalo da parte di una uten-za. L’eccessivo assorbimento di correnteda parte di una utenza, ad esempio, può fardecidere al sistema di supervisione di iso-lare quell’utenza e di continuare la missio-ne senza quel sensore. Le attuali boe sonototalmente passive nella trasmissione deidati cosicché molti di essi sono persi.In pratica c’è la possibilità di cambiare pa-rametri della missione mentre questa vieneeffettuata. Il sistema di supervisione do-vrebbe poi ripianificare la missione otti-mizzando le prestazioni ottenibili anche nelcaso di attrezzatura ridotta. La nostra inten-zione è di partire da un semplice metododi regole e di incrementarle progressiva-mente in complessità. Si vuole cioè partireda una semplice tabella di regole e del tipo“Se... allora” per le decisioni da assumereo di chiedere aiuto umano, grazie al siste-ma di comunicazione bidirezionale. Loschema logico del sistema di controllo conle sue connessioni è mostrato in figura 4.

In particolare possiamo distinguere le se-guenti unità logiche:

Schedulatore: il compito dello schedulatoreè di dividere la missione ricevuta in una se-quenza di compiti semplici e di passarla almonitor. Lo schedulatore riceve poi dalmonitor la missione pianificata.

Monitor: il monitor riceve la missione sche-dulata e invia i comandi di misura ai senso-ri; inoltre invia il piano di navigazione al si-stema di navigazione, ricevendone lo statocorrente.

Sistema di navigazione: il sistema di naviga-zione riceve il piano dal monitor e lo infor-ma sullo stato di navigazione. Inoltre spedi-sce i compiti elementari agli attuatori, rice-vendone risposta.

121COMPLESSITÀ & SVILUPPO 2003

UNA BOA PER CONOSCERE IL MAR MEDITERRANEO

FUNZIONE AD ALTO LIVELLO PER LA TRASMISSIONEStato del sistema di trasmissione; on/off trasmissione;

riceve; segue le nuove istruzioni del sistema di controllo

FUNZIONI DI TRASFERIMENTO AL DRIVER DEL MODEM

Per trasmissione

- Compressione dei dati

- Suddivisione in pacchetti con il controllo di ridondanza

- Trasferimento dei dati allo specifico driver sulla scheda del modem

Per ricezione

- Decompressione dei dati

- Ricomposizione dei pacchetti e controllo di ridondanza

- Trasferimento dei dati dallo specifico driver sulla scheda del modem

Driver della scheda del modem

ORBCOMM o GLOBALSTAR o ARGOS

Figura 3Schema logico del si-stema di comunica-zione

Mod

emC

aric

o ut

ilee

acqu

isiz

ione

dat

i

SISTEMA DI CONTROLLO

Pianificazione

Monitor

Navigatore

Azionatori

Sup

ervi

sore

Dati s

cienti

fici, s

tato b

atter

ia,da

ti eme

rgen

za

Com

ando

acqu

isizio

ne d

ati

Accesso edati completi

Compitispeciali

Compiti e datinavigazione

Sequenza compitimissione

Nuovaprogrammazione

Statonavigazione

Dati t

rasm

ission

eda

l com

mut

ator

e

Sens

ori d

i misu

ra

Comando estato azionatori

Figura 4Schema logico del si-stema di controllo

Supervisore: il supervisore è informatocirca tutti i dati e può seguire una tabella diregole elementari, del tipo “Se…allora” oin caso di difficoltà a decidere di chiedereaiuto umano.

Acquisizione dati

Allo scopo di rendere maggiormente fles-sibile la boa, è stato deciso durante la fasedi progettazione di inserire un micro con-trollore per il controllo di tutti i sensori dibordo. Il micro controllore è capace di veri-ficare un primo livello di congruità dei datimisurati e di controllare lo stato dei sensori.

Interfaccia uomo-macchina e ilprogramma di missione

L’interfaccia uomo-macchina (HCI) traespunto dalla esperienza condotta con ilprogetto ARAMIS. Per aiutare il pilota/scienziato nel compito di programmare lamissione è stato usato un linguaggio di tipo

visuale simile a quello realizzato per il pro-getto ARAMIS. Naturalmente l’insieme dicomandi adottato è diverso in quanto laboa si può muovere solo verticalmente.Esso è formato da:• comandi di movimento (del tipo da “vai

su”, “vai giù”, “stop”) per pilotare su egiù la boa;

• comandi di controllo per testare le varia-bili di stato della boa. (del tipo “Se…allo-ra”) e prendere semplici decisioni in ac-cordo con il valore della temperatura,pressione posizione geografica, tempo,piazza ecc.;

• comandi e istruzioni di misura per i sen-sori.

L’ambiente di sviluppo integrato (IDE) èmostrato in figura 5. Questo set di comandipuò essere utilizzato nell’ambiente graficocosì come il relativo insieme di grafici dicomandi che sono mostrati in figura 6.L’IDE, insieme al simulatorre di scenario edella boa, se le informazioni ambientalisono sufficienti, permette di prevedere ilreale comportamento della boa nell’acquae di pianificare quindi la missione con altaprobabilità di sopravvivenza.Così la missione viene simulata e ricalcola-ta ad ogni emersione (figura 7).Il modello dei dati è scaricato, dall’operato-re a terra, periodicamente da National andEuropean Projects (as MFSPP - Medi-terranean Forecasting System Pilot Project,MODB - The Mediterranean Oceanic DataBase, SINAPSI - Seasonal, Interannual anddecAdal variability of the atmosPhere,oceanS and related marIne ecosystemsetc.) ed integrato con il modello della boae i suoi programmi. Ad ogni ciclo di missio-ne la posizione della boa, il VDE mostra ilmodello aggiornato (figura 8).Per fare questo è necessario che la boapossa contattare il pilota/scienziato ovun-que esso sia. Per questa ragione l’interfac-cia è mobile e il legame con la boa è rea-lizzato attraverso una stazione server.Naturalmente il sistema deve operareanche se le connessioni non sono possibili,cosicché il server deve essere capace di

122 COMPLESSITÀ & SVILUPPO 2003

FIORELLO CAVALLINI, RAMIRO DELL’ERBA, DANIELE MAFFEI

Figura 5Ciclo di programma-zione della missione

Superficie del mare

1 Scendere

5 Se tempo >= 25 salire

4 Se temperatura <= 8 fermarsi3 Se tempo >= 10 scendere

2 Se pressione + 50 fermarsi

2 Se pressione = 50 fermarsi

8 Se pressione <= 1 trasmissione dati

6 Se pH >= 6 fermarsi7 Se tempo >= 7 salire

Figura 6L’ambiente visuale disviluppo (VDE) diMELBA. Ogni freccia evertice è un comandografico

prendere decisioni circa la continuazionedella missione (figura 9) giocando il ruolodel sistema di controllo missione.

ConclusioniLo scopo finale del progetto MELBA è larealizzazione di uno strumento a bassocosto multifunzionale, che accordi facil-mente le specifiche attività, che sia possibi-le usarlo sia in mare aperto sia, con moltamaggiore probabilità, vicino le coste e chesia capace di spedire una grande quantitàdi dati ben georeferenziati. Tale strumentopotrebbe essere usato anche a livello co-munale, per le periodiche misurazionidello stato della costa prospiciente.Il vero elemento innovativo del progetto è larealizzazione di una boa capace di seguireuno dei parametri (densità, salinità, tempe-ratura, profondità chiusa) calcolato dalle mi-sure effettuate dal proprio sistema senso-riale. Per esempio è possibile mantenere laboa in una zona a temperatura costante.Un sistema di comunicazione bidirezionaledà la possibilità sia di trasmettere dati chedi ricevere ordini (ad esempio una nuovamissione chiusa) dalla stazione terrestre odalla stazione navale.Per questo tipo di applicazioni è importanteche lo strumento sia espandibile così comela capacità di trasmissione venga aumenta-ta, in modo da potervi programmare la mis-sione o un facile ritrovamento di MELBA allanaturale o forzata fine della sua missione.

RingraziamentiIn particolare vogliamo ringraziare:• CNR – IAN Consiglio Nazionale delle Ricerche–

Istituto di Automazione Navale• Idromar srl• Tecnomare SpA

Bibliografia1. TERRIBILE A. AND OTHER, ARAMIS: a system for robotic

inspection of sediments, Conference ProceedingsOceanology International 2000, Brighton (UK),7-10March 2000.

2. MAFFEI D., PAPALIA B., ALLASIA G., BAGNOLI F., A compu-ter interface for controlling the ROV mission in scien-tific survey, Conference Proceedings Oceans 2000,Providence (RI),11-14 September, 2000.

123COMPLESSITÀ & SVILUPPO 2003

UNA BOA PER CONOSCERE IL MAR MEDITERRANEO

Figura 7Il ciclo di vita di unamissione

HCI mobile Server HCI Boa

Caso AIl pilota/scienziatopuò essere contattatoin tempo reale

Caso BIl pilota/scienziatonon è contattabile

Caso CNiente/nessunoè contattabile

Analisiumana

Sempliceanalisi

a bordo

Analisiautomatica

con simulazione

Dati

Programma

Programma

Dati

Programma

Dati esimulazione

Figura 8Le correnti del Me-diterraneo, come mo-strate dal Environ-ment and DrifterSimulator (EDS) del-l’HCI

Figura 9L’HCI accessibilità dallaboa

3. EU-MAST Project, http://www.cineca.it/mfspp/

4. EU-MAST Project, http://modb.oce.ulg.ac.be/

5. Italian-MIUR Project, http://sinapsi.cineca.it/

6. RUPOLO V., BABIANO A., ARTALE V., IUDICONE D., Hori-zontal space-time dependent tracer diffusivity para-meterization for a OGCM. A sensitivity study in theMediterranean Sea.

124 COMPLESSITÀ & SVILUPPO 2003

&com

ple

ssità

svilu

ppo

Il lavoro descrive brevemente i principi dellacombustione senza fiamma e passa in rassegna le

applicazioni a forni industriali e a generatori di potenzain Italia, menzionando anche i programmi nazionali diricerca e sviluppo su questo argomento. ENEA si pone

come capofila di una “rete di eccellenza” nel settoredella combustione (enti di ricerca, università, industrie)

impegnati nello sviluppo di queste tecnologie, chemostrano promettenti chances per la soluzione dei

problemi posti dagli “impegni di Kyoto” sottoscritti dalgoverno italiano

STEFANO GIAMMARTINIGIUSEPPE GIRARDI

AMBROGIO MILANI*ENEA

UTS Fonti Rinnovabilie Cicli Energetici Innovativi

* Consulente ENEA

La combustione “senza fiamma”:una nuova tecnologia energetica

2003 Tratto da: ENERGIA, AMBIENTE E INNOVAZIONE 4/03

Il persistente e cospicuo aumento dell’im-piego di gas naturale come combustibile,gli impegni a livello nazionale conseguential Protocollo di Kyoto sulle emissioni di gasserra, la pressione crescente per misureatte a migliorare la qualità dell’aria pongo-no sempre maggiori sfide alle tecnologiedi combustione e alle scelte di ricerca esviluppo scientifica e tecnologica (R&ST)necessarie a far progredire le scienze dicombustione e lo sviluppo applicativo.Negli ultimi 20 anni sia gli studi di baseche le applicazioni tecnologiche hannocompiuto passi avanti notevoli: un fortemotore di questi progressi nella compren-sione fondamentale è stato lo sforzo perabbattere le emissioni di ossidi di azoto(NOx) agendo sulla fiamma (misure pri-marie), mentre uno stimolo tecnologicopotente per l’affermarsi di nuove tecnolo-gie è stato il risparmio energetico. A diffe-renza che nel passato, nell’ultimo decen-nio si sono affermati strumenti di indaginesperimentale avanzati assieme a sofisticatimodelli matematici, in grado di competerecon la costosa sperimentazione in scala pi-lota, per cui, mai come ora, le scienzedella combustione promettono di collabo-rare con le tecnologie.La combustione senza fiamma è tra i mi-gliori frutti di questo tipo di sviluppo de-cennale: le applicazioni nel settore deiforni e dei gasificatori sono state esaminatein una conferenza dedicata, organizzata aRoma da ENEA nel novembre 2001(HTACG4 Symposium – Roma, 26-30 no-vembre 2001).Le prospettive attuali sbilanciate su nuovicombustibili, generazione distribuita e, inprospettiva, uso di H2 per impianti e utenzea emissione zero, tengono conto di questetecnologie flameless (o mild) sia per impli-cazioni di risparmio energetico, grazie alforte recupero di calore con l’aria combu-rente, sia per le ridotte emissioni. L’articoloricorda il principio base e passa in rasse-gna applicazioni industriali e progetti diR&ST in Italia.

Combustione senza fiamma

La tecnologia è stata applicata con succes-so in processi ad alta temperatura, in parti-colare in forni siderurgici di riscaldo o ditrattamento termico, dove è stata sviluppatain origine. La tecnica è stata inizialmentestudiata per la riduzione delle emissioni diossidi di azoto (NOx) e si è poi sviluppatasu larga scala grazie al forte potenziale dirisparmio energetico associato a forti pre-riscaldamenti dell’aria comburente1.Se la camera di combustione è stabilmentesopra i 750 °C, quindi ben al disopra dellatemperatura di auto-accensione del combu-stibile, è possibile rinunciare a fiamme sta-bilizzate ai bruciatori senza rischi per la si-curezza (per i forni industriali, a temperatu-re inferiori di 750 °C, le norme prescrivonorivelatori di fiamma e blocco automatico).Sopra la soglia, è possibile individuare unmeccanismo di combustione, basato sullaauto-accensione termica e sul trascinamen-to di una grande quantità di prodotti di com-bustione caldi (ricircolazione interna).Nella figura 1, che sintetizza graficamente ilcampo di esistenza della cosiddetta “com-bustione senza fiamma o flameless“, il ter-mine Kv indica la quantità di fumi ricircolatiriferita alla portata dei reagenti puri (aria ecombustibile); grandi valori di Kv si posso-no ottenere con relativa facilità per effettofluidodinamico, utilizzando bruciatori ad

125COMPLESSITÀ & SVILUPPO 2003

LA COMBUSTIONE “SENZA FIAMMA”: UNA NUOVA TECNOLOGIA ENERGETICA

Fattore di ricircolo Kv

0 1 2 3 4 5

Temperatura di autoignizione

COMBUSIONESENZA FIAMMA

CO

MB

US

TIO

NE

INS

TAB

ILE

CBA

Tem

pera

tura

(°C

)

2400

2200

2000

1800

1600

1400

1200

1000

800

600

400

200

0

Fiamma instabile(pericolo di esplosione)

Figura 1Campo di esistenzadella combustionesenza fiamma

alta velocità. Il mescolamento di 2-4 volumiricircolati per volume prodotto, prima dellareazione, preriscalda la miscela ma allostesso tempo impedisce che la temperaturadopo la reazione possa salire fortemente ri-spetto alla temperatura di processo. In so-stanza, il miscelamento con una gran quan-tità di inerte costringe le temperature dellafase gas entro una banda di poche centinaiadi gradi attorno alla temperatura di proces-so (∆T limitato a ~~ 200-400 °C in combu-

stione senza fiamma, contro ∆T ~~ 800-1600 °C in un tipico fronte di fiamma)1,2.La prima conseguenza del drastico abbat-timento dei picchi di temperatura in fiam-ma si riscontra sulla formazione di NO ter-mico. Il grafico di figura 2 si riferisce a datiaggregati di forni a gas naturale dotati diun efficiente pre-riscaldamento dell’ariacomburente (circa 70% della temperaturadi processo). Nonostante l’aria molto calda,l’emissione NOx viene abbattuta di un fat-tore ≈ 5 rispetto alle migliori tecniche low-NOx tradizionali.La struttura chimico-fisica del processo dicombustione è drasticamente modificata:in una fiamma convenzionale di diffusioneturbolenta, una grossa parte delle reazionisi localizza in un fronte di fiamma ricco diradicali confinati in uno strato altamenteconvoluto, turbolento e quasi bidimensio-nale con forti gradienti di tutte le grandez-ze in gioco. Al contrario, la zona di reazionedella combustione senza fiamma è piutto-sto distribuita su un volume e soggetta apulsazioni turbolente molto più contenute.La figura 3 pone a confronto due profili ditemperatura lungo l’asse del bruciatore, ot-tenuti su un forno sperimentale ENEA(forno MDC più oltre descritto) in condizio-ni di fiamma convenzionale e senza fiam-ma (flox). Il picco di temperatura messo inluce dalla modalità di combustione con-venzionale (fiamma diffusiva) è responsa-bile delle sensibili emissioni di ossidi diazoto di origine termica, ben evidenziati infigura 4, ove le stesse condizioni operativesono messe a confronto dal punto di vitadelle emissioni.Le figure 5 e 6 mostrano la distribuzione ditemperatura su una metà del piano di mez-zeria del forno sperimentale ENEA-MCDnelle due condizioni di funzionamento. Ilpicco riscontrabile sulla destra in figura 5 èrelativo al fronte di fiamma in combustioneconvenzionale.La figura 7 si riferisce a un bruciatore a swirlclassico per olio denso: la fiamma (foto disinistra) è ottenuta con aria a 200 °C.

126 COMPLESSITÀ & SVILUPPO 2003

STEFANO GIAMMARTINI, GIUSEPPE GIRARDI, AMBROGIO MILANI

1000

500

100

50

10

NO

x m

g/N

m3

@5%

O2

500 600 700 800Preriscaldo aria °C

Gas naturale - efficaciariscaldamento aria ~ 65%

700 800 900 1000 1100 1200 1300 1400

Temperatura di processo °C

TA-Luft

Bruciatori convenzionali

Migliore tecnologia di “staging”

Combusione senza fiamma

Figura 2Dati accumulati diemissione di ossidi diazoto, aggregati perdifferenti tecnologielow NOx

0,00 0,20 0,40 0,60 0,80

1450,0

1400,0

1350,0

1300,0

1250,0

1200,0

T (

°C)

Asse della fornace (X/L)

Profili di temperaturasull’asse del bruciatore

flameless 1250 °C fiamma 1250 °C

Figura 3Profili di temperatu-ra per combustionetradizionale e senzafiamma (flameless)

950 1000 1050 1100 1150 °C

mg/

Nm

3 (3

% O

2)

250,00

200,00

150,00

100,00

50,00

0,00

flamelessfiamma

Figura 4Emissioni a confron-to tra combustionetradizionale e senzafiamma (flameless)

La combustione senza fiamma è stata otte-nuta ricircolando prodotti di combustionenell’aria comburente, che risulta viziata (O2

≈ 10%) ma preriscaldata a 500 °C (foto didestra). È ben chiaro che la struttura dellacombustione risulta molto diversa (nel se-condo caso procede per evaporazionedelle gocce e successiva combustioneomogenea senza fiamma); di conseguenzarisulta anche ben diversa la formazione diinquinanti. Quindi, il risultato tecnologicopuò costituire un deciso vantaggio ambien-tale, in particolare per quanto riguardacombustibili liquidi e solidi.

Applicazioni industriali

Forni di riscaldo e forni per iltrattamento termico

Il grande vantaggio delle tecnologie senzafiamma consiste nel rendere possibilel’uso di aria molto preriscaldata (fin oltre≈ 1000 °C), senza emissioni incontrollate diNOx e senza eccessivi stress termici suimateriali. Preriscaldamenti così efficaciconsentono un salto in avanti nel recuperoenergetico nei processi ad alta temperatu-ra, come è facile calcolare a tavolino. Si ri-chiedono non solo la combustione senzafiamma, ma anche una progettazione spe-ciale del bruciatore e dei componenti. Lasoluzione che ha reso possibile tale recu-pero energetico è stata quella di alloggiarelo scambiatore di calore per preriscaldarel’aria nel corpo stesso del bruciatore: i fumi

caldi vengono estratti attraverso il bruciato-re in contro corrente all’aria, che viene cosìriscaldata proprio al momento giusto. Conqueste geometrie e con materiali costrutti-vi appropriati, il rendimento termico dellacamera di combustione può essere au-mentato decisamente, del ≈ 20-50%, ri-spetto alla tecnologia corrente, ciò che siriflette direttamente in un risparmio dicombustibile e pertanto in una corrispon-dente mitigazione delle emissioni di gasserra, oltre nella citata riduzione di NOx.

127COMPLESSITÀ & SVILUPPO 2003

LA COMBUSTIONE “SENZA FIAMMA”: UNA NUOVA TECNOLOGIA ENERGETICA

Figura 7Combustione confiamma e senza fiam-ma2: a sinistra fiam-ma convenzionale, adestra senza fiamma(flameless)

970 850 730 620 500 380 270 150 30 240160

10060

402010

0

1700

1600

1500

1400

1300

1200

1100

1600,0-1700,01500,0-1600,01400,0-1500,01300,0-1400,01200,0-1300,01100,0-1200,0

distanzadall’assedel bruciatore(mm)

distanza dalla testa del bruciatore (mm)

1150 °C fiamma Figura 5Mappa di tempera-tura su metà pianodi mezzeria in condi-zioni standard

1150 °C flameless

135

distanza dall’assedel bruciatore (mm)

distanza dalla testa del bruciatore (mm)

120105

9075

6045

3015

1500

1400

1300

1200

1100

1000

240

160

10060

4020

100

1400,0-1500,0

1300,0-1400,0

1200,0-1300,0

1100,0-1200,0

1000,0-1100,0

Figura 6Mappa di tempera-tura su metà pianodi mezzeria in condi-zioni senza fiamma

Sul mercato europeo, l’Italia è stata tra iprimi a tradurre la nuova tecnologia in ap-plicazioni industriali significative, in parti-colare forni per linee continue di trattamen-to termico di prodotti metallurgici alimen-tati a gas naturale. Il primo esempio è costi-tuito dal forno continuo di ricottura per na-

stri di acciaio inossidabile presso AST-Terni(figura 8); l’impianto di combustione è ba-sato su un bruciatore auto-rigenerativo(Regemat®), che racchiude una coppia diletti rigenerativi in un assemblaggio parti-colarmente compatto. Lo stesso bruciatoreè stato usato per il nuovo forno a longheronidi riscaldo e normalizzazione tubi pressoAcc. Pietra di Brescia (figura 9), con ottimirisultati, sia di risparmio energetico che diprecisione di controllo e qualità prodotto.Un sistema rigenerativo, basato su principisimili, è stato adottato con successo per unforno a rulli di ricottura di tubi in acciaioinossidabile: i bruciatori Hecofire® sonomontati in coppia sopra e sotto il pass-line(figura 10) e le prestazioni qualitative sonoeccellenti. Lo stesso disegno è stato adotta-to su altri forni in scala maggiore, sempreconfermando le prestazioni di risparmioenergetico e di bassa emissione inquinanti.Oltre al caso della fiamma libera, il princi-pio si applica altrettanto bene ai tubi ra-dianti, che possono venir costruiti in carbu-ro di silicio (SiSiC) con recuperatore di ca-lore integrato. Tubi radianti operanti inmodo senza fiamma sono oggi impiegaticon vantaggio in forni statici e continuisempre per trattamenti termici di metalli.La tabella 1 è basata su feedback di molteapplicazioni industriali e confronta il recu-pero di calore centralizzato al camino con ilrecupero decentralizzato più combustionesenza fiamma. La potenza unitaria dei bru-ciatori utilizzati varia di ben due ordini di

128 COMPLESSITÀ & SVILUPPO 2003

STEFANO GIAMMARTINI, GIUSEPPE GIRARDI, AMBROGIO MILANI

Figura 8Forno continuo di ri-cottura per nastri diacciaio inossidabilepresso AST-Terni

Figura 9Forno a longheronidi riscaldo e norma-lizzazione tubi pres-so Acc. Pietra di Bre-scia

Figura 10Schema e vista delforno a rulli per tubiinox

grandezza (~ 25-2500 kW) senza in-ficiare la generalitàdelle conclusioni.

Prospettive delmercato deiforni Questi dati di ritor-no, anche se lusinghieri, non sono sufficientia innescare un’applicazione su vasta scala,sebbene le applicazioni continuino ad au-mentare nei settori industriali già provati consuccesso. Senza dubbio, la tecnologia puòessere applicata con vantaggio anche a set-tori industriali diversi dalla metallurgia ferro-sa e non ferrosa, purché i processi siano es-senzialmente a temperatura superiore allasoglia di sicurezza (~ 750 °C). Basti pensareai forni per vetro, per ceramica e ai forni diprocesso nell’industria chimica.

Generazione di potenzaL’applicazione industriale di tecnologiesenza fiamma a generatori di vapore tradi-zionali e a forni di incinerimento è statapresa in considerazione a livello ancorapreliminare2. Tuttavia, prove su larga scalasono state condotte su una caldaia munitadi un bruciatore a gas da ben ~ 30 MW (fi-gura 11) ottenendo risultati incoraggianti,in particolare per quanto riguarda emissio-ni di CO e NOx a pieno carico.L’abbattimento di emissioni inquinanti, so-prattutto in presenza di combustibili non tra-dizionali, e la flessibilità delle tecniche senzafiamma in varie condizioni operative, quan-do applicabili, sono i maggiori punti di forzaper la diffusione delle nuove tecnologie.

Attività di R&STUn campo di applicazione molto promet-tente riguarda i combustori per turbogas:le tecnologie senza fiamma potrebbero es-sere la carta vincente per risolvere i pro-

blemi di instabilità termoacustiche (hum-ming) e di emissione NOx che tuttora afflig-gono il disegno delle turbine low-NOx afiamma pre-miscelata.Progetti di ricerca comunitari su combusto-ri di turbogas senza fiamma sono in corsonegli ultimi anni e comprendono tutti unapartecipazione di partner italiani. Le appli-cazioni di riferimento puntano a macchinedi taglia piccola, adatte a sistemi cogenera-tivi. In questi casi, la presenza di un recu-peratore di calore (aria pre-riscaldata a ≈600 °C) potrebbe accoppiarsi molto benecon un combustore flameless. Anche l’usodell’idrogeno nel turbogas potrebbe trova-re vantaggioso un disegno senza fiamma,al fine di minimizzare le emissioni di NOx

ed incrementare la stabilità.Un’altra applicazione interessante riguardaun sistema di post-combustione piazzato avalle di una turbina a gas che sfrutta l’ef-fluente, caldo (≈ 500 °C) e impoverito diossigeno (≈ 13%), come comburente idea-le per la combustione senza fiamma diqualsiasi combustibile povero o fuori spe-cifica (inclusi gas di recupero, biogas, oliecc). A questo proposito risulta opportunocitare il Progetto BAGIT (Biomass and GasIntegrated CHP Technology) finanziatodalla Comunità Europea nell’ambito del VProgramma Quadro, che vede, per l’Italia,la collaborazione di Ansaldo Ricerche(ARI) ed ENEA sul tema della co-combu-stione di gas da biomasse e gas naturale inun bruciatore di tipo Trapped Vortex (TVB),più oltre descritto, in configurazione TEG(Turbine Exhaust Gas). Nell’ambito di taleprogetto è previsto lo sviluppo del brucia-

129COMPLESSITÀ & SVILUPPO 2003

LA COMBUSTIONE “SENZA FIAMMA”: UNA NUOVA TECNOLOGIA ENERGETICA

Figura 11Fiamma e senza fiam-ma in caldaia da 30MW

tore TVB (ARI) e la sua qualificazione conun’ampia attività di tipo teorico e speri-mentale (ENEA).Anche la ricerca fondamentale si è orienta-ta verso lo studio sistematico della combu-stione senza fiamma (o flameless, flox, mild,

HTAC, excess enthalpy …: non c’è ancoraunanimità nell’individuare il fenomeno conuna denominazione accettata da tutti3),usando modelli matematici sofisticati e ap-procci sperimentali basati su strumentazio-ne avanzata non invasiva.Il gruppo di ricerca dei laboratori universi-tari (ingegneria chimica) e del CNR aNapoli è da sempre molto attivo nell’inda-gine sistematica della combustione senzafiamma. Lavori recenti sono stati presentatial Combustion Institute Meeting di Sap-poro4 e in altre pubblicazioni sull’argomen-to. Gli studiosi di Napoli mettono in eviden-za non solo gli aspetti fondamentali del fe-nomeno, ma anche i potenziali beneficidella nuova tecnologia per quanto riguardala formazione di inquinanti.Indagini fondamentali sul fenomeno sonocondotte al Politecnico di Milano, Dipar-timento di Ingegneria Chimica5, con un di-spositivo relativamente semplice in gradodi fornire informazioni molto utili, come adesempio l’effetto del tipo di idrocarburoimpiegato come combustibile (figura 12).La combustione senza fiamma richiedeanche ulteriori indagini sulla cinetica chi-mica del processo, per studiare la transi-zione da fiamma a senza fiamma, la forma-zione di inquinanti e la possibilità di inibir-ne la formazione. È dunque importante di-sporre di modelli cinetici accurati e affida-bili, quali sono stati sviluppati e verificati inun ampio intervallo di condizioni operative(dai motori alle caldaie), flameless inclusa,

130 COMPLESSITÀ & SVILUPPO 2003

STEFANO GIAMMARTINI, GIUSEPPE GIRARDI, AMBROGIO MILANI

Fattore di ricircolo Kv

1200

1000

800

600

400

200

00 1 2 3 4 5 6

fiamma

Fattore di ricircolo Kv

1200

1000

800

600

400

200

00 1 2 3 4 5 6

fiamma

metanometano

Figura 12Zona di combustio-ne senza fiammaper due idrocarburi5

Figura 13Bruciatore TrappedVortex: isobara consovrapposto campodi temperatura

Figura 14Forno sperimentaleENEA-MCD

dai gruppi di ricerca universitari6.Modellistica numerica avanzata viene svi-luppata da parecchi anni da ENEA in strettacollaborazione con il Dipartimento diMeccanica e Aeronautica della UniversitàLa Sapienza (Roma).Progressi significativi riguardano la com-bustione in turbogas. Sono stati pubblicatidiversi lavori su questo tema e in particola-re sull’effetto della pressione in termini diemissioni di NOx, sul previsto comporta-mento dell’idrogeno puro o in miscela ecc.Lavori recenti studiano in particolare lageometria trapped vortex il cui schema èriportato in figura 137,8.Lo sviluppo di un software di calcolo po-tente, robusto e affidabile per predizionifluidodinamiche non solo a freddo, maanche in campi reattivi in condizioni difficilie/o troppo costose da simulare con modellisperimentali (per esempio alta pressione,idrogeno puro ecc.), è pienamente pro-mosso e supportato da ENEA9,10.I laboratori di ENEA Casaccia sono forte-mente impegnati nell’indagine sperimen-tale e nello sviluppo della modellistica nu-merica avanzata10 inclusi i grandi codici dipredizione LES (Large Eddy Simulation) oDNS (Direct Numerical Simulation), che ri-chiedono grandi macchine parallele oltreche naturalmente approfondite competen-ze su questi temi di grande portata scienti-fica.La combustione, incluso ovviamente ancheil caso flameless, costituisce infatti una dellesfide più ardue del calcolo numerico acausa del forte accoppiamento dei fenome-ni di trasporto di materia, di quantità di motoe di energia nel dominio di calcolo. Un di-spositivo sperimentale ad hoc (Forno MCD,figura 14) viene usato per la validazione dicodici numerici specifici ed è equipaggiatocon spettroscopi, velocimetri laser, analizza-tori e altri avanzati strumenti di misura nellafiamma. La figura 15 mostra, a titolo diesempio, un profilo di temperatura flamelessconfrontato con due diverse predizioni nu-meriche basate su diversi modelli.

Parallelamente alle attività di ricerca di tipoteorico-numerico/sperimentale, se ne è af-fermata un’altra, propedeutica alla condu-zione di dettagliate campagne sperimenta-li destinate alla validazione e messa apunto di simulazioni numeriche, essa ri-guarda lo sviluppo di dispositivi diagnosti-ci in grado di soddisfare le tre condizionifondamentali di: non intrusività, alta risolu-zione spaziale e alta risoluzione temporale(figure 16÷18). Questa attività ha portatoallo sviluppo ed ingegnerizzazione di di-spositivi, spesso basati su tecnologia laser,in grado di fornire informazioni di dettaglioe affidabili sul campo fluidodinamico, ter-mico e sulla distribuzione e abbondanza dispecie chimiche stabili e non (radicali).

131COMPLESSITÀ & SVILUPPO 2003

LA COMBUSTIONE “SENZA FIAMMA”: UNA NUOVA TECNOLOGIA ENERGETICA

2400

2200

2000

1800

1600

1400

1200

1000

800

600

400

200

0

Tem

pera

tura

(K

)

x (m)0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1 1,1 1,2 1,3 1,4

sperimentalePDF-equilibrioMH-1 step

Figura 15Comparazione di dif-ferenti modelli condati sperimentali, perun profilo assiale fla-meless

Figura 16Mappe della distri-buzione del radicaleCH al variare del rap-porto di equivalenzain fiamma (mild)

Oltre a sviluppare queste competenze intramuros, ENEA promuove la cooperazione inprogetti di ricerca congiunti con partnernazionali (università, centri di R&ST e indu-strie)10. Questo atteggiamento aperto vie-ne applicato con particolare convincimen-to nel campo delle tecnologie senza fiam-ma, perché si ritiene che abbiano un futuroindustriale e applicativo fecondo anche innuovi settori come l’uso di idrogeno, dibiogas, di turbine a gas ecc.

ConclusioniRiteniamo che le tecnologie senza fiammaabbiano un forte potenziale di sviluppo eche il mercato italiano dell’uso industrialedel gas e della generazione di energiapossa trarre molto beneficio da questenuove chance di sviluppo, non solo per mi-tigare il problema delle emissioni di gasserra e per contribuire agli impegni delProtocollo di Kyoto, sottoscritto dal governoitaliano, ma anche per rinnovare il parconazionale dei sistemi di combustione indu-striale, consentendo lo sviluppo di impiantipiù efficienti, affidabili e competitivi, mi-

gliorando la qualità del prodotto oltre chedell’aria.In questo ambito nuove sinergie risultanonecessarie e saranno attivate attraversol’affermarsi ed il consolidarsi di una ReteNazionale di operatori scientifici nel settoredella combustione, rete che ha prodotto ilsuo primo embrione grazie ad iniziativesponsorizzate dal Ministero dell’Università edella Ricerca Scientifica e Tecnologica, nel-l’ambito di Programmi di Ricerca Applicatavariamente finanziati, e che nuove opportu-nità di collaborazione dovrà sviluppare nelfuturo nell’ottica di un network europeo sultema della combustione.

Bibliografia1. WÜNNING J.A., WÜNNING J.G., Ten Years of

Flameless Oxidation: Technical Applications andPotentials, HTACG4 Symposium, Roma, 26-30novembre 2001.

2. MILANI A., SAPONARO A., Tecnologie di combustio-ne senza fiamma, La Termotecnica, gennaio-feb-braio 2000, 87-94.

3. IFRF Combustion Handbook, CombustionFiles#171-174, ISSN 1607-9116, www.ifrf.net

4. DE JOANNON M., CAVALIERE A., DONNARUMMA R.,RAGUCCI R., Dependance of autoignition delay onoxygen concentration in mild combustion ofheavy molecular paraffin, Combustion InstituteMeeting, Sapporo 2002.

5. ROTA R., GUARNERI F., GELOSA D., EFFUGGI A.,RABAIOLI M., Mild combustion in a small-scale ap-paratus, Proceedings of the Fourth InternationalSymposium on High Temperature Air Com-bustion and Gasification, 40:1-40:11 (Roma, no-vembre 2001).

6. RANZI E., DENTE M., BOZZANO G., GOLDANIGA A.,FARAVELLI T., Lumping Procedures in DetailedKinetic Models of Gasification, Pyrolysis, PartialOxidation and Combustion of HydrocarbonMixtures, Progr. Energy Comb. Science 27 (2001)99-139.

7. TABACCO D., CUOCO F., BRUNO C., Theoretical andnumerical investigation on flameless combustionand its potential for applications to gas turbines -HTACG4 Symposium, Roma, 26-30 novembre2001.

8. LOSURDO M., BRUNO C., CALCHETTI G., GIACOMAZZI E.,RUFOLONI M., Effects of Different Fuels in aTrapped Vortex Combustor, XXV Event of theItalian Section of the Combustion Institute,Roma, 3-5 giugno, 2002.

9. GIRARDI G., GIAMMARTINI S., Numerical and Expe-rimental Study of Mild Combustion of DifferentFuels and Burners, 5th HTACG ConferenceYokohama, ottobre 2002.

10. Workshop conclusivo dell’Accordo di ProgrammaMIUR-ENEA, La rete di eccellenza nazionale sullacombustione: risultati della collaborazione e pro-spettive future, Roma, 4-5 febbraio 2003.

132 COMPLESSITÀ & SVILUPPO 2003

STEFANO GIAMMARTINI, GIUSEPPE GIRARDI, AMBROGIO MILANI

Figura 17Spettroscopio peranalisi di spettri chi-mici a banda larga

Figura 18Sistema CARS com-patto per misurapuntuale di tempe-ratura

133COMPLESSITÀ & SVILUPPO 2003

&com

ple

ssità

svilu

ppo

I vantaggi della generazione distribuita dell’energia,rispetto alla produzione tramite impianti centralizzati e

grandi centrali elettriche, sono riconducibili allapossibilità di produrre ed utilizzare l’energia in

prossimità dell’utenza, con conseguenti benefici intermini di migliori rendimenti di generazione,

riduzione delle perdite in rete e/o minori investimentieconomici per lo sviluppo ed il potenziamento della

rete elettrica, ai vantaggi di carattere ambientale,nonché alla opportunità di un impiego sempre

maggiore e capillare delle fonti energetiche rinnovabili

FRANCESCO PAOLO VIVOLIGIORGIO GRADITI

ENEAUTS Fonti Rinnovabili e Cicli Energetici Innovativi

Generazione energetica localizzata:energia sostenibile e stimoloalle rinnovabili

2003 Tratto da: ENERGIA, AMBIENTE E INNOVAZIONE 4/03

Questo lavoro va letto in una prospettiva diconsapevolezza, da un lato della coscienzache l’approvvigionamento energetico mon-diale, nella misura e nelle quantità previste,non potrà che essere assicurato dai com-bustibili fossili ancora per alcune decine dianni, dall’altro dell’urgenza del problemaposto dai costi ambientali e sociali deter-minati dalle fonti primarie a disposizione edall’uso che ne facciamo.Siamo infatti consapevoli che, a meno diuna rivoluzione determinata dall’avvento diuna nuova tecnologia oggi nemmeno intra-vista, l’unica fonte primaria che potrà sa-ziare la “fame” di energia dell’umanità ècertamente la fonte fossile nelle sue varieforme: carbone, olio combustibile, gas na-turale. D’altro canto non si può non tentaredi rispondere alla richiesta, ormai presentealla coscienza e alla volontà di tutti i cittadi-ni, di uno sviluppo sociale ed economicocompatibile con la risorsa ambiente, checomincia a mostrare i suoi limiti a fronte diuna popolazione mondiale che si misuraormai in miliardi di esseri che reclamano,anche quelli che oggi ne dispongono inmisura limitata, il diritto al benessere che èinevitabilmente associato a sempre piùelevati consumi energetici.Una risposta, sia pure solo parziale, a que-sta richiesta potrà venire da un lato svilup-pando il ricorso alle fonti rinnovabili, dal-l’altro ricorrendo a strategie e tecnologie di

produzione innovative che vadano nelsenso e nella direzione richiesta. La gene-razione di energia, termica, meccanica odelettrica che sia, localizzata quanto piùpossibile sul luogo stesso di utilizzo è cer-tamente una di queste. Si consideri peraltroche il possibile apporto delle fonti rinnova-bili si è detto abbastanza limitato, ma essopotrebbe come vedremo, in associazioneal vettore idrogeno e alla nuova tecnologiadelle celle a combustibile, assumere unruolo importante se saranno raggiunti i tra-guardi che la ricerca in questi due settoripromette nel medio termine.Le previsioni energetiche, basate sulleproiezioni economiche IEA per i prossimidecenni, indicano che l’energia, pure airitmi di crescita attuali, non verrà certa-mente a mancare perchè al 2030 sarà assi-curata (al 90% del totale) dai combustibilifossili: olio combustibile e gas naturale po-trebbero bastare per 30 o 40 anni, mentre ilcarbone potrebbe soddisfare la domandadi energia dell’umanità per 500 anni. In as-senza di grandi innovazioni tecnologiche odella scoperta di nuove fonti o nuovi pro-cessi di conversione delle fonti potenzialied attualmente non economicamente sfrut-tabili, la richiesta energetica potrà esseresoddisfatta mediante il ricorso ai giacimen-ti di fonti fossili già reperiti e di quelli che sipresume verranno scoperti nel prossimofuturo.Il peso percentuale del nucleare e dell’i-droelettrico andrà progressivamente dimi-nuendo, mentre la percentuale di penetra-zione delle nuove fonti rinnovabili, idroelet-trico escluso, raddoppierà, mantenendo untasso peraltro modesto dell’approvvigiona-mento, dall’attuale 2 al 4%. Ancora secondole previsioni IEA, dal 2000 al 2030 si puòprevedere un raddoppio dei consumi mon-diali di elettricità (determinati in maggiormisura dal forte aumento della domandadei Paesi in via di sviluppo [PVS]).Stimiamo che per prepararsi a questo sce-nario si pongano ai nostri decisori quattrosfide energetiche strategiche:

134 COMPLESSITÀ & SVILUPPO 2003

FRANCESCO PAOLO VIVOLI, GIORGIO GRADITI

Carbone Olio Gas Nucleare Eolico Biomasse

ECU

cen

t/kW

h

6

5

4

3

2

1

0

Salute pubblica Riscaldamento globale

Figura 1I principali costi ester-ni delle fonti di ener-gia elettrica

• assicurare la necessaria sicurezza di ap-provvigionamento delle fonti di energia;

• decidere gli investimenti utili a creare lenecessarie infrastrutture di produzione etrasporto dell’energia;

• cercare una risposta alla minaccia all’am-biente dall’aumento dei processi di tra-sformazione ed uso dell’energia1.

Le rinnovabili potrebbero contribuire adare risposte a queste sfide energetiche,perché:• danno nuovo valore aggiunto al mix

energetico;• riducono i rischi negli attuali portafogli

energetici e nei trend previsti;• aumentano l’efficacia dei sistemi energe-

tici;• contribuiscono a realizzare i target am-

bientali;• forniscono servizi energetici in applica-

zioni in cui altre fonti non possono ri-spondere (ad esempio nei pvs in cui 1,6miliardi di persone non hanno accessoall’elettricità);

• aumentano la partecipazione pubblicanelle decisioni che riguardano l’energia.

Generare localmente l’energiaIn relazione al problema rappresentato dal-l’inquinamento ambientale, dall’ottimizza-zione delle risorse energetiche e dall’esi-genza di minimizzare le perdite per il tra-sporto, si sta diffondendo la convinzionedell’opportunità di implementazione di uninnovativo modello di sviluppo del sistemaenergetico e delle infrastrutture correlatebasato sulla produzione locale, in corri-spondenza di ciascuna utenza ed in quan-tità corrispondente al singolo fabbisogno(a vari livelli di potenza) sostituendo làdove possibile i punti di “presa” con puntidi “generazione attiva”.Diverse ragioni, legate sia ad aspetti tecnicie tecnologici (saturazione della rete elettri-ca esistente e riduzioni dei margini di sta-bilità e sicurezza, aumento della richiestad’energia, sviluppo e diffusione di nuove

forme di produzione energetica) sia ad esi-genze di carattere ambientale (necessità diridurre le emissioni in atmosfera di sostan-ze inquinanti) hanno contribuito alla matu-razione dell’opportunità di cambiare l’at-tuale modello a vantaggio della massimiz-zazione del potenziale sviluppo di un siste-ma diffuso di impianti di piccola-media ta-glia distribuiti sul territorio (generazionedistribuita).Con il termine “generazione distribuita” siintende la produzione di energia – in parti-colare di quella elettrica – mediante im-pianti di piccola-media potenza (da decinedi kW a qualche MW), realizzati con fontitradizionali, se necessario, ma ove possibi-le con fonti rinnovabili (sistemi fotovoltaici,eolici, mini-idroelettrici, a biomassa, geo-termici, celle a combustibile ecc.), dislocatiin prossimità dell’utenza e, per il caso del-l’energia elettrica, connessi alla rete di di-stribuzione, come soluzione integrativa e,per quanto tecnicamente possibile, alter-nativa al modello centralizzato. La tecnolo-gia utilizzata, caso per caso, è strettamentecorrelata alla densità energetica richiesta,alle specifiche dell’utilizzatore e agli aspet-ti ed alle valutazioni di carattere sociale edeconomico.Questo modo di produrre avvicinerebbe lagenerazione di energia al consumo, inqua-drandosi nella nuova ottica della liberaliz-zazione del mercato dell’energia e favori-rebbe la nascita di nuove iniziative di inve-stimento da parte dei singoli o di piccoligruppi di consumatori (condomini, consor-zi di aziende, municipalizzate ecc.) che po-trebbero dotarsi di un “proprio” impiantodi produzione di energia elettrica, aumen-tando l’efficienza complessiva del sistemadi generazione e distribuzione.Lo sviluppo di un sistema diffuso, efficienteed economicamente valido di generazionedell’energia condurrebbe l’utente-utilizza-tore a indirizzare la sua richiesta verso“forme energetiche” diverse da quellaelettrica abbassandone il tasso di penetra-zione nel sistema energetico complessivo.

135COMPLESSITÀ & SVILUPPO 2003

GENERAZIONE ENERGETICA LOCALIZZATA: ENERGIA SOSTENIBILE E STIMOLO ALLE RINNOVABILI

1 Le emissioni di CO2 daenergia aumentano del-l’1,8 % annuo fino a 38miliardi di ton nel 2030 –70% sopra i livelli 2000soprattutto nei Pvs – l’e-nergia elettrica sarà re-sponsabile della metà del-l’aumento delle emissioni.

Il “vettore” energia elettrica ha infatti trova-to ragione di sviluppo negli ultimi decenniin ragione della facilità di trasmissione e di-stribuzione, che ne ha aumentato a dismi-sura la diffusione con una evidente diseco-nomia del sistema (si rifletta sul fatto chespesso si arriva a soddisfare un’esigenzadi energia termica utilizzando elettricitàche, a sua volta, è stata ottenuta da energiatermica generata in centrale con bassi ren-dimenti di conversione).Le energie rinnovabili ed in maniera più ge-nerale la generazione distribuita di energianelle sue forme termica, elettrica, meccani-ca, ne consentiranno la produzione localesenza dover dipendere da inquinanti ecomplessi sistemi di movimentazione e di-stribuzione di prodotti petroliferi o altri tipidi combustibili fossili, dai grandi impianti dipesante impatto sul territorio, da costosereti di distribuzione o di altre infrastrutture,e tutto ciò con più efficienti rendimenti digenerazione e di conversione. Pertanto, lenuove tecnologie e la generazione distri-buita di piccola taglia rivestiranno un ruolofondamentale nello sviluppo del settoreelettrico, non solo perché potranno contri-buire in maniera determinante all’aumentodella quota di mercato delle energie rinno-vabili, ma anche perché consentiranno rile-vanti risparmi dal punto di vista dei costi,derivanti anche dalla minore dispersioned’energia nella fase di vettoriamento.Vari motivi giustificano l’attenzione cre-scente che si pone a questo nuovo concet-to di generazione:

• la difficoltà di realizzazione di nuovelinee aeree ad alta tensione e gli alti costidi quelle interrate costituiscono elementipenalizzanti per la generazione (e quindila distribuzione) centralizzata;

• la diffusione di sistemi di controllo nume-rico dei processi di produzione, l’aumen-to del peso del terziario sull’economia ela diffusione dell’impiego di computerhanno incrementato la richiesta di ener-gia elettrica di qualità, esente da fenome-ni di micro-interruzione;

• le potenzialità delle tecnologie di produ-zione sul luogo di utilizzo e di cogenera-zione, conferiscono alla generazione di-stribuita la capacità di raggiungere ele-vate efficienze di conversione (ancheprossime all’80%), con effetti sulle emis-sioni di inquinanti e di gas serra;

• il settore residenziale e terziario, che as-sorbe ormai circa un terzo degli impie-ghi finali di energia, richiede calore atemperature più basse di quello indu-striale, la stessa ubicazione del ciclo dipotenza e dell’utenza termica, la sincro-nia della richiesta di calore ed energiaelettrica, sia on site che con la rete nelleore di punta. Questa domanda si attagliaparticolarmente bene alle caratteristichedegli schemi di generazione distribuita.

Un contesto – quello della ripartizione nelterritorio – ideale per le fonti rinnovabili,che sono diffuse per loro stessa natura, inun’ottica evoluta di sostenibilità, che po-trebbe rappresentare la prima importantee necessaria premessa verso un ulterioresalto di qualità consistente nell’integrazio-ne del modello di produzione distribuitacon quello di “risorse distribuite”.Quest’ultimo comporta non solo la realiz-zazione degli impianti di produzione inprossimità degli utilizzatori, ma la localiz-zazione degli stessi, almeno di quelli chenon sfruttino direttamente ed in temporeale la fonte solare, nelle vicinanze dellefonti che li dovranno approvvigionare.

Le tecnologie

Le principali tecnologie disponibili per lagenerazione distribuita dell’energia inclu-dono i motori/generatori a combustione in-terna, le micro-turbine, i generatori statici(celle a combustibile), i convertitori solari,gli impianti eolici, i generatori termici abiomasse. La tecnologia adottata dipen-derà di volta in volta dalla densità energeti-ca richiesta, dalla caratteristiche del carico,da altre valutazioni di rilevanza socio-eco-nomica.

136 COMPLESSITÀ & SVILUPPO 2003

FRANCESCO PAOLO VIVOLI, GIORGIO GRADITI

Usi finali dell’energia:energia elettrica e fontirinnovabiliL’energia viene utilizzata, nei vari settori ci-vile, abitativo e dei servizi, dell’industria,dei trasporti, in varie forme: da quella mec-canica, a quella termica, a quella elettrica.Mentre gli impieghi di tipo meccanico etermico nell’industria sono, negli ultimivent’anni, diminuiti per l’effetto combinatodella diminuzione del peso percentualedelle attività “energy intensive” e di azionidi razionalizzazione energetica; non cosìnel settore dei trasporti a causa di una au-mentata domanda di mobilità, e in quellodegli impieghi di elettricità, per il dilagarein tutti i settori, dall’abitativo, ai servizi, al-l’industria, di apparecchi che utilizzanoquesta forma “nobile” di energia.L’elettricità, infatti, è venuta assumendo intutti i settori del vivere quotidiano e dellatecnologia umana una importanza ed unpeso crescenti e di interesse fondamentalee strategico. Senza di essa si arresterebbeil sistema dei servizi e tutto l’apparato in-dustriale; da essa dipendono in misuraquasi assoluta comfort, abitudini di vita ebenessere. Essa rappresenta un fattore de-terminante della qualità della vita; lo svi-luppo economico e sociale che l’uomo haconosciuto nell’ultimo secolo ed ancor piùquello previsto non potrebbero esseresenza l’apporto dell’energia elettrica.Quest’ultima, prodotta nelle centrali ter-moelettriche a partire dai combustibili fos-sili di cui non si riesce, per limiti propri deicicli termici, a sfruttare in maniera efficienteil contenuto energetico, deve però esseretrasportata ai grandi agglomerati urbaniche la utilizzano. Il processo di generazionedell’energia elettrica comporta perciò, daun lato perdite di energia nella conversionedall’energia chimica del combustibile fossi-le a quella elettrica, oltre a perdite nella tra-smissione e distribuzione puntuale, dall’al-tro la risoluzione di problemi di inquina-mento ambientale ed elettromagnetico.In ordine al tentativo di risoluzione di que-

ste problematiche, da quando negli ultimivent’anni esse si sono poste alla coscienzaculturale collettiva dei paesi più progrediti,sono aumentati gli sforzi del sistema politi-co- economico e di quello della ricerca tesialla messa a punto di tecnologie di genera-zione dell’energia – in particolare di quellaelettrica – da fonti alternative a quelle tradi-zionali, in pratica dalle fonti rinnovabili, ecioè da quella solare, nelle sue varieforme: eolica, idroelettrica, solare termicae fotovoltaica, da biomasse ecc.Per molti anni, infatti, il fabbisogno naziona-le di energia elettrica è stato soddisfatto, inlarga parte, mediante grossi impianti diproduzione (centrali di grande taglia) chesfruttano quale fonte primaria i combusti-bili fossili e l’energia elettrica è stata tra-sportata utilizzando reti elettriche a diversilivelli di tensione. Questa struttura, vertical-mente integrata, è stata costruita su criteridi massima resa economica, sicurezza equalità del servizio.Il sistema energetico non potrà che basarsisulla generazione centralizzata dell’ener-gia da distribuire capillarmente sul territo-rio. Ma lo sviluppo e la diffusione di sistemidi generazione locale contribuiranno cer-tamente all’ottimizzazione del sistemaprincipale.I vantaggi della generazione distribuita, ri-spetto alla produzione tramite “maxicentra-li” sono, infatti, riconducibili alla possibilitàdi produrre ed utilizzare l’energia elettricain prossimità dell’utenza, con conseguentibenefici in termini di riduzione delle perdi-te in rete e/o minori investimenti economiciper lo sviluppo ed il potenziamento dellarete elettrica, vantaggi di carattere ambien-tale, nonché alla opportunità di un impiegosempre maggiore e capillare delle fontienergetiche rinnovabili.

Perchè le rinnovabili

La risoluzione del rischio ambientale,come la riduzione dei gas serra, richiedeun impegno politico internazionale maanche l’innalzamento della consapevolezza

137COMPLESSITÀ & SVILUPPO 2003

GENERAZIONE ENERGETICA LOCALIZZATA: ENERGIA SOSTENIBILE E STIMOLO ALLE RINNOVABILI

collettiva e individuale. Occorre, con sensodi responsabilità, pensare a una strategiaper un sistema energetico accettabile sottoil profilo ambientale ed economico, pro-muovendo al massimo, in alternativa aicombustibili fossili, il ricorso alle fonti ener-getiche rinnovabili e l’adozione di correttepolitiche e misure per un uso razionale del-l’energia.Bisognerà, a tal fine, sviluppare nuove tec-nologie che permettano di sfruttare ade-guatamente l’enorme risorsa solare, pun-tando sulla sua conversione diretta sulluogo stesso dove l’energia è richiesta, edutilizzando l’idrogeno come vettore eforma di accumulo dell’intermittente fontesolare. Bisognerà cambiare radicalmente iprincipi tecnici sui quali poggiano le nostreattuali tecnologie energetiche che sono ba-sate sulle trasformazioni termodinamichedelle quali sono noti i bassi rendimenti.I bassi rendimenti propri dei cicli termiciutilizzati dai processi tecnologici di sfrutta-mento delle fonti energetiche primariehanno, infatti, condotto alla strutturazione diun sistema energetico fortemente accen-trato (caratteristica diametralmente oppo-sta alla “diluizione” della fonte solare) checentralizza le trasformazioni energeticheper poi distribuire le stesse risorse resetecnologicamente utilizzabili attraverso unacapillare rete elettrica; senza curarsi dello“spreco” energetico determinato daglievocati bassi rendimenti termodinamici e

dalle perdite in rete per il trasporto dell’e-nergia. D’altra parte in regimi di bassi costidelle fonti fossili primarie il mercato ha in-dirizzato la tecnologia verso un sistemache converte la notevole quantità di ener-gia immagazzinata nelle fonti fossili in unaforma energetica pregiata – quella elettrica– con costi energetici elevati (bassi rendi-menti di conversione) ma con caratteristi-che di facile trasportabilità e capillare di-stribuzione.Il ruolo della generazione distribuita è daintendere tuttavia, allo stato attuale, comestrumento di supporto e integrazione al si-stema di produzione centralizzata dell’e-nergia elettrica che risulta, ad oggi, l’unicoche consenta economie di scala e dia lenecessarie garanzie di sicurezza e conti-nuità di fornitura del servizio, non realizza-bili con un sistema costituito esclusivamen-te da impianti distribuiti di piccola taglia,garantendo nel contempo adeguati livellidi qualità e affidabilità del servizio. Infatti,la qualità e la sicurezza del servizio elettri-co nel caso di un eccessivo frazionamentodel parco di generazione dell’energia (ele-vato numero di impianti di generazione dipiccola e media taglia con conseguenti dif-ficoltà di gestione del servizio di dispac-ciamento) e di alimentazione della rete in-terconnessa, possono essere garantite sol-tanto da una rete elettrica alimentata in mi-sura prevalente da impianti di adeguate di-mensioni. Impianti di tal genere con carat-teristiche di generazione stabile e regola-bile, connessi in parallelo con la rete, per-mettono mediante complessi sistemi di re-golazione e condivisione della capacità diriserva, l’equilibrio in tempo reale tra do-manda e offerta di energia elettrica.Tuttavia la generazione distribuita costitui-sce un nuovo modo di produrre ed utilizza-re l’energia elettrica che nell’ipotesi delraggiungimento di una sufficiente maturitàtecnologica e di una significativa diffusionesu larga scala, entrambe prospettive dimedio-lungo termine, potrà occupare unaposizione di primo piano nelle strategie di

138 COMPLESSITÀ & SVILUPPO 2003

FRANCESCO PAOLO VIVOLI, GIORGIO GRADITI

55

219

5,3 0,8 0,55

280,4266,4

305,4

14

49

9

350

310

270

230

190

150

110

70

30

–10

TW

h

Idroelettrica lorda

Termica lorda

Geotermica lorda

Eolica e Fotovoltaica lorda

Rinnovabili lorde

Totale produzionelorda

Energia per servizi

Totale produzione netta

Energia dafornitori esteri

Energia cedutaa clienti esteri

Energia destinataai pompaggi

Richiesta totale

Figura 2Richiesta di elettricitàin Italia (anno 2001)

mercato e pianificazione energetica dellecompagnie elettriche.

L’apporto delle fonti rinnovabili

La fonte idroelettrica

Con il termine “micro centrali idroelettri-che” si è soliti indicare impianti di produ-zione di energia elettrica che utilizzano ri-sorse idriche limitate, con salti disponibilicompresi tra qualche decina e qualchecentinaio di metri e con portate dell’ordinedi 100 mc/s. La realizzazione di una microcentrale idroelettrica prevede opere disbarramento e convogliamento dell’acqua(dighe, canali di derivazione, traverse ecc.)e interventi (canali di scarico) per la resti-tuzione della stessa al suo alveo naturale.Pertanto, la tipologia del sito di installazio-ne risulta un elemento fondamentale per lariduzione dei costi di progettazione e co-struzione delle opere civili e delle diverseparti dell’impianto.Da un punto di vista funzionale gli impiantisi possono classificare in impianti ad acquafluente, nei quali la portata sfruttata coinci-de con quella disponibile nel corso d’ac-qua, ed impianti a deflusso regolato, dotatidi un invaso con capacità tale da consentirela modifica e la regolazione del regimedelle portate impiegate dalla centrale ri-spetto a quelle di deflusso naturale. Persalti elevati, compresi tra 20 e 200 m ebasse portate (da 0,5 l/s a 100 l/s) vengonodi solito utilizzate le turbine Pelton, mentreper piccoli salti ed levate portate si impie-gano le turbine Francis.La condotta forzata termina nella turbinaidraulica, dove avviene la trasformazionedell’energia potenziale di pressione delfluido in lavoro meccanico, la quale a suavolta è calettata, eventualmente tramite unmoltiplicatore di giri, ad un generatoreelettrico di tipo sincrono o asincrono. Il ge-neratore sincrono è idoneo ad essere utiliz-zato nel caso in cui si preveda il servizio diintegrazione con una rete già esistente

dalla quale possa prelevare la necessariapotenza magnetizzante; mentre nella con-dizione di funzionamento in isola o di fun-zionamento normalmente isolato con pos-sibilità di interconnessione è preferibileutilizzare un generatore sincrono.L’interfaccia con la rete elettrica è gestitatramite semplici e affidabili sistemi di con-trollo e regolazione che consentono di ade-guare il livello della tensione e della fre-quenza in uscita dal gruppo di generazio-ne a quello richiesto dalla rete elettrica dialimentazione. I costi d’investimento perimpianti idroelettrici sono dell’ordine dei2.500 p/kW.Per quanto riguarda il contributo che que-sta forma rinnovabile di energia potrà ap-portare al bilancio elettrico nazionale, sistima che l’idroelettrico non sarà purtrop-po in grado di offrire rilevanti incrementiall’apporto attuale, peraltro notevole e su-periore a quello di quasi tutti gli altri paesieuropei, a causa dei vincoli ambientali allalocalizzazione di nuovi impianti di dimen-sioni significative. Un discreto contributopotrebbe invece venire dai microimpiantida generazione distribuita il cui svilupponon sarà frenato dal vincolo ambientale dicui sopra.

Il fotovoltaico

Fra le diverse tecnologie messe a puntoper lo sfruttamento dell’energia solare,quella fotovoltaica, che consente di trasfor-mare “in loco” l’energia proveniente dalsole in energia elettrica, è la più innovativae promettente, a medio e lungo termine, invirtù delle sue caratteristiche di semplicitàimpiantistica, affidabilità, disponibilità e ri-dotte esigenze di manutenzione. Essa è ingrado di fornire agli utilizzatori finali, dislo-cati sia in contesti urbanizzati, sia in localitàremote, un complesso di servizi basilariper le più elementari esigenze umane,contribuendo ad un livello di comfort e diqualità del vivere e dell’abitare, che solol’elettricità è oggi in grado di dare.Gli impianti di produzione di origine foto-

139COMPLESSITÀ & SVILUPPO 2003

GENERAZIONE ENERGETICA LOCALIZZATA: ENERGIA SOSTENIBILE E STIMOLO ALLE RINNOVABILI

voltaica si possono distinguere in due tipo-logie: impianti connessi alla rete elettrica(grid-connected) destinati a cedere inparte o totalmente l’energia prodotta allarete elettrica di distribuzione, ed impiantiisolati (stand-alone) i quali forniscono, con-giuntamente ad un sistema di accumulo,l’energia elettrica a sistemi di utenze isolatied autonomi.I principali vantaggi dei sistemi fotovoltaicisono riconducibili ad aspetti legati allasemplicità d’utilizzo e modularità, alle ri-dotte esigenze di manutenzione (dovute al-l’assenza di alcun genere di stress mecca-nici o termici), e soprattutto, ad un impattoambientale estremamente basso.Tali caratteristiche rendono la tecnologia fo-tovoltaica particolarmente adatta, ad esem-pio all’integrazione negli edifici in ambienteurbano (coperture, facciate, frangisoleecc.). In questo caso, sfruttando superficigià utilizzate e non utili per altri scopi, si eli-mina anche l’unico impatto ambientale infase di esercizio di questa tecnologia, rap-presentato dall’occupazione di superficie.Gli impianti di piccola taglia trovano cosìsempre maggiori consensi, per ridurre,anche se solo parzialmente, i problemi diapprovvigionamento energetico delle pic-cole e medie utenze, in particolare per ri-spondere ad una sempre più pressante ri-chiesta di riduzione del rischio ambientale.La produzione di energia elettrica nelle oredi maggiore insolazione permette poi di ri-durne la domanda alla rete durante il gior-no, proprio quando si verifica la maggiorerichiesta.

Dal punto di vista operativo gli impianti fo-tovoltaici producono energia con caratteri-stiche di tensione e corrente (grandezzeelettriche continue) generalmente differen-ti da quelle richieste in ingresso dalle uten-ze convenzionali (e/o rete) idonee al fun-zionamento in corrente alternata e con va-lori costanti di tensione. Pertanto è indi-spensabile, per l’interfacciamento con larete elettrica di distribuzione, l’utilizzo diconvertitori statici “dc-ac”, ovvero di siste-mi per il condizionamento della potenza,PCS (Power Conditioning System) dotatianche di un insieme di dispositivi ausiliaridi protezione che assicurano il rispettodelle norme di sicurezza e, nel caso di col-legamento alla rete pubblica di distribuzio-ne, delle prescrizioni degli enti distributoridi energia elettrica.I costi di tale tipo di impianti e quindi delkWh fotovoltaico, strettamente dipendentidal tipo di applicazione e di installazione,sono allo stato attuale ancora troppo elevatiper competere con quelli delle fonti fossili.I costi d’impianto sono, infatti, dell’ordinedei 7.000-7.500 q/kW ed il kWh “costa” al-meno 6-7 volte di quanto costi quello uscitodalle centrale termoelettriche.Tuttavia le significative riduzioni dei costiverificatesi nell’ultimo decennio e le stimepreviste nei prossimi dieci anni, lascianointravedere il raggiungimento delle condi-zioni di pareggio in un futuro non moltolontano.Nel breve termine, l’opzione fotovoltaicapotrà rilevarsi economicamente valida sol-tanto se si considereranno i “costi evitati” ecioè i costi al contorno (allacciamento, ac-quisto e trasporto del combustibile, manu-tenzione ecc.) dell’energia prodotta confonti convenzionali; oltre ai cosiddetti “costiesterni”, costituiti dai costi sanitari sulla po-polazione e dai costi ambientale associatialla generazione di energia da fonti fossili.

Il geotermico

L’energia geotermica è l’energia primariache si sprigiona dall’interno della terra;

140 COMPLESSITÀ & SVILUPPO 2003

FRANCESCO PAOLO VIVOLI, GIORGIO GRADITI

Figura 3Un esempio di inte-grazione di pannellifotovoltaici

quindi per una effettiva possibilità di estra-zione ed utilizzazione pratica è necessarioindividuare siti dove il calore può concen-trarsi in spazi ristretti ed a profondità ac-cessibili senza aggravi di carattere sia eco-nomico che tecnico. Infatti, soltanto in que-ste situazioni è possibile parlare di “serba-toio o giacimento” geotermico.Le fonti geotermiche idrotermali rappre-sentano allo stato attuale le uniche utilizza-bili commercialmente per la produzione dienergia elettrica.In base allo stato fisico del fluido contenutonel serbatoio di alimentazione le sorgentidi energia geotermica utilizzabili si posso-no suddividere in tre tipologie: giacimentidi vapore secco, giacimenti di vaporeumido e giacimenti con minor contenutotermico (i quali sono costituiti da acqua aldi sotto del punto di ebollizione a pressio-ne atmosferica). I primi due, economica-mente più attraenti sono anche denominatirispettivamente a vapore dominante e adacqua dominante. Ognuno dei tipi indicati,per le proprietà che possiede, si presta adun ben preciso uso.I giacimenti a vapore dominante sono co-stituiti soprattutto da vapore ad elevatapressione e temperatura, che può essereutilizzato per produrre direttamente ener-gia elettrica. Infatti, il vapore può essereconvogliato direttamente alla turbina e,quindi, per ridurre al massimo i costi di tra-sporto del vapore, l’impianto deve esserecostruito il più vicino possibile al pozzo; inpiù, dal momento che il vapore affiora dalgiacimento a bassa pressione, mentre ènecessario disporne in grandi quantità, ledimensioni effettive delle turbine sono limi-tate. Ciò significa che l’impianto non puòavere una potenza elevata.I giacimenti ad acqua dominante sono in-vece caratterizzati dal fatto che la miscelasi trova allo stato liquido nonostante tempe-rature molto elevate (fino a 400 °C) a segui-to di un alto punto ebulloscopico dovuto al-l’elevato grado di salinità.Dal punto di vista dell’allacciamento alla

rete elettrica l’impianto geotermico per laproduzione di energia elettrica può esserecollegato in parallelo alla rete tramite untrasformatore di isolamento/protezione conun opportuno regolatore di tensione, con-tribuendo alla fornitura di potenza attiva ereattiva senza alcun problema di interfac-ciamento con la rete. La realizzazione degliimpianti relativi al gruppo elettrico implical’impiego di alternatori chiusi e raffreddatiin circuito chiuso idonei ad operare in am-bienti caratterizzati dalla presenza di so-stanze gassose; in alcuni casi, a seguito diuna elevata concentrazione delle sostanzegassose, è necessario effettuare una pres-surizzazione dell’interno della macchina alfine di evitare infiltrazioni di gas.I costi d’impianto sono decisamente inte-ressanti e dell’ordine dei 2.500 q/kW in-stallato; non così per quelli di manutenzio-ne e gestione.Relativamente al contributo che è ragione-vole aspettarsi da questa fonte di energia,si stima che essa potrà offrire in un prossi-mo futuro un apporto di entità limitata esenza una significativa riduzione dei costi.

Le biomasse

La biomassa, ampiamente disponibilequasi ovunque, rappresenta una risorsa lo-cale, distribuita sul territorio e rinnovabile.Essa può essere convertita in combustibilisolidi, liquidi e gassosi, ovvero essere im-piegata, tramite tecnologie commercial-mente disponibili, direttamente come com-bustibile. Le biomasse sono costituite daresidui delle coltivazioni destinate all’ali-mentazione umana ed animale oppurepiante esclusivamente coltivate per finienergetici, da residui dal campo forestale,da scarti provenienti da attività industriali,scarti delle aziende zootecniche o rifiutiurbani.La biomassa rappresenta la forma più sofi-sticata di accumulo di energia solare; que-sta infatti consente alle piante di convertirel’anidride carbonica atmosferica in materiaorganica tramite il processo di fotosintesi.

141COMPLESSITÀ & SVILUPPO 2003

GENERAZIONE ENERGETICA LOCALIZZATA: ENERGIA SOSTENIBILE E STIMOLO ALLE RINNOVABILI

Con il processo di fotosintesi vengono “fis-sate”, nel mondo, circa 200 miliardi di ton-nellate di carbonio all’anno, con un conte-nuto energetico dell’ordine di 70 miliardi ditonnellate di petrolio equivalente. In Italia,la disponibilità di biomasse residuali(legno, residui agricoli e dell’industriaagroalimentare, rifiuti urbani e dell’indu-stria zootecnica) viene stimata in quasi 70milioni di tonnellate di sostanza secca al-l’anno, equivalente a 28 Mtep, che con gliattuali rendimenti di conversione (25 e 40%per impianti a biomasssa e a gas) potreb-bero fornire annualmente circa 84 TWh dienergia termica. L’uso attuale, però, è limi-tato a circa il 14 % di tale potenziale.Alcune delle tecnologie di conversioneenergetica delle biomasse hanno oramairaggiunto un elevato grado di maturità taleda consentire l’utilizzazione su larga scala,mentre altre necessitano di ulteriori fasi disviluppo al fine di raggiungere la competi-tività economica. Della prima categoriafanno parte la combustione diretta, l’estra-zione di oli, la fermentazione alcolica e ladigestione anaerobica, mentre nella secon-da rientrano la gassificazione, la pirolisi e ladigestione aerobica.In Italia, rispetto alla situazione europea, èda registrare allo stato attuale, a fronte di unelevato potenziale teorico, uno sviluppo li-mitato dell’utilizzo energetico delle bio-masse. Si consideri che la superficie deiterreni marginali abbandonati dall’agricol-tura tradizionale nel corso degli ultimi de-

cenni nell’Italia meridionale ammonta a piùdi 20.000 Kmq; tali aree potrebbero essereriqualificate alla produzione di redditoenergetico, se fossero destinate a coltiva-zione di biomasse da utilizzare per la pro-duzione di energia con un significativocontributo alla richiesta energetica nazio-nale.I costi medi d’impianto sono compresi tra1.500 e 2.500 q/kWe (a seconda della tec-nologia e della taglia d’impianto); da cuisegue un costo dell’energia di 0,085-1,4 q/kWh (il costo del kWh da fonti fossili è del-l’ordine dei 0,055 q/kWh).Le biomasse pur presentando buone pro-spettive e costi accessibili a medio termi-ne, devono ancora superare opposizioniesercitate a livello locale e necessitano an-cora di sviluppi e industrializzazione degliimpianti che ne rendano i costi di genera-zione comparabili con quelli dei combusti-bili fossili.Le barriere di natura non tecnica alla diffu-sione dell’uso energetico delle biomassesono di varia natura: di tipo economico,normativo, organizzativo e sociale. Fra que-sti sono significativi i costi di investimentoelevati, la debolezza organizzativa nelcoordinare le azioni dei vari attori (produt-tori, consorzi, trasformatori, utenti), la man-canza di normative e controlli sulla qualitàdei prodotti, la scarsa diffusione di informa-zioni sulle possibilità offerte da questa tec-nologia, la mancanza di consenso socialeriguardo ai siti di localizzazione, l’incertez-za della politica agricola comunitaria (set-aside) e l’incerta e non ancora definita poli-tica nazionale.

L’energia eolica

L’energia posseduta dal ventoè legata al movimento dellemasse d’aria che si spostano alsuolo da aree ad alta pressioneatmosferica verso aree adia-centi di bassa pressione. Lacaptazione dell’energia delvento si attua mediante mac-

142 COMPLESSITÀ & SVILUPPO 2003

FRANCESCO PAOLO VIVOLI, GIORGIO GRADITI

Figura 4CR ENEA della Trisaia:impianto Joule per lagassificazione di resi-dui della coltivazione

chine in cui delle superfici mobili, le pale,raccolgono l’energia cinetica della massad’aria in movimento e la trasformano inmovimento rotatorio dell’asse di un rotore;l’insieme pale-rotore costituisce l’aeromo-tore. L’asse di quest’ultimo trasmette l’e-nergia raccolta all’asse primario di ungruppo d’ingranaggi, moltiplicatore di giri,che fa in modo da determinare sull’asse se-condario una velocità di rotazione adatta apilotare un alternatore.Il generatore elettrico realizza la conversio-ne dell’energia associata al movimento rota-torio dell’aeromotore in energia elettrica daimmettere nella rete di trasmissione che larenderà disponibile ai luoghi ed agli appa-recchi che la utilizzano. L’insieme costituitodall’aeromotore, dal moltiplicatore di giri,dal generatore elettrico e dai relativi sistemidi controllo, freni e limitatori di velocità, tra-sforma l’energia eolica in energia elettrica eviene denominato “aerogeneratore”.L’investimento per la realizzazione chiavi inmano di una centrale eolica (aerogenerato-ri da almeno 600 kW) con allacciamentoalla rete in alta tensione è dell’ordine degli850-1100 q/kW installato: a seconda delsito e con valori più bassi per le macchinedi taglia più elevata e costi di sito più bassi.Il costo della macchina varia da 2/3 a 3/4del costo totale d’installazione, in funzionedelle caratteristiche orografiche del sito.Il costo dell’energia di origine eolica – chedipende in primo luogo dalle condizionianemologiche del sito – viene stimato in un“range” che va dai 5,5 ai 7,5 centesimi diq/kWh.La potenza elettrica di derivazione eolicaad oggi installata in Italia, ammonta a circa800 MWe, e ci sono progetti per la realizza-zione di impianti per altre centinaia di MW,distribuiti in varie regioni. Pur non dispo-nendo delle risorse eoliche di altri paesieuropei, stime ottimistiche indicano in oltre10.000 MW la potenza teoricamente sfrut-tabile in Italia, per cui il potenziale energe-tico complessivamente sfruttabile viene sti-mato in 20-25 Mld di KWh elettrici, a fronte

di un consumo totale nazionale di energiaelettrica di poco più di 300 Mld di KWh.La tecnologia eolica ha raggiunto un livellodi maturità e costi di produzione dell’ener-gia elettrica tali da consentirne – anche secon l’ausilio dei certificati verdi – la soste-nibilità economica, che permetterebbe diraggiungere, si stima nell’arco del prossi-mo decennio, i 10.000 MW teoricamentesfruttabili.Almeno due barriere si frappongono peròa questo obiettivo:• l’avversione di alcuni gruppi di opinione

motivati da una, a nostro parere immoti-vata, negativa opinione circa l’inquina-mento paesaggistico collegabile a que-sto tipo di impianti;

• la barriera normativo-burocratica: inItalia la normativa che presiede alla rea-lizzazione di impianti a fonti rinnovabili èmolto complessa e a volte poco chiara; laprocedura autorizzativa coinvolge deci-ne di enti (a volte sino a trenta), il sistemadei certificati verdi non è ancora chiarose risponderà alle aspettative (è attual-mente in fase di rodaggio), l’allacciamen-to degli impianti alla rete spesso, pervarie ragioni, non è semplice.

L’idrogeno per il sistema energeticosostenibile del futuro

L’idrogeno, quale vettore energetico, rap-presenta una componente chiave di un si-stema energetico sostenibile, in quanto:• uno scenario energetico basato nel

breve-medio termine sull’idrogeno con-

143COMPLESSITÀ & SVILUPPO 2003

GENERAZIONE ENERGETICA LOCALIZZATA: ENERGIA SOSTENIBILE E STIMOLO ALLE RINNOVABILI

Figura 5Centrale eolica

sentirebbe di contenere l’effetto serrasenza abbandonare i combustibili fossilie lasciando tempo per sviluppare nuovefonti energetiche;

• può essere prodotto dai combustibili fos-sili, previa conversione degli stessi e se-parazione della CO2; quindi può essereconsiderato come il modo più pulito diutilizzo di tali combustibili;

• può essere prodotto da altre fonti (rinno-vabili, nucleare) senza emissioni di CO2;

• non genera né CO2 ne altri inquinanti du-rante il suo utilizzo, coprendo applicazio-ni che vanno dai trasporti, alla generazio-ne elettrica centralizzata e distribuita.

Incrocio con le tecnologie deitrasporti

I propulsori ibridi per autotrazione rendo-no disponibili flussi di energia elettrica inuscita dal generatore (motore termico e al-ternatore ovvero cella a combustibile) e iningresso agli organi di propulsione del vei-colo2. In realtà, tali sistemi costituiscono inprimo luogo dei microgeneratori di ener-gia elettrica, per i quali sono concettual-mente plausibili e tecnicamente praticabiliutilizzi diversi da quello per l’autotrazione.Fra le segnalazioni dello statunitenseInstitute Rocky Mountains, figura l’ipotesi diutilizzare l’autoveicolo (’hypercar’) anchecome occasionale/sistematico erogato-re/accumulatore di energia, durante le lun-ghe pause (valutabili mediamente in circa22 ore pro die) comprese fra due successi-ve missioni di trasporto, presso la propriaabitazione e/o il luogo di lavoro. Le quotedi mercato accessibili da una tale soluzio-ne possono variare da ridotte e confinateapplicazioni di nicchia, fino a costituire unavera e propria rete di produzione/distribu-zione di energia elettrica diffusa sul territo-rio, sovrapposta, complementare o alterna-tiva alla rete fissa alimentata dalle centrali.Una stima approssimativa della potenzialitàproduttiva della rete di microgenerazionediffusa basata unicamente su generatori onboard, può essere condotta in via schema-

tica nei termini dell’esempio seguente. Lapotenza nominale installata nelle centrali diproduzione elettrica italiane ammonta apoco meno di 80 GW elettrici. Questa po-tenza potrebbe essere virtualmente assun-ta da 2 milioni di microgeneratori da 100kW termici, equivalenti a circa 40 kW elet-trici, ipotizzando, per semplicità, un rendi-mento di conversione del 40%. Questo va-lore di potenza elettrica è paragonabile aquello nominale e virtualmente ottenibiledal motore di un’auto di piccola-media ci-lindrata. Il numero di tali veicoli, necessarioin questo esempio a soddisfare l’intero fab-bisogno nazionale, ammonterebbe a circail 5% dei veicoli circolanti, attualmente paria circa 35 milioni. Ulteriori e analoghestime sulla produzione effettiva mostrereb-bero che il numero dei microgeneratorirealmente richiesti sarebbe ancora minore,per il favorevole coefficiente di utilizzo edelle possibilità, qui non considerate, di co-generazione. L’energia elettrica è correlataalla rete da un’esternalità positiva. Più uten-ti sono collegati, maggiore è il valore dellarete, più attraente diventa connettersi. In talicondizioni è determinante mantenere unaconnessione anche per coloro che scelgo-no di generare in proprio l’energia elettri-ca. Il generatore locale fornisce allora il ca-rico di base e la rete può “tagliare lepunte”, generalmente a prezzi più bassi.Le compagnie elettriche tradizionali forni-scono energia conveniente e affidabile, po-tenzialmente a basso costo. La generazio-ne distribuita invece offre primariamenteauto-affidabilità, flessibilità di esercizio,modularità di investimento, elevati rendi-menti, cogenerazione, compatibilità am-bientale. Inoltre, potrebbero trasformarsi inpunti di criticità per la generazione centra-lizzata ulteriori elementi, quali la crescenteenfasi ambientale sugli elettrodotti (elettro-smog), la difficoltà di reperimento di nuovisiti per l’espansione della potenza installa-ta, la difficoltà di gestire la crescente do-manda elettrica attraverso l’attuale sistemadi reti.

144 COMPLESSITÀ & SVILUPPO 2003

FRANCESCO PAOLO VIVOLI, GIORGIO GRADITI

ConclusioniSino ad oggi è prevalsa la logica dei ma-croimpianti per la produzione di energia,caratterizzati da una forte centralizzazionedei sistemi di produzione, che hanno pre-dominato ritenendo che gli impianti piccolie decentrati fossero difficili da gestire edeconomicamente svantaggiosi. Ora le tec-nologie rinnovabili, in particolare quellasolare, hanno reso disponibili impianti dipiccole dimensioni, a costi non lontani dallacompetitività e con una notevole riduzionedelle emissioni di sostanze inquinanti. Ivantaggi del decentramento produttivo, at-traverso una “generazione energetica diffu-sa” sono numerosi ed evidenti: minorestress per la rete distributiva, minori rischidi black-out, maggiore versatilità d’impie-go e modularità, maggiore velocità dimessa in opera, maggiore elasticità del si-stema, minore impatto ambientale per ilminor carico della rete di distribuzione,maggiore controllo locale e – ovviamente– minori emissioni ambientali di particola-to, di ossidi di azoto, di zolfo e di biossidodi carbonio.La generazione energetica diffusa – in par-ticolare quella elettrica – può, in certa mi-sura già oggi essere realizzata mediantel’utilizzo di tecnologie utilizzanti le fonti rin-novabili di energia, ed in prospettiva, in mi-sura significativamente più importante at-traverso l’utilizzo del nuovo vettore “Idro-geno”, soprattutto se derivato da fonti rin-novabili, la cui tecnologia è in corso dimessa a punto e industrializzazione. Lenuove tecnologie aiutano a trovare soluzio-ni efficienti, efficaci, economicamente van-taggiose, sempre più vicine all’utente finaleche diviene così proprietario e controlloredi una risorsa fondamentale come l’ener-gia. L’uso di pannelli solari termici per sin-gole abitazioni e servizi collettivi, di im-pianti fotovoltaici per gli edifici o di gene-ratori eolici, a biomasse, minidraulici colle-gati alla rete, potranno in futuro contribuireal processo di “decarbonizzazione” e “ge-nerazione energetica pulita” da parte di

un utente che non sarà più solo un sogget-to passivo divoratore di energia, ma eglistesso attivo produttore della maggiorparte dell’energia che gli serve per assi-curarsi una adeguata e sempre migliore“qualità della vita”. Bisognerà, però, che ilmondo dell’industria e gli attori politici siimpegnino per una eliminazione sostan-ziale degli ostacoli ancora esistenti, rista-bilendo regole di mercato più razionali emeno rigide che contribuiranno ad abbas-sare i costi, prevedendo nuove regole perla detenzione e l’esercizio degli impiantidi generazione di energia, l’eliminazionedi oneri e tasse improprie perché pensateper i grandi impianti di produzione, unamaggiore facilità di collegamento alle retienergetiche che connettono tra loro gliedifici di abitazione e di servizio.Le attività di R&S dell’Unità Tecnico-Scientifica Fonti rinnovabili e Cicli Ener-getici Innovativi dell’ENEA, orientate allosviluppo delle tecnologie di produzione dienergia da fonti rinnovabili e al migliora-mento dell’efficienza energetica nei settoriindustriale, civile e dei trasporti, riguardanola realizzazione di progetti/programmi stra-tegici d’interesse nazionale ed internazio-nale e servizi di qualificazione energetica,sviluppati in collaborazione con le principa-li industrie del settore, con centri di ricercae università, con enti regionali e locali.

145COMPLESSITÀ & SVILUPPO 2003

GENERAZIONE ENERGETICA LOCALIZZATA: ENERGIA SOSTENIBILE E STIMOLO ALLE RINNOVABILI

1200

1100

1000

900

800

700

600

500

400

300

200

100

0

MW

1600

1400

1200

1000

800

600

400

200

01990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002

GW

h

Energia (GWh)Potenza cumulataPotenza/anno (MW)

Figura 6L’energia eolica inItalia

146 COMPLESSITÀ & SVILUPPO 2003

&com

ple

ssità

svilu

ppo

Lo studio esamina la situazione europea, quella francese e

quella italiana relativa alla produzione e gestione deirifiuti urbani, con particolare riguardo all’incenerimento

e alle potenzialità di recupero dei residui (ceneripesanti, acciaio e alluminio). Le ceneri pesanti,

miscelate con additivi idonei, possono costituiremateria alternativa utilizzabile nell’edilizia, per opere

stradali e ferroviarie, per il ripristino di aree degradatequali le discariche

VITO IABONIPASQUALE DE STEFANIS

ENEAUTS Protezione e Sviluppo dell’Ambiente e del Territorio,

Tecnologie Ambientali

La valorizzazione delle scoriedi combustione dei rifiuti urbani

2003 Tratto da: ENERGIA, AMBIENTE E INNOVAZIONE 4/03

oppure di rifiuti selezionati, si originano leseguenti tipologie di residui solidi:a) le scorie di combustione, costituite da

frazioni inerti e da incombusti di dimen-sioni tali da non essere trascinate daifumi; vengono raccolte sul fondo dellacamera di combustione ed identificate,dal Codice Europeo Rifiuti (CER)2,come ceneri pesanti (CP);

b) le ceneri di caldaia, costituite da quellefrazioni (basso fondenti) che si separanodai fumi e si depositano sulle superficidi scambio delle sezioni inferiori del re-cupero termico;

c) le ceneri leggere, costituite da particel-le di dimensioni minute, raccolte nellasezione d’abbattimento fumi. Queste, acausa del loro contenuto di composti or-ganici e metalli pesanti, sono classificatecome rifiuti pericolosi.

In quest’ottica, particolare importanza rive-ste l’utilizzo delle CP che, miscelate conadditivi idonei, possono costituire un’inte-ressante materia alternativa utilizzabile invarie attività. Tra le principali applicazionicivili e industriali esiste la possibilità di unloro riutilizzo nell’ambito dei materiali emanufatti per l’edilizia (granulati per isola-mento termo-acustico, granulati per ce-menti e calcestruzzi, materiali vari per l’e-dilizia ecc.).Infine, tra le principali applicazioni geo-ambientali si possono citare la realizzazio-ne di opere stradali e ferroviarie, nonché ilrecupero del territorio attraverso il ripristi-no di aree degradate da attività antropoge-niche, quali le discariche.Nel presente documento, saranno esami-nati i seguenti aspetti:• la situazione europea relativa alla produ-

zione ed alle modalità di gestione dei RUcon particolare riguardo all’inceneri-mento con recupero;

• la situazione francese relativa alla produ-zione ed alle modalità di gestione dei RU,con particolare riguardo all’inceneri-mento e al recupero e riutilizzo dei resi-dui (CP, acciaio e alluminio);

147COMPLESSITÀ & SVILUPPO 2003

LA VALORIZZAZIONE DELLE SCORIE DI COMBUSTIONE DEI RIFIUTI URBANI

L’aumento dei consumi di risorse naturali,ha portato negli ultimi anni ad un crescenteinteresse dell’opinione pubblica nei con-fronti dell’ambiente, aprendo la stradaverso una nuova politica di gestione am-bientalmente sostenibile sia delle materieprime sia dei rifiuti. Le ultime direttivedell’Unione Europea ed il decreto legislati-vo 22/97 (“decreto Ronchi”)1 confermanouna tendenza al recupero, al riciclo e allaminimizzazione delle quantità di rifiuti daconferire in discarica.Riguardo quest’ultimi la propensione a li-mitare l’impiego di materie prime porta aconsiderare con grande interesse l’uso dimateriali alternativi o di risulta prodotti dal-l’industria, da centrali termoelettriche e daimpianti di incenerimento di rifiuti. Tali ma-teriali vengono così ad assumere una va-lenza energetico-ambientale ed economi-ca non trascurabile.Il problema quantitativo dei rifiuti e la sem-pre minor disponibilità di aree di smalti-mento idonee, portano sempre più a ricer-care sistemi e tecniche di inertizzazionedegli stessi e, quando possibile, di recupe-ro. Particolare interesse rivestono i tratta-menti finalizzati al loro reimpiego, tramite iquali è possibile ottenere i seguenti van-taggi:• realizzare un risparmio riguardo l’ap-

provvigionamento di materie prime, in-tervenendo direttamente sul processoproduttivo;

• realizzare un risparmio energetico com-plessivo, attraverso una razionalizzazionedelle risorse impiegate;

• conseguire una sensibile riduzione di ri-fiuti da smaltire;

• recuperare frazioni all’interno del ciclo dismaltimento.

Inoltre, l’aumento dei costi di smaltimentodei rifiuti e le crescenti difficoltà legate alloro destino finale incidono notevolmentesulla competitività e sulla fattibilità econo-mica del loro recupero in alcuni processiindustriali.Dalla combustione dei “rifiuti urbani” (RU)

• la situazione italiana relativa alla produ-zione, alle modalità di gestione dei RU,con particolare riguardo all’inceneri-mento ed alle potenzialità di recuperodei residui (CP, acciaio e alluminio).

La situazione europea

I rifiuti urbani

Produzione e smaltimento

A livello comunitario, su una popolazionedi circa 375 milioni abitanti3, sono prodotticirca 198 Mt/anno di RU, corrispondenti acirca 527 kg/anno pro-capite (tabella 1).Lo smaltimento di tali quantitativi viene ef-fettuato principalmente attraverso l’interra-mento in discarica (55,4%), l’incenerimen-to (18,8%) ed altre forme come il compo-staggio, il riciclaggio ecc. (25,8%).Pur essendo aumentata negli ultimi anni latendenza al recupero e al riciclaggio, restapreminente l’impiego della discarica (me-diamente 50-60% della produzione totale,con livelli superiori nel caso dell’Italia e di

altre realtà, tipiche soprattutto del SudEuropa).Inoltre, dal confronto dei diversi paesi co-munitari emerge che la maggioranza diessi presenta sistemi di gestione integratidi recupero di materia ed energia con con-testuale riduzione dell’impiego della di-scarica. I paesi che minimizzano l’impiegodella discarica (Francia, Svezia) invecepresentano in genere alti livelli di utilizzodell’incenerimento, associato a buoni livellidi recupero.Infine occorre rilevare che in molti paesi lasituazione si sta evolvendo verso un maggiortasso di riciclaggio, con conseguente ridu-zione dei quantitativi smaltiti in discarica.

Incenerimento

Per quanto riguarda specificatamente l’in-cenerimento, a livello comunitario il quanti-tativo trattato risulta pari al 18,8% della pro-duzione di RU, con forti squilibri tra Europacentrale e paesi scandinavi da una parte epaesi dell’area del Mediterraneo dall’altra;facendo riferimento ai soli paesi del-

148 COMPLESSITÀ & SVILUPPO 2003

VITO IABONI, PASQUALE DE STEFANIS

Tabella 1Produzione e mo-dalità di smaltimen-to dei rifiuti urbaniin Europa

Totale Pro-cap. Discarica Incenerimento Altro

x 1.000 t/anno kg/anno t/anno % t/anno % t/anno %

1 Austria (1) 1999 8.083 4.437.567 549 1.551.936 35 452.648 10,2 2.432.983 54,8

2 Belgio (1) 1998 10.192 5.371.184 527 1.485.800 27,7 1.386.112 25,8 2.499.272 46,5

3 Danimarca (1) 1999 5.314 3.331.878 627 361.352 10,8 1.673.910 50,2 1.296.616 38,9

4 Finlandia (1) 1999 5.160 2.399.400 465 1.465.440 61,1 196.080 8,17 737.880 30,8

5 Francia (1) 1999 58.973 31.786.447 539 13.268.925 41,7 9.966.437 31,4 8.551.085 26,9

6 Germania (1) 1998 82.057 39.797.645 485 14.113.804 35,5 9.682.726 24,3 16.001.115 40,2

7 Grecia (1) 1997 10.487 3.901.164 372 3.565.580 91,4 0 0 335.584 8,6

8 Italia (2) 2000 57.844 (2) 28.958.545 501 21.744.693 75,1 2.321.648 8,02 4.892.204 16,9

9 Irlanda (1) 1998 3.694 1.931.962 523 1.765.732 91,4 0 0 166.230 8,6

10 Lussemburgo (1) 1999 429 277.992 648 60.060 21,6 132.990 47,8 84.942 30,6

11 Olanda (1) 2000 15.864 9.692.904 611 1.221.528 12,6 3.950.136 40,8 4.521.240 46,6

12 Portogallo (1) 2000 9.998 4.529.094 453 3.409.318 75,3 929.814 20,5 189.962 4,19

13 Spagna (1) 1999 39.394 24.463.674 621 17.490.936 71,5 2.678.792 11 4.293.946 17,6

14 Svezia (1) 1998 8.848 3.999.296 452 1.300.656 32,5 1.397.984 35 1.300.656 32,5

15 Regno Unito (1) 1999 59.391 33.140.178 558 26.785.341 80,8 2.553.813 7,71 3.801.024 11,5

Totale EU 375.728 198.018.930 527 109.591.101 55,4 37.323.090 18,8 51.104.739 25,8

Trattamento/SmaltimentoProduzione rifiuti urbaniN. Nazione Anno di Popolazione

riferimento (3)

Fonte: (1) Elaborazione ENEA su dati EUROSTAT4 (2) Elaborazione ENEA su dati APAT ONR15 (3) Elaborazione ENEA su dati EUROSTAT 20013

l’Europa centrale il quantitativo medio diRU inceneriti si attesta attorno al 35%.Un quadro aggiornato della situazione at-tuale riguardo l’incenerimento dei RU a li-vello comunitario è riportato in uno studioelaborato da ASSURRE6 nel quale sono staticensiti gli impianti aventi potenzialità supe-riore 30.000 t/anno. I risultati dello studiosono sintetizzati nella tabella 2.

La situazione francese

I rifiuti urbani

Produzione

La produzione dei RU nel 1999 ammontavaa 31,7 Mt4 pari a circa 539 kg/abitante.

Incenerimento

Il recupero d’energia dal trattamento dei ri-fiuti è una delle priorità definita nella leggedel 13 luglio 1992. Stime recenti riportanoche il 31,4% dei RU prodotti viene inceneri-to, di cui il 35% con recupero d’energia ter-mica ed elettrica (figura 1), con un incre-mento di previsione fino al 50% a brevetermine.Nel 1998, secondo ADEME7, l’energia rica-vata e venduta a seguito dell’incenerimen-to di RU sottoforma di calore e di elettricitàè stata pari ad oltre 7 milioni di MWh, equi-valenti a 725.000 tep (tonnellate equivalentidi petrolio), vale a dire ai bisogni energeti-ci annuali di una popolazione di 200.000abitanti.Il parco degli inceneritori francesi in eser-cizio (al 31 gennaio 2002), secondoADEME e il Ministère de l’Environnement8-9

era di 161 unità, di cui:– 77 di potenzialità superiore a 6 t/h;– 84 di potenzialità inferiore a 6 t/h.

Recupero dei materiali

Ceneri pesanti

Fin dal 25 gennaio 1991 con una appositacircolare il Ministero dell’Ambiente france-se ha dato degli orientamenti per lo smalti-mento delle CP integrata con la circolareDPPR 94-IV-1 del 9.5.199410 che ha fissato ilimiti per l’accettabilità delle CP da incene-rimento di RU come materiale da costru-zione.Il SVDU (Syndacat national du traitement etde la Valorisation des Dechets Urbains etassimiles)[1] ha redatto a tale proposito duespecifiche direttive per il trattamento delleCP, riguardanti sia le modalità di campiona-mento sia i rischi di potenziale inquina-mento:– Guides méthodologiques pour l’échantil-

lonnage des machefer d’usine d’incinéra-tion d’ordure ménagères (marzo 1995);

– Protocole technique pour la détermina-tion du potentiel polluant des machefersd’incinération d’ordures ménagers (di-cembre 2000).

L’annesso III alla sopracita circolare, suddi-

149COMPLESSITÀ & SVILUPPO 2003

LA VALORIZZAZIONE DELLE SCORIE DI COMBUSTIONE DEI RIFIUTI URBANI

Tabella 2Incenerimento di ri-fiuti urbani a livelloeuropeo (2000)

N° unità N° unità Mt/anno Mt/anno TWh TWh

Europa Unione Europa Unione Europa Unioneoccidentale Europea occidentale Europea occidentale Europea

304 269 50,2 47,3 49,6 44,4

Fonte: Elaborazione ENEA su fonte ASSURRE6

Fonte: Elaborazione ENEA su dati ADEME7

1993 1998

3.100.000

500.000800.000

7.000.00

6.000.000

5.000.000

4.000.000

3.000.000

2.000.000

1.000.000

0

6.500.000

MW

h

Elettrica Termica

Figura 1Produzione d’ener-gia termica ed elet-trica da rifiuti urbaniin Francia

1 Associazione d'impreseoperanti nella gestione deirifiuti (raccolta, riciclaggio,valorizzazione, compostag-gio, metanizzazione ed in-cenerimento).

vide le CP in 3 categorie (tabella 3a), la cuiclassificazione viene eseguita sulla basedei test di lisciviazione (norma NF X31-210) di alcuni contaminanti.Le tre categorie sono:– cenere valorizzabile (V) che individua

un prodotto a bassa lisciviabilità;– cenere maturabile (M) che individua un

prodotto intermedio destinato a matura-zione – 3 mesi (min.) 12 mesi (max);

– cenere destinata allo smaltimento (S)che individua un prodotto ad alta liscivia-bilità.

Nel 1999 la produzione delle CP è stata dioltre 3,8 Mt e per il trattamento e la matura-zione delle stesse esistevano 40 piattafor-me. Alla stessa data ADEME12 stimava chele CP residue, dopo l’incenerimento di RU,

erano percentualmente così suddivise:– 46% di categoria V;– 37% di categoria M;– 17% di categoria S.L’andamento della produzione delle CP dal1994 al 2001 viene riportata in tabella 3b.La valorizzazione delle CP costituisce unaparte importante nella gestione integratadell’incenerimento dei RU, in quanto esserappresentano almeno il 2% dei granulatiutilizzati per la realizzazione di sottofondistradali; tra gli altri utilizzi principali possia-mo citare:– terrazzamenti;– ripristini morfologici.Tali utilizzi sono espressamente previstinella “Guide tecnique pour la réalisationde terrassements (GTR)” e nel “Rapport415 (98-99) - Office Parlamentaire d’Eva-luations des Choix Scientifiques et Tech-nologiques”11.Le caratteristiche fisico-chimiche delle CP,hanno consentito il loro utilizzo in operepubbliche, come ad esempio:– 12.000 tonnellate per il rifacimento dei

marciapiedi di stazioni SNCF;– 9.000 tonnellate come sottofondo per il

collegamento a stazioni SNCF;– 117.000 tonnellate nei cantieri d’Euro-

Disney.

150 COMPLESSITÀ & SVILUPPO 2003

VITO IABONI, PASQUALE DE STEFANIS

Tabella 3aLimiti secondo la cir-colare DPPR n. 94-IV-1 del 9.5.1994

Tabella 3bAndamento dellaproduzione di ceneripesanti in Francia

Ceneri pesantiInquinante Categoria V Categoria M Categoria S

Tasso d'incombusti < 5% < 5% > 5%

Frazione solubile < 5% < 10% > 10%

Hg < 0,2 mg/kg < 0,4 mg/kg > 0,4 mg/kg

Pb < 10 mg/kg < 50 mg/kg > 50 mg/kg

Cd < 1 mg/kg < 2 mg/kg > 2 mg/kg

As < 2 mg/kg < 4 mg/kg > 4 mg/kg

Cr6+ < 1,5 mg/kg < 3 mg/kg > 3 mg/kg

SO42- < 10.000 mg/kg < 15.000 mg/kg > 15.000 mg/kg

COT 1.500 mg/kg 2.000 mg/kg 2.000 mg/kg

Anno 1994 1995 1996 1997 1998 1999 2000 2001

Tonnellate anno x 1.000

Quantità 3.135 3.260 3.390 3.490 3.562 3.804 4.150* 4.450*

Fonte: Ministère de l’Environne-ment10

Fonte: Cercle Récyclage13 * Quantità stimate

66

217 3 3

100

Isol

e ec

olog

iche

Racc

olta

diffe

renz

iata

Impi

anti

dico

mpo

stag

gio

Term

oval

orizz

azio

nese

nza

recu

pero

di c

alor

e

Term

oval

orizz

azio

neco

n re

cupe

rodi

cal

ore

100806040200

%

Tota

le

Figura 2Ripartizione del recu-pero dell'acciaio di ri-fiuti urbani in Francia

Fonte: Office Parlamentaire d'Evaluations des Choix Scientifiques et Technologiques11

Acciaio

La produzione dell’acciaio era pari (1999)a 18 Mt11 di cui 0,5 Mt destinate alla realiz-zazione d’imballaggi.La ripartizione riguardo le modalità di re-cupero viene riportata in figura 2.Affinché possa essere recuperato, l’acciaiodeve rispondere alle prescrizioni tecnicheminime (PTM) del “Référentiel européendes ferrailles”, i cui corrispettivi praticatidall’Eco-Emballages (1997), sono riportatiin tabella 4.

I riferimenti legislativi riguardo il recuperoed il riciclaggio dell’acciaio sono i seguenti:a) legge 75-663 del 15 luglio 1975 relativa

all’eliminazione dei rifiuti ed al recuperodei materiali.

b) decreto del 14 luglio 1992 sulla regola-mentazione degli imballaggi.

c) decreto del 13 luglio 1994 sugli imbal-laggi industriali e commerciali.

Alluminio

La produzione dell’alluminio (1997) era pari

151COMPLESSITÀ & SVILUPPO 2003

LA VALORIZZAZIONE DELLE SCORIE DI COMBUSTIONE DEI RIFIUTI URBANI

Tabella 4Corrispettivi acciaioda recupero in Fran-cia

Tipo di recupero Da ceneri pesanti Da raccolta differenziata

Condizionamento Tal quale Tal quale Balle da 300 kg Balle pressate

Contenuto in ferro 55% 60% 90% 90%

Umidità 6% 6% 10% 10%

Densità 0,3 0,3 0,3 1,2

Corrispettivo (q/t) 0,0 7,75 7,75 30

Prezzo direttamente sostenutodall'Eco-Emballages (q/t) 11,6 11,6 46,5 46,5

Fonte: Office Parlamentaire d'Eva-luations des Choix Scientifiques etTechnologiques11

Tabella 5Corrispettivo allumi-nio recuperato in Fran-cia

Corrispettivo B/t

Contenuto in alluminio Da raccolta differenziata Da ceneri pesanti d’incenerimento

Fino a 55% Non remunerato Non remunerato

> 55 fino a 60% 153,9 115,4

> 60 fino a 65% 192,4 115,4

> 65 fino a 70% 230,9 153,9

> 70 fino a 75% 269,3 184,7

> 75% 307,8 200,1Fonte: Office Parlamentaire d'Eva-luations des Choix Scientifiques etTechnologiques11

2 Particolare interesse riveste il recupero dell'alluminio, sottoforma di noduli, dalle CP. In Francia il prezzo minimo di vendita di talimoduli è valutabile in circa 115 t/t. Naturalmente il prezzo è anche funzione della qualità dei noduli, e può arrivare, con riferimen-to al London Metal Exchange (LME), in funzione della purezza, anche a 308 t/t.

8.700 7.100 9.000 4.10011.000

22.000

10.000

71.90080.000

60.000

40.000

20.000

0

t/ann

o

Latti

ne

Con

teni

tori

Aer

osol

Tube

tti

Tube

ttifle

ssib

ili

Fogl

i di

allu

min

io

Tota

le

Imba

llagg

im

inor

itari

Figura 3Imballaggi d'allumi-nio nei rifiuti urbaniin Francia

Fonte: Office Parlamentaire d'Evaluations des Choix Scientifiques etTechnologiques11

a 1 Mt11 di cui 72.000 t/anno destinate allarealizzazione d’imballaggi. L’alluminio utiliz-zato per tale scopo è di spessore pari a 0,3mm e di 6,35-20 micron per i poliaccoppiati.La presenza d’imballaggi d’alluminio nei RUè pari all’1%, ripartiti come in figura 3. Il re-cupero dell’alluminio ed il suo utilizzo è re-golamentato nell’ambito dell’Eco-Emballagecon procedure, contratti, sovvenzioni e ricaviche dipendono principalmente dalla qualitàottenuta, ovvero dei “requisiti tecnici minimi”(“Prescription Technique Minimale” PTM)[2].

L’alluminio recuperato, sia da “raccolta dif-ferenziata” (RD) sia dalle CP deve rispon-dere alle prescrizioni tecniche minime(PTM); i corrispettivi praticati (1998) sonoriportati in tabella 5. I riferimenti legislativiriguardo il recupero ed il riciclaggio del-l’alluminio sono i seguenti:a) direttiva 94/62 del 20 dicembre 1994

sugli imballaggi e rifiuti di imballaggio;b) decreto 92-337 del 1° aprile 1992 sulla

valorizzazione dei rifiuti da imballaggi;c) decreto 96-1008 del 18 novembre 1996

sugli obiettivi di valorizzazione.

La situazione italiana

I rifiuti urbani

Produzione

La produzione dei RU, secondo recentistime APAT ONR15, è pari a circa 29Mt/anno (anno 2000), corrispondenti aduna produzione giornaliera pro-capite dicirca 1,37 kg (501 kg su base annua). Diquesti 4,17 Mt/anno (14,4%) sono stati og-getto di RD, anche percentualmente infe-

riore all’obiettivo minimo del 15% fissatodal decreto legislativo 22/97 per l’anno inquestione.Secondo i dati storici disponibili per gli ulti-mi anni (1996-2000) si riscontra dunque unatendenza alla crescita della produzione,come riportato in figura 4a. Inoltre secondo idati storici disponibili per gli ultimi anni(1997-2000) si riscontra una tendenza allacrescita della RD con forti squilibri tra Nord-Centro-Sud, come riportato in figura 4b.

Composizione merceologica

La produzione nazionale d’imballaggi se-condo i dati rilevabili dal “Rapporto sui ri-fiuti 2002 (APAT ONR)” è riportata nella ta-bella 6a. In tabella 6b viene riportata lacomposizione merceologica dei RU in Italia(1997), suddivisa per classe di popolazio-ne dei Comuni.

Gestione

Di particolare interesse risulta essere la si-tuazione relativa alle diverse forme di ge-stione dei RU, che possono essere così sin-tetizzate:

152 COMPLESSITÀ & SVILUPPO 2003

VITO IABONI, PASQUALE DE STEFANIS

26,0

26,6

26,8

28,429,0

1996 1997 1998 1999 2000

30

29

28

27

26

25

24

Mt/a

26,0

26,6

26,8

28,429,0

1996 1997 1998 1999 2000

30

29

28

27

26

25

24

Mt/a

%

a b

Figura 4a. Andamento dellaproduzione di rifiutiurbani in Italiab. Andamento dellaraccolta differenzia-ta in Italia

Tabella 6aQuantità di imballag-gi immessi sul merca-to in Italia (2000)

Imballaggi Produzione Import imballaggi Import imballaggi Immesso consumoimballaggi vuoti vuoti+pieni vuoti+pieni finale imballaggi pieni

(t/anno) (t/anno) (t/anno) (t/anno)

Acciaio 848.000 114.000 362.000 600.000

Alluminio 57.000 9.200 7.000 59.200

Plastica 2.950.000 300.000 1.350.000 1.900.000

Carta 5.060.000 432.000 1.316.000 4.167.000

Vetro 3.246.000 466.000 1.749.000 1.963.000

Legno 2.630.000 454.000 605.000 2.479.000

Totale 14.791.000 1.775.200 5.389.000 11.168.200Fonte: APAT ONR15

– compostaggio della frazione organicaselezionata[3];

– trattamenti meccanico-biologici dellafrazione raccolta in modo indifferenziato(produzione di combustibile derivato darifiuti – CDR biostabilizzato)[4];

– incenerimento, con o senza recupero dienergia;

– altre forme di recupero (principalmentetrattamenti meccanici finalizzati al riciclo erecupero di materiale proveniente da RD);

– smaltimento in discarica controllata.La situazione a livello nazionale è sintetiz-zata in tabella 7a; il dettaglio per regioni èriportato nella tabella 7b.

IncenerimentoSecondo l’ultimo censimento APAT ONR15,riferito all’anno 2001, erano operativi sulterritorio nazionale 43 impianti d’inceneri-mento RU (tabella 8a), le cui principali ca-ratteristiche sono riportate in tabella 8b.La normativa nazionale sull’incenerimentodi rifiuti è attualmente costituita dai decretiministeriali: DM 19 novembre 1997, n. 503,che recepisce le direttive 89/369/CE e89/429/CE sull’incenerimento dei rifiuti ur-bani e dei rifiuti non pericolosi; DM 25 feb-braio 2000, n. 124, che recepisce la diretti-va 94/67/CE sull’incenerimento dei rifiutipericolosi.

153COMPLESSITÀ & SVILUPPO 2003

LA VALORIZZAZIONE DELLE SCORIE DI COMBUSTIONE DEI RIFIUTI URBANI

Classe di popolazione dei Comuni (abitanti x 1.000)

<20 20-50 50-100 100-200 >200Frazione merceologica

% % % % %

Sottovaglio 12,7 13,2 11,7 11,8 13,3

Organico 29,8 28,7 28,5 27,4 25,4

Legno e verde 5,8 5,2 5,1 3,6 3,8

Carta e cartoni 21,8 22,5 23,5 24,4 24,7

Plastiche leggere 6,9 8,3 7,9 7,5 7,6

Plastiche pesanti 2,7 2,9 3,8 2,8 2,9

Vetro e inerti pesanti 7,4 6,7 6,9 7,4 7,6

Tessili 4,9 4,7 5,4 6,0 5,5

Metalli 2,8 3,2 2,9 3,5 3,3

Cuoio e gomma 3,4 2,9 2,4 3,3 3,1

Pannolini 1,8 1,7 1,9 2,3 2,8

Totale 100 100 100 100 100

Tabella 6bComposizione mer-ceologica di rifiuti ur-bani in Italia (1997)

Fonte: Federambiente16

Smaltimento e trattamento rifiuti urbani

Anno 1997 Anno 1999 Anno 2000

Totale Pro-cap Totale Pro-cap Totale Pro-cap

Trattamento Mt/anno kg/anno % Mt/anno kg/anno % Mt/anno kg/anno %

Compostaggio 0,9 15,5 3,3 1,4 23,6 4,8 1,5 25,9 5,2

Trattamenti meccanico-biologici (1) 1,6 28,5 6,2 2,2 38,2 7,7 3,1 54,0 10,8

Incenerimento 1,7 30,2 6,5 2,1 36,8 7,5 2,3 40,3 8,0

Altre forme recupero (2) 1,1 18,4 4,0 0,3 5,7 1,2 0,1 1,2 0,2

Discarica controllata 21,3 369,3 80,0 21,7 377,4 76,5 21,9 380,5 75,8

Totale 26,6 461,8 100 28,4 493,1 100 28,9 501,7 100

Tabella 7aModalità di gestionedei rifiuti urbani inItalia

Fonte: Elaborazione ENEA su datiAPAT ONR15, Federambiente16 eCIC17

(1) Selezione, produzione di combustibile derivato da rifiuti/biostabilizzato, altri trattamenti.(2) Principalmente trattamenti meccanici finalizzati al riciclo di materiali

3 L'industria del compostaggio (maggio 2002) può contare su 114 impianti di produzione compost derivante dal trattamento di ma-trici organiche selezionate, con una capacità operativa annua di 1,5 Mt/anno e una produzione di 0,5 Mt/anno di compost di qualità.

4 Sul territorio nazionale (maggio 2002) sono presenti 35 impianti, per il trattamento di matrici non selezionate, con una capacitàoperativa di 2,5 Mt/anno e una produzione di 0,25 Mt/anno di materiale biostabilizzato.

Anche il decreto legislativo 22/97 introduceprecise prescrizioni per l’incenerimento deirifiuti; in particolare l’art. 5 comma 4 prescri-ve che, dal 1° gennaio 1999, “la realizzazio-

ne e la gestione di nuovi impianti di inceneri-mento possono essere autorizzate solo se ilrelativo processo di combustione è accom-pagnato da recupero energetico con una

154 COMPLESSITÀ & SVILUPPO 2003

VITO IABONI, PASQUALE DE STEFANIS

Biostabilizzazione e combustibileDiscarica Incenerimento Compostaggio derivato da rifiuti

1997 1999 2000 1997 1999 2000 1997 1999 2000 1997 1999 2000

Regione kt kt kt kt kt kt kt kt kt kt kt kt

Emilia Romagna 1.657,3 1.879,3 1.873,8 566,0 546,8 547,9 44,8 200,4 254,9 157,6 129,8 174,7

Friuli V. Giulia 288,4 334,8 250,5 134,8 121,0 132,4 1,2 6,8 6,2 35,9 29,9 217,2

Liguria 989,3 833,1 976,3 0,0 0,0 0,0 0,0 10,9 10,1 0,0 0,0 0,0

Lombardia 1.722,3 1.504,6 1.716,7 426,1 749,0 917,2 312,3 328,1 382,1 605,0 586,8 1.047,3

Piemonte 1.676,7 1.526,6 1.883,5 70,4 83,1 96,2 166,7 213,9 257,8 7,1 72,9 32,4

Trentino Alto Adige 348,3 308,1 314,9 58,0 64,4 75,4 42,9 36,9 34,2 0,0 14,0 0,0

Valle d'Aosta 54,7 54,9 60,4 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0,0

Veneto 1.554,6 1.489,7 1.299,9 71,3 127,9 173,0 286,3 348,4 553,3 80,0 206,0 130,2

Totale Nord 8.291,6 7.931,1 8.375,9 1.326,6 1.692,3 1.942,1 854,1 1.145,4 1.498,5 885,5 1.039,5 1.601,7

Lazio 2.907,7 2.619,2 2.392,2 0,0 0,0 0,0 0,0 0,0 48,8 99,1 393,5 556,4

Marche 538,0 684,2 679,2 24,8 20,5 21,0 0,0 42,9 60,5 39,7 76,0 136,8

Toscana 1.333,0 1.275,1 1.269,9 222,1 192,3 142,1 45,0 92,0 177,5 159,9 167,3 297,1

Umbria 202,4 324,8 366,2 0,0 29,8 32,0 0,0 0,0 15,0 241,1 296,1 216,2

Totale Centro 4.981,0 4.903,2 4.707,6 246,9 242,6 195,1 45,0 134,8 301,7 539,8 932,9 1.206,5

Abruzzo 603,9 477,7 461,9 0,0 0,0 0,0 0,0 11,2 25,7 84,7 71,9 67,1

Basilicata 140,1 198,1 161,7 0,0 0,0 0,0 0,0 0,0 0,0 20,1 22,0 0,0

Calabria 476,8 724,8 698,4 20,2 0,0 0,0 0,0 0,0 0,0 69,0 49,2 77,4

Campania 2.184,7 2.635,6 2.598,2 0,0 0,0 0,0 0,0 3,0 0,0 0,0 34,6 65,8

Molise 132,2 111,6 102,0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0,0 0,0

Puglia 1.799,1 1.776,1 1.727,1 0,0 0,0 0,0 0,0 65,7 72,8 0,0 0,0 0,0

Sardegna 509,6 573,6 644,4 134,7 172,2 168,3 0,0 0,0 0,0 22,0 58,9 100,1

Sicilia 2.156,3 2.413,0 2.440,1 18,5 13,7 16,1 0,0 0,0 0,0 21,8 0,0 0,0

Totale Sud e Isole 8.002,6 8.910,3 8.833,9 173,3 185,9 184,4 0,0 79,9 98,5 217,5 236,6 310,4

Totale 21.275,2 21.744,7 21.917,4 1.746,7 2.120,8 2.321,6 899,1 1.360,2 1.898,7 1.642,9 2.209,0 3.118,7

Tabella 7bDestinazione e tratta-menti per regione dirifiuti urbani in Italia

Fonte: Elaborazioni ENEA su dati: Federambiente16, APAT ONR15 e GEA17

Tabella 8aProduzione di ener-gia dalla combustio-ne di rifiuti urbani inItalia

Fonte: Elaborazione ENEA su fonti:ANPA ONR5,14 e APAT ONR15

Descrizione Unità 1997 1998 1999 2000 2001

Impianti operativi N° 38 41 42 43 43

Impianti con recupero energetico N° 23 26 27 32 34

Impianti senza recupero energetico N° -- -- -- 10 8

Impianti con recupero di energia elettrica N° -- -- -- 31 35

Impianti con recupero di energia termica N° -- -- -- 9 10

Impianti con recupero di energia elettrica e termica N° -- -- -- 7 10

Rifiuti trattati totali Mt 1,75 1,98 2,13 2,32 2,59

Rifiuti trattati in impianti con recupero Mt 1,18 1,41 1,77 2,14 2,44

Energia elettrica prodotta GWh 281,9 394,6 421,9 797,0 1.211,4

Energia termica prodotta GWh 152,8 166,0 200,0 853,6 1.139,2

155COMPLESSITÀ & SVILUPPO 2003

LA VALORIZZAZIONE DELLE SCORIE DI COMBUSTIONE DEI RIFIUTI URBANI

Recupero energetico

Rifiuti urbani Trattamento Potenz. Elettrico TermicoN. Regione Prov. Comune (t/anno) Tecnologia N. linee fumi (t/giorno) MWh/anno MWh/anno Stato1 Piemonte VB Mergozzo 28.487 Griglia EP, WS 120 6.787 0 o2 Piemonte VC Vercelli 68.281 Griglia 3 EP, WS 166 14.112 0 o3 Lombardia BG Bergamo 28.597 Griglia 2 EP, WS 150 12.383 0 o4 Lombardia (1) BG Dalmine 7.720 Griglia 2 EP,FF, WS, DND 400 3.262 0 o5 Lombardia BS Brescia 335.497 Griglia 2 DN, DAS, FF 914 378.000 264.000 o6 Lombardia CO Como 69.069 Griglia 2 EP, WS 208 7.500 116.072 o7 Lombardia CR Cremona 31.999 Griglia 2 SD, FF, WS, DN 85 4.545 26.945 o8 Lombardia LC Valmadrera 58.899 Griglia 2 EP, WS 240 22.008 0 o9 Lombardia MI Abbiategrasso 14.018 Rotante 1 EP, WS 52 0 0 o10 Lombardia MI Desio 54.165 Griglia 2 EP, WS 200 11.600 0 o11 Lombardia MI Milano (Silla 1) 36.782 Griglia 2 EP, WS 454 13.339 0 o12 Lombardia MI Milano (Silla 2) 252.847 Griglia 3 -- 775 178.834 3.612 o13 Lombardia (2) MI Milano (Zama) 66.013 Griglia 2 EP, WS 385 24.786 0 c14 Lombardia (3) MI Sesto S. Giovanni 15.522 Griglia 3 EP, WS, FF 245 7.923 0 o15 Lombardia PV Parona 137.734 Letto fluido 1 DN+EP,WS, FF 400 118.386 357.461 o16 Lombardia VA Busto Arsizio 111.859 Griglia 2 DN, FF, SD, WS 500 50.406 0 o17 Lombardia MI Trezzo d’Adda 0 Griglia 2 -- 0 0 0 i18 Trentino A.A. BZ Bolzano 61.519 Griglia 2 FF,SD, FF 300 21.159 0 o19 Veneto PD Padova 59.538 Griglia 1 DAS, EP, WS 300 25.229 0 o20 Veneto VE Venezia 48.080 Griglia 2 -- 175 12.599 0 o21 Veneto VI Schio 31.143 Letto fluido 2 EP, WS 96 7.978 0 o22 Veneto VR Verona 0 Rotante 1 -- 0 0 0 i23 Friuli V.Giulia GO Gorizia 14.392 Rotante 1 EP 58 0 0 o24 Friuli V.Giulia GO Morato/Gradisca 8.044 Griglia 2 EP 34 0 0 o25 Friuli V.Giulia TS Trieste 109.042 Griglia 3 -- 408 32.058 0 o26 Emilia R. MO Modena 104.017 Griglia 3 EP, WS 250 33.907 276.667 o27 Emilia R. BO Granarolo dell’Emilia 138.144 Griglia 3 EP, WS 400 41.054 53.297 o28 Emilia R. FE Ferrara (Conchetta) 19.856 Griglia 1 EP, WS 80 0 0 o29 Emilia R. FE Ferrara (Canal Bianco) 35.279 Griglia 1 DN,SD, FF, WS 130 9.338 20.300 o30 Emilia R. FO Forlì 34.148 Griglia 2 DAS, EP, DN, 200 8.820 12.071 o31 Emilia R. PR Parma 68.220 Rotante 2 EP, WS 176 0 0 o32 Emilia R. RA Ravenna 2.952 Letto fluido 2 -- 479 24.005 0 o33 Emilia R. RE Reggio Emilia 56.044 Griglia 2 EP, DAS, FF 175 23.217 8.869 o34 Emilia R. RN Coriano 107.375 Griglia 3 EP, DAS, FF 350 41.306 0 o35 Emilia R. PC Piacenza 0 Griglia 2 EP, FF 0 0 0 iTotale Nord Nr. 31 impianti operativi 2.215.282 8.905 1.134.541 1.139.294 o36 Toscana PT Montale Agliana 30.703 Rotante 2 EP, WS 85 3.122 0 o37 Toscana LU Castelnuovo di Garfagnana 11.665 Griglia 1 DAS, FF 36 3.066 0 o38 Toscana FI Rufina Pontassieve 6.165 Griglia 1 DAS, FF 31 0 0 o39 Toscana SI Poggibonsi 18.242 Griglia 2 DAS, FF, DN 67 1.406 0 o40 Toscana GR Massa M. Valpiana 300 Griglia 2 DAS, FF, 50 0 0 i41 Toscana AR Arezzo 43.010 Griglia 1 -- 120 n.d. 0 o42 Toscana LI Livorno 42.343 Griglia 2 DAS, FF 180 11.615 0 o43 Umbria TR Terni 29.360 Griglia 2 SD, FF 200 12.688 0 o44 Marche MC Tolentino/Pollenza 18.000 Griglia 1 EP, WS, SD 65 5.670 0 oTotale Centro Nr. 8 impianti operativi 199.788 834 37.567 0 o45 Sicilia ME Messina 2 16.624 Griglia 2 DAS,FF,WS 125 0 0 o46 Sardegna CA Capoterra 136.317 Griglia 3 SD, FF 278 37.676 0 o47 Sardegna NU Macomer 26.432 Letto fluido 2 SD, FF 140 1.658 0 oTotale Sud Nr. 3 impianti operativi 179.373 543 39.334 0Totale Italia Nr. 42 impianti operativi 2.594.443 10.282 1.211.442 1.139.294

Fonte: APAT ONR15

(1) L’impianto è operativo dal novembre 2001. - (2) L’impianto ha cessato l’attività nel dicembre 2001. - (3)L’impianto è operativo dall’ottobre 2001Legenda: CT = conto terzi; CP = conto proprio; n = in costruzione; o = operativo; i = inattivo o in ristruttu-

razione; c = cessata attività; trattamento fumi; EP = elettrofiltro; FF = filtro a maniche; SD = reat-tore a semisecco; WS = scrubber ad umido; DAS = reattore a secco; DN = abbattimento NOx noncatalitico; DND = abbattimento NOx catalitico

Tabella 8bImpianti d’incenerimento di rifiuti urbani operativi in Italia (2001)

quota minima di trasformazione del poterecalorifico dei rifiuti in energia utile”. Tutta lanormativa dovrà subire ulteriori modificheper adeguarsi alle disposizioni comunitarieintrodotte dalla direttiva 2000/76/ CE del 4dicembre 2000 che, essendo un testo unicoin materia di incenerimento, sostituirà edabrogherà a partire dal 28 dicembre 2005le disposizioni attualmente vigenti.

Recupero dei materiali

Ceneri pesanti

Nel processo d’incenerimento dei RU, ven-gono originate le CP classificate nelCodice CER 19 01 01 (Punto 13.3 del Sub-allegato 1 dell’Allegato 1 al DMA 5.02.1998),che, secondo la legislazione attuale, sonodestinate allo smaltimento in discarica con-trollata, con costi (comprensivi di traspor-to) dell’ordine dei 77-100 s/t.La normativa italiana (decreto legislativo22/97 e DMA 5.02.1998) individua comeunica soluzione in procedura semplificata ilrecupero delle CP presso i cementifici.Tale semplificazione amministrativa non ha

avuto come risvolto la destinazione di flussiinteressanti a tale forma di recupero. Infattisolo il 2% delle CP viene attualmente recu-perata nei cementifici.

Acciaio

Il Consorzio Nazionale Acciaio (CNA) èstato costituito il 18 novembre 1997 in ot-temperanza alle disposizioni di cui all’art.40 del decreto legislativo 22/97.In Italia vengono prodotte mediamenteogni anno circa 600.000 tonnellate20 di ri-fiuti da imballaggi in acciaio (tabella 9), dicui poco più della metà nei RU.Il fabbisogno di rottame ferroso da partedell’industria siderurgica italiana è di 19Mt/anno, di cui 14 Mt/anno da recupero e 5Mt/anno d’importazione.Gli obiettivi del CNA indicati nel Pro-gramma Specifico di Prevenzione 200118

consistono nel raggiungimento di un tassodi riciclaggio/recupero del 50%, vale a dire233.000 tonnellate alla scadenza dei 5 anniprevisti dalla legge (entro il 2002), attraver-so le seguenti attività:• la raccolta differenziata – preferibilmente

da effettuarsi congiuntamente ad altri ma-teriali (alluminio e vetro in particolare);

• il recupero degli imballaggi in acciaio –dagli impianti di incenerimento medianteestrazione magnetica, a monte o a valledell’incenerimento;

• il recupero nei centri di raccolta per ifusti e gli altri imballaggi industriali – atale proposito si intende sfruttare l’espe-rienza acquisita da Fusteco.

Il CNA nel 200120 ha superato l’obiettivo pre-fissato. Infatti i quantitativi recuperati e ricicla-ti hanno raggiunto le 259 kt (tabella 10a). Aseguito della stipula dell’accordo conANCI21, il Consorzio, deve provvedere aduna verifica del rifiuto ferroso all’atto del con-ferimento presso la piattaforma, applicando icorrispettivi riportati nella tabella 10 b.Per quanto riguarda l’incenerimento deiRU, è necessario sottolineare che gli imbal-laggi in acciaio possono essere intercettatinelle operazioni di selezione e nelle CP.

156 COMPLESSITÀ & SVILUPPO 2003

VITO IABONI, PASQUALE DE STEFANIS

Tabella 9Andamento immessoal consumo imballag-gi in acciaio

Tabella 10aRiciclo imballaggi inacciaio (2001)

Fonte: CNA20

Fonte: CNA20

* previsione

Anno 1998 1999 2000 2001 2002

t/anno 600.000 618.000 600.000 554.000 560.000*

Fonte: CNA21

Frazioni estranee Corrispettivo Oneri di smaltimento

Fino al 5% 68,21 CNA

> 5% al 10% 58,36 Convenzionato

> 10% al 15% 49,58 Convenzionato

> 15% al 20% 32,02 Convenzionato

Oltre 20,1% -- Convenzionato facoltà per CNA di respingere

Immesso al consumo Operatore Quantità(t) (t)

554.000 CNA 165.211

Altri operatoriextra CNA 94.274

Totale recupero 259.485

Tabella 10bCorrispettivi ed oneridi smaltimento dellefrazioni estranee

Infatti a seguito dell’Accordo stipulato conFederambiente e Assoambiente18, il CNAnel corso del 2000 ha eseguito un monito-raggio degli impianti d’incenerimento na-zionali relativamente alla presenza di tec-nologie di selezione del ferro ed ai quanti-tativi trattati, da cui emerge che il contenutostimato di materiali ferrosi presenti nellescorie sia di circa 31.000 t/anno.

Alluminio

Con il decreto legislativo 22/97 sono statirecepiti i contenuti della direttiva europea94/62 sugli imballaggi ed i rifiuti di imbal-laggio, con particolare riguardo ai materia-li derivanti dal post-consumo. L’art. 38 ditale decreto prevede che per adempiereagli obblighi previsti i produttori di imbal-laggio possono:• organizzare autonomamente la raccolta,

il riutilizzo, il riciclaggio ed il recuperodei rifiuti di imballaggio;

• aderire ad uno dei consorzi di cui all’art.40 del decreto legislativo 22/97;

• mettere in atto un sistema cauzionale.Per rispondere agli scopi sopra elencati èstato costituito il Consorzio ImballaggiAlluminio (CIAL), che raggruppa le mag-giori società produttrici di alluminio e dellesue trasformazioni in imballaggio.L’entità dell’alluminio utilizzato negli imbal-laggi è pari a circa 59.000 tonnellate annueed attraverso CIAL sono raggruppati i sog-getti convenzionati che per garantire la ge-stione degli imballaggi post-consumo sonodotati di impianti idonei alla separazionedell’alluminio e, ove ciò non sia possibile,attraverso processi di ossidazione con re-

cupero di energia.Dall’esame della figura 5, si può osservareche le quantità di rifiuti da imballaggio in al-luminio recuperate dal CIAL nell’anno200122, al netto degli scarti di selezione, am-montano a circa 23.200 tonnellate (39,7%).Nella tabella 11 a si riporta una classifica-zione per tipologie dei quantitativi d’imbal-laggio in alluminio immessi al consumonegli anni 2000 e 2001, estratta dalle dichia-razioni relative al contributo ambientale.Il CIAL ha apportato nel corso del 2001 mo-difiche al corpus degli accordi relativi allaRD ed al recupero degli imballaggi in allu-minio post-consumo, aggiungendo un ac-cordo per il ritiro dei tappi e capsule in allu-minio ed ampliando il campo di applicazio-ne dell’accordo sul recupero energetico alCDR ed alla frazione secca, effettivamenterecuperati in impianti autorizzati, che ven-gono di seguito esposti sinteticamente:

a) raccolta differenziata di qualità o selettiva –In data 27 luglio 2001 il Comitato diVerifica, di cui al punto 6 dell’accordoANCI-CONAI, ha determinato l’indice

157COMPLESSITÀ & SVILUPPO 2003

LA VALORIZZAZIONE DELLE SCORIE DI COMBUSTIONE DEI RIFIUTI URBANI

57.000 58.300 59.200 58.400

7.000

15.100 17.917 23.200

1998 1999 2000 2001

80.000

60.000

40.000

20.000

0

t/ann

o

Immesso al consumo Riciclato

Figura 5Riciclaggio d'imbal-laggi d'alluminio inItalia

Fonte: CIAL22

Tabella 11aImballaggi immessi alconsumo per tipolo-gia

Fonte: CIAL22

Anno 2000 Anno 2001

Tipologia Caratteristica t % t %

Lattine, bombole aerosol, scatole food Rigido 29.600 50 29.300 50,2

Vaschette food, tubetti, capsule a vite Semirigido 14.000 23,3 13.300 23,3

Flessibile food, poliacc. base alluminio Flessibile 6.800 11,5 7.200 12,3

Altri imball., non classificato, import pieni Non definito 9.900 16,7 9.400 16,1

Conguagli Non definito - 1.100 - 1,8 - 1.100 - 1,9

Totale 59.200 100 58.400 100

percentuale di adeguamento sulla basedel punto 9 dell’allegato tecnico CIAL.Tale indice è stato determinato pari al5,47%, pertanto i nuovi corrispettivi ade-guati al 31 dicembre 2000 sono riportati intabella 11b, lo stesso indice di aggiorna-mento è stato applicato al corrispettivo dipressatura che raggiunge così 40,80 q/t;

b) alluminio da scorie d’incenerimento – Inmerito all’accordo che prevede l’impe-gno di CIAL a ritirare e sottoporre l’allu-minio estratto dalle scorie d’inceneri-mento alle opportune operazioni di va-

questo settore riguarda il recupero degliimballaggi contenuti sia nei RU avviati al-l’incenerimento, sia nel CDR/frazionesecca. Il corrispettivo a fronte del recu-pero energetico del rifiuto di imballaggioin alluminio è pari a 51,61 s/t. Durante ilprocesso di combustione l’alluminio sot-tile (ad esempio quello dei poliaccoppia-ti) si ossida e restituisce l’energia in essocontenuta pari a 31 MJ/kg19; tuttavia lamaggior parte dell’alluminio presentenei rifiuti uscirà, miscelata alle ceneri,sottoforma di noduli, recuperabili tramiteun dispositivo a correnti indotte.

Gli imballaggi in alluminio post-consumoconferiti al CIAL sono avviati al riciclo nellefonderie (capacità di lavorazione circa700.000 t/anno) unitamente ai rottami d’allu-minio pari a circa 350.000 t/anno (50% dellacapacità di lavorazione), pertanto ciò rendeevidente la capacità di assorbimento diconsiderevoli quantità d’imballaggi.L’energia necessaria per produrre allumi-nio di prima fusione è pari a circa 60 MJ/kg;con il recupero di materiali, come compo-nenti d’auto, imballaggi, lattine ecc. nel pro-cesso di rifusione sono necessari 3 MJ/kg.

ConclusioniLa possibilità di riutilizzo delle ceneri pe-santi, e delle matrici in esse contenute re-cuperabili (ferro e alluminio), merita di es-sere esaminata soprattutto in relazione allepotenzialità d’assorbimento delle stesse daparte dei principali settori industriali inte-ressati al recupero ed in un contesto di mi-gliore compatibilità ambientale.A tal fine debbono essere affrontati tutti gliaspetti di natura tecnica ed economica re-lativi al recupero di tale materiale, quali:• l’accettazione delle CP richiede che per

qualsiasi soluzione debba essere verifi-cata la compatibilità con la normativa vi-gente per quanto riguarda gli aspetti chi-mico-fisici, i trasporti, nonché i vincoli dicarattere ambientale delle attività di pro-duzione alle quali sono destinabili;

158 COMPLESSITÀ & SVILUPPO 2003

VITO IABONI, PASQUALE DE STEFANIS

Fonte: CIAL22

Fascia di qualità % Corrispettivo 2000 J/t Corrispettivo 2001 J/t

Sino al 3% 361,52 381,15

> 3% sino al 5% 193,15 203,48

> 5% sino al 15% 165,78 175,08

Tabella 11bCorrispettivi per rac-colta differenziataper l'alluminio

Fonte: CIAL22

Tabella 11cCorrispettivi per l'al-luminio da scorie d’in-cenerimento

Fascia di qualità % Corrispettivo J/t

Sino al 15% 175,43

> 3% sino al 30% 154,94

> 30% sino al 50% 139,44

Fonte: CIAL22

Tabella 11dCorrispettivi la raccol-ta tappi e capsule inalluminio

Impurità % Corrispettivo J/t

dal 5 al 15 175,08

dal 16 al 20 131,27

dal 21 al 25 122,56

dal 26 al 30 113,84

dal 31 al 35 105,13

lorizzazione garantendo l’avvio a riciclo,CIAL si riconoscono corrispettivi comeriportato in tabella 11c;

c) raccolta tappi e capsule in alluminio – IlCIAL riconosce ai recuperatori del vetroun corrispettivo, variabile a coperturadei costi sostenuti per la raccolta deitappi e capsule in alluminio, determina-to sulla base delle quantità di impuritàpresenti nel materiale conferito e co-munque con frazione di vetro inferiore al10%, secondo la tabella 11d;

d) recupero energetico – L’accordo attivo in

• la fattibilità del processo di recuperodelle CP è condizionata dal soddisfaci-mento contemporaneo degli aspetti eco-nomici, tecnici e normativi per ciascuncampo d’impiego;

• l’affidabilità tecnica deve verificare chele caratteristiche chimico-fisiche delleCP dopo eventuali trattamenti siano talida essere idonee alla soluzione proget-tuale di destinazione;

• la convenienza economica sussiste quan-do i costi relativi al trasporto e al conferi-mento in discarica risultano superiori aquelli di trasporto e riutilizzo delle cene-ri, tenuto conto dei costi dell’impianto ditrattamento.

La soluzione tecnicamente più appropriatasembra essere la realizzazione di sistemi ditrattamento, in cui le sinergie di diverse tec-nologie impiantistiche tra loro integrate dianoluogo ad una riduzione complessiva dell’im-patto ambientale. In questo contesto anche itrattamenti per il recupero delle CP, in luogodel loro smaltimento in discarica, possonocomportare svariati benefici ambientali e mi-nore depauperamento del territorio.A tal proposito l’ENEA, tenuto conto dei ri-sultati soddisfacenti ottenuti oltralpe negliimpianti di valorizzazione delle CP, ha ela-borato un rapporto23 riguardo la fattibilitàtecnico-economica di un impianto per iltrattamento/recupero delle CP. L’analisieconomica a fronte dei costi (ammorta-mento, gestione, personale, manutenzioneecc.) portano alla definizione di un costounitario di recupero delle CP, valutabile incirca 34 y/t.Va evidenziato, non in ultimo, che rivesteparticolare importanza il valore aggiuntodelle CP, in quanto esse condizionano pe-santemente la convenienza economica del-l’investimento necessario per il loro recu-pero, rispetto al costo associato con il lorosmaltimento.

Bibliografia1. Decreto legislativo 5 febbraio 1997, n. 22 –

Attuazione delle direttive 91/156/CEE sui rifiuti,

91/689/CEE sui rifiuti pericolosi e 94/62/CEE sugliimballaggi e sui rifiuti di imballaggio.

2. La decisione 2000/532/CE del 3 maggio 2000 esuccessive decisioni di modifica hanno definito ilnuovo Catalogo Europeo dei Rifiuti e le regoleper il suo utilizzo. La decisione è entrata in vigorel’1.1.2002.

3. The European Commission – EUROSTAT Year-book 2001.

4. The European Commission – EUROSTAT – Gene-ral statistics (12-04-2002).

5. ANPA ONR – Rapporto Rifiuti 2001.6. ASSURRE (ASsociation for the Sustainable Use

and Recovery of Resources in Europe) –Incinération in Europe – Preparated for ASSURREby Juniper, ottobre 2000.

7. ADEME (Agence de l’Environnement et de laMaîtrise de l’Energie) – Déchets Municipaux: lesChiffres clés – 2e édition (Avril 2000) – Donnéeset références.

8. ADEME (Agence de l’Environnement et de laMaîtrise de l’Energie) – 1975-2000 Evolution dela gestion des déchets ménagers.

9. Ministère de l’Aménagement du Territoire et del’Environnement – Le parc des usines d’incinéra-tion d’ordures ménagères. Etax des lieux (30Janvier 2002).

10. Ministère de l’Environnement, Direction de laprévention des pollutions des risques – Service del’environnement industriel – Circulaire DPPR/SEI/BPSIED n. 94–IV-1 du 9 Mai 1994 relative àl’élimination des mâchefer d’incinération des ré-sidus urbains.

11. Office Parlamentaire d’Evaluations des ChoixScientifiques et Technologiques – Récyclage etvalorisation des déchets ménagers – Rapport 415(98-99).

12. ADEME-BRGM – Quel avenir pour les MIOM? –Premier colloque sur le sujet organisé parl’ADEME et le BRGM au BRGM à Orléans (Les 16,17 et 18 Octobre 2001).

13. Cercle Récyclage – Quel devenir pour les mâche-fers d’incinération d’ordures ménagères.

14. ANPA ONR – Secondo rapporto sui Rifiuti Urbanie sugli imballaggi e rifiuti di imballaggio (feb-braio 1999).

15. APAT ONR – Rapporto rifiuti 2002 (ottobre 2002).16. Sito web Federambiente.17. Il Consorzio Italiano Compostatori – GEA (n.

32/02) del 6 maggio 2002.18. Consorzio Nazionale Acciaio – Programma speci-

fico di prevenzione (2001).19. PRUVOST F. France Aluminium recyclage (Atti del

Seminario CIAL, Scorie da combustione, rifiuti ericiclaggi, 24 ottobre 2000 Roma).

20. Consorzio Nazionale Acciaio – Programma speci-fico di prevenzione (2002).

21. Consorzio Nazionale Acciaio – Convenzione perla gestione dei rifiuti di imballaggi ferrosi.

22. Consorzio Imballaggi Alluminio – Programmaspecifico di prevenzione (2002).

23. ENEA, UTS Protezione e Sviluppo dell’Ambiente edel Territorio, Tecnologie Ambientali, SezioneSviluppo Tecnologie Trattamento Rifiuti – V.Iaboni P. De Stefanis – Separazione e recuperodei metalli e valorizzazione delle scorie dei com-bustione dei rifiuti urbani (10-12-2002).

159COMPLESSITÀ & SVILUPPO 2003

LA VALORIZZAZIONE DELLE SCORIE DI COMBUSTIONE DEI RIFIUTI URBANI

160 COMPLESSITÀ & SVILUPPO 2003

&com

ple

ssità

svilu

ppo

Le attività umane stanno cambiando le capacitàtermiche dell’atmosfera, del suolo ed anche deglioceani. Se non intervengono nel prossimo futuro

azioni di inversione di queste tendenze, l’equilibrio delsistema climatico è destinato a cambiare in tempi

relativamente brevi rispetto alle naturali variazioni. Iltimore è che i tempi entro cui i temuti cambiamenti

climatici possano avvenire siano troppo ristretti perchégli ecosistemi viventi e l’ambiente possano adattarsi a

tali cambiamenti

VINCENZO FERRARAENEA

Progetto Speciale Clima Globale

Il clima prossimo venturoEvoluzione del clima ed impattidei cambiamenti climatici in Italia

2003 Tratto da: ENERGIA, AMBIENTE E INNOVAZIONE 5/03

La possibile minaccia di un cambiamentoclimatico globale nasce dalla osservazionedi alcuni sintomi di una malattia del pianetache è la crescita dell’effetto serra, ovverodel sommarsi di un effetto serra “non natu-rale”, provocato dalle attività umane, all’ef-fetto serra “naturale” dovuto alla presenzastessa dell’atmosfera (se non ci fosse l’at-mosfera la temperatura media del nostropianeta sarebbe di ben 19 °C sotto zero,mentre in realtà è di 15 °C sopra lo zero).L’aumento dell’effetto serra “non naturale”è collegato all’aumento di concentrazionein atmosfera di gas e composti provenientidalle attività umane, alcuni dei quali sonochiaramente identificabili perché non esi-stenti in natura (ad esempio i clorofluoro-carburi) ed altri che si sommano, invece, aquelli già esistenti in natura (ad esempiol’anidride carbonica).Le attività umane stanno cambiando le ca-pacità termiche dell’atmosfera, del suoloed anche degli oceani, introducendo fattoridi perturbazione energetica capaci di spo-stare l’equilibrio naturale esistente e le na-turali fluttuazioni di questo equilibrio. Inaltre parole, le attività umane stanno gene-rando un effetto serra aggiuntivo a quellonaturale, che tende a spostare tutti gli equi-libri del sistema climatico.I principali sintomi di questa interferenzasono di due tipi: sintomi direttamente colle-gabili alle attività umane, più evidenti apartire dall’inizio dell’era industriale (collo-cabile attorno al 1800) fino ad oggi quali lacrescente emissione in atmosfera di gas adeffetto serra, e sintomi desumibili indiretta-mente in base ai risultati delle osservazionisperimentali sul clima globale, quali gli an-damenti e le variazioni climatiche che fino-ra sono state misurate e studiate.Gli andamenti attualmente osservati nellosviluppo economico, nella crescita dellapopolazione, nell’uso dell’energia e dellerisorse naturali, sono tali che, se non inter-vengono nel prossimo futuro azioni di in-versione di queste tendenze, l’equilibriodel sistema climatico è destinato a cambia-

re in tempi relativamente brevi rispetto allenaturali variazioni. La preoccupazionemaggiore, infatti, non riguarda tanto il fattoche il clima possa cambiare a causa delleattività umane, quanto, invece, i tempi entrocui i temuti cambiamenti climatici possanoavvenire: tempi troppo ristretti perché gliecosistemi viventi e l’ambiente, compresol’ambiente antropico, possano naturalmen-te adattarsi a tali cambiamenti.Per quanto riguarda i sintomi collegati alleattività antropiche, è stato accertato quantosegue.

1) Le concentrazioni atmosferiche dei gasserra, fra cui l’anidride carbonica (CO2),il metano (CH4) ed il protossido di azoto(N2O), sono aumentate in modo signifi-cativo a partire dall’inizio della rivolu-zione industriale (databile intorno aglianni 1750-1800); in particolare la CO2 èpassata da circa 280 a quasi 370 ppmv(parti per milione in volume), il CH4 da700 a circa 1750 ppbv (parti per miliar-do in volume) e il N2O da 275 a circa315 ppbv. Gli idrocarburi fluorurati eclorurati (CFC), che non esistevano finoa circa la metà del ventesimo secolo,sono cresciuti in modo talmente rapidoin questi ultimi 50 anni che, oltre a costi-tuire una minaccia aggiuntiva all’effettoserra naturale, hanno minacciato (e di-strutto sopra l’Antartide) l’integrità dellafascia di ozono stratosferico. Anche leconcentrazioni di altri gas serra antro-pogenici, presenti in traccia nell’atmo-sfera, sono di pari passo aumentate.Molti di tali gas serra permangono lun-gamente nell’atmosfera (centinaia dianni), influenzando il clima per i secolifuturi.

2) L’attuale concentrazione di anidride car-bonica in atmosfera è la più alta che sisia mai verificata negli ultimi 420 milaanni e molto probabilmente (le verifichesono in corso) anche degli ultimi 20 mi-lioni di anni. La velocità di crescita del-

161COMPLESSITÀ & SVILUPPO 2003

IL CLIMA PROSSIMO VENTURO. EVOLUZIONE DEL CLIMA ED IMPATTI DEI CAMBIAMENTI CLIMATICI IN ITALIA

l’anidride carbonica in atmosfera (32%in 250 anni di cui ben 8% negli ultimi 20anni) è il più alto tasso di crescita degliultimi 20 mila anni. Il 70% circa dell’au-mento di anidride carbonica in atmosfe-ra è causato dalla combustione di com-bustibili fossili, il rimanente 30% è dovu-to ad altre cause tra cui la deforestazio-ne, l’uso del suolo e l’agricoltura.

3) Le concentrazioni atmosferiche di meta-no, che hanno avuto un tasso di crescitamedio del 250% in 250 anni, pur conti-nuando ad aumentare mostrano unaflessione nel tasso di crescita di questiultimi decenni, mentre gli idrocarburialogenati (tra cui i famosi CFC), cheavevano avuto una velocità di crescitadelle loro concentrazioni atmosferichemolto sostenuta negli ultimi 50 anni,sono in fase di diminuzione, grazieanche all’attuazione del Protocollo diMontreal per la protezione dell’ozonostratosferico.

4) La distruzione, soprattutto nella fascia in-tertropicale, di boschi e foreste è cre-sciuta ad un ritmo vertiginoso: boschi eforeste, infatti, attraverso i processi di fo-tosintesi, sottraggono anidride carboni-ca dall’atmosfera e la trasformano inbiomassa e, quindi, costituiscono di fattola principale fonte di assorbimento e diriciclo dell’anidride carbonica atmosfe-rica. Si valuta che negli anni più recenti,anche se ora sembra vi sia un certo ral-lentamento, sono state disboscate, ognianno, superfici medie territoriali diestensione complessiva paragonabile aquella del territorio della Svizzera.

5) Il ritmo di trasformazione della superfi-cie terrestre da parte degli esseriumani, sia a causa della crescita demo-grafica, sia per lo sviluppo delle attivitàeconomiche e industriali, è in forte au-mento e ciò è causa di variazione del bi-lancio energetico complessivo del siste-

ma climatico. In particolare, l’intensa edestesa urbanizzazione, che sta aumen-tando in modo vertiginoso soprattuttonei Paesi in via di sviluppo, gli usi inten-sivi del suolo per l’agricoltura, l’inquina-mento terrestre e marino e le altre atti-vità umane sono stati, in quest’ultimo se-colo, tali da aver modificato sia le capa-cità di assorbimento terrestre dell’ener-gia solare incidente e le capacità di ri-flessione (albedo) verso lo spazio dellaradiazione solare, sia anche le capacitàdi emissione termica del suolo e di ir-raggiamento terrestre verso lo spazio.

6) Attualmente l’effetto riscaldante com-plessivo indotto come effetto serra “nonnaturale” è pari a circa 2,8 watt/m2, dicui: anidride carbonica pari a +1,5watt/m2; metano pari a +0,5 watt/m2;protossido di azoto pari a +0,1 watt/m2;idrocarburi alogenati pari a +0,4watt/m2; ozono stratosferico pari a –0,2watt/m2; ozono troposferico pari a +0,4watt/ m2; emissioni inquinanti da aerei dilinea pari a +0,1 watt/ m2 (il segno + in-dica riscaldamento, il segno – indica raf-freddamento).

7) L’aumento degli aerosol troposferici edegli inquinanti urbani e industriali pro-dotti dall’uso di combustibili fossili, dallacombustione di biomasse e da altre fontihanno prodotto, invece, una retroazionenegativa, vale a dire una diminuzionedell’effetto serra, diminuzione che è, co-munque, di modesta entità. Il contributonegativo all’effetto serra (raffreddamen-to) è pari complessivamente a circa –0,3watt/m2, di cui –0,5 watt/m2 sono dovutiagli inquinanti atmosferici di origine an-tropica, +0,2 watt/m2 sono dovuti ad ae-rosol carboniosi (fuliggine, nerofumo, in-combusti ecc.) e –0,2 watt/m2 ad altritipi di aerosol atmosferici (il segno + in-dica effetto riscaldante, il segno – indicaeffetto raffreddante). L’inquinamento at-mosferico e gli aerosol antropogenici

162 COMPLESSITÀ & SVILUPPO 2003

VINCENZO FERRARA

hanno una vita media piuttosto brevenell’atmosfera, a differenza dei gas serrache hanno di norma una vita mediamolto lunga; pertanto, questo contributonegativo all’effetto serra varia veloce-mente in funzione degli aumenti o delleriduzioni delle relative emissioni.

8) Esistono altri fattori che fanno oscillare leprecedenti valutazioni e sono legate allavariabilità dell’intensità della radiazionesolare (che è risultata in aumento soprat-tutto nella prima parte del ventesimo se-colo) ed alla variabilità dell’albedo terre-stre globale (anche l’albedo complessi-va terrestre è aumentata in quest’ultimosecolo). Poiché queste due variabilità,che sono dell’ordine del 10-20% dell’ef-fetto serra “non naturale”, tendono acompensarsi, non cambiano in definitivai bilanci totali sopradetti. Di conseguen-za tra effetto riscaldante dei gas di serraed effetto raffreddante di inquinanti edaerosol antropogenici, il risultato com-plessivo di riscaldamento globale dovu-to alle attività umane è valutato attorno ai2,5 watt/m2, un valore che è all’incircapari all’1% dell’effetto serra naturalmen-te presente nell’atmosfera terrestre.

Le tendenze climatiche in atto alivello globaleI recenti studi sul sistema climatico hannomesso in evidenza che il clima del nostropianeta sta subendo, soprattutto in questiultimi decenni, alcuni cambiamenti che po-trebbero portare, se le attuali tendenze disviluppo socio-economico e di uso dellerisorse naturali non venissero modificate, avariazioni profonde ed irreversibili sia del-l’ambiente sia della stessa società umananei prossimi 50-100 anni. Allo stato attualedelle conoscenze scientifiche e sulla basedei più recenti risultati acquisiti da lPCC(Intergovernmental Panel on ClimateChange) abbiamo il seguente quadro divariazioni accertate.

Cambiamenti della temperatura delpianeta

La temperatura media globale del nostropianeta è aumentata di un valore compresofra 0,4 e 0,8 °C a partire dalla fine del 1800.I più rilevanti aumenti di temperatura sonoavvenuti principalmente in due periodi:

a) nel periodo compreso fra il 1910 ed il1945;

b) nel periodo attuale che va dal 1976 aigiorni nostri.

Il riscaldamento globale del primo periodo(1910-45) è stato concentrato, in modomolto marcato, soprattutto nella regione delnord Atlantico (inclusa Europa e nordAmerica). In questa regione ha fatto peròseguito, tra il 1946 ed il 1975, un persisten-te raffreddamento non riscontrato in altreparti del pianeta. Nel secondo periodo (trail 1976 ed oggi) il maggior riscaldamentoha riguardato complessivamente tutto l’e-misfero nord, ma in particolare le medie edalte latitudini delle zone continentali. Il ri-scaldamento dell’emisfero sud si è manife-stato, invece, in modo molto meno marcato.Tuttavia, complessivamente, il tasso di ri-scaldamento in quest’ultimo periodo èstato particolarmente elevato e pari a circa0,2 °C per decennio. Se si analizzano indettaglio gli andamenti delle temperatureminime e massime (giornaliere, mensili edannuali) si nota che il riscaldamento globa-le del nostro pianeta non era dovuto tantoall’aumento delle temperature massime,ma dovuto essenzialmente all’aumentodelle temperature minime il cui tasso dicrescita è stato doppio di quello delle tem-perature massime.

Scioglimento dei ghiacci

Per quanto riguarda i ghiacci della calottaantartica, non appare evidente alcuna corre-lazione tra aumento della temperatura glo-bale e scioglimento dei ghiacci antartici, apartire dal 1970, da quando cioè si hannodati attendibili in proposito. I dati esistentimostrano che i ghiacci antartici sono rimasti

163COMPLESSITÀ & SVILUPPO 2003

IL CLIMA PROSSIMO VENTURO. EVOLUZIONE DEL CLIMA ED IMPATTI DEI CAMBIAMENTI CLIMATICI IN ITALIA

piuttosto stabili. Per quanto riguarda i ghiac-ci artici, invece, è stata notata una certa ri-duzione in questi ultimi decenni, una ridu-zione che ha interessato anche il ghiacciomarino delle alte latitudini. Infine, per quan-to riguarda i ghiacciai delle medie latitudinila tendenza è una riduzione delle dimen-sioni e delle estensioni dei ghiacciai.Questa tendenza è particolarmente eviden-te nei ghiacciai alpini e in quelli delle cate-ne montuose delle medie e basse latitudinidell’emisfero nord (Hymalaia, Ande,Kilimangiaro ecc.).

Precipitazioni e siccità

Le precipitazioni, intese come precipitazio-ni totali annue, sono in aumento soprattuttonell’emisfero nord e particolarmente nelleregioni delle medie ed alte latitudini.Nell’emisfero sud, invece, non si notano va-riazioni significative, né si osservano ten-denze in atto. Infine, nelle regioni subtropi-cali vi è una chiara tendenza alla diminu-zione, tendenza che coinvolge anche le re-gioni limitrofe delle medie latitudini. In ef-fetti, i fenomeni di aumento della siccitàsono particolarmente evidenti nella regio-ne del Sahel (dove a partire dal 1970 si èsempre di più aggravata), nell’Asia orienta-le e nel sud Africa. Aumento dei fenomenisiccitosi si sono avuti anche in aree limitro-fe, quali la parte più estrema del sudEuropa (Spagna, Italia meridionale, Grecia,Turchia) e la parte meridionale degli StatiUniti. Tuttavia, in tutte queste aree, molti deifenomeni siccitosi derivano anche dalcomportamento anomalo di “el niño”, dicui si parlerà successivamente.

Circolazione atmosferica edoceanica

Esistono due fenomeni periodici e ricor-renti della circolazione atmosferica edoceanica che negli ultimi decenni hannosubito delle modifiche: il fenomeno diENSO (El Niño Southern Oscillation), dettopiù brevemente “el niño”, ed il fenomenodella NAO (North Atlantic Oscillation). Per

quanto riguarda “el niño”, va rilevato che ilsuo comportamento è particolarmente in-solito a partire dal 1970. Non sono ancorachiare le cause di tale insolito comporta-mento. In ogni caso si è osservato che siala frequenza sia la intensità di “el niño”sono in aumento, mentre vi è una diminu-zione (in frequenza ed intensità) dei feno-meni opposti di “la niña”. Per quanto ri-guarda la NAO, pur essendo meno eviden-te di “el niño”, va rilevato che essa è ac-coppiata con la circolazione delle correntioceaniche del nord Atlantico e con la circo-lazione generale dell’atmosfera della zonaartica. Tale accoppiamento in questi ultimianni ha dato luogo con maggior evidenzaad un rafforzamento sia della ciclogenesidei cicloni extratropicali, sia delle correntiaeree, delle burrasche e dell’intensità deiventi associati alle perturbazioni meteoro-logiche di origine atlantica.

Eventi meteorologici estremi

In questo contesto è necessario distingue-re tra precipitazioni estreme (piogge allu-vionali), temperature estreme (sia calde siafredde) e tempeste (quali cicloni, tornadoecc.). Per quanto riguarda le precipitazioniestreme, le valutazioni IPCC mostrano chenelle regioni del pianeta dove le precipita-zioni totali annue sono in aumento, risultanoin aumento anche la frequenza delle piog-ge a carattere alluvionale. In particolare, inqueste zone le piogge tendono in generalead avere una intensità maggiore e una du-rata minore. Tuttavia, ci sono anche delleeccezioni come le regioni dell’Asia orien-tale dove, pur essendo le precipitazioni to-tali annue in diminuzione, sono invece inaumento i fenomeni di precipitazioni estre-me o a carattere alluvionale.Per quanto riguarda le temperature estre-me i dati attuali mostrano che non sembraesserci un aumento della frequenza delletemperature massime (estremi di caldo)ma appare, invece, evidente una diminu-zione della frequenza delle temperatureminime (estremi di freddo). Ciò, comun-

164 COMPLESSITÀ & SVILUPPO 2003

VINCENZO FERRARA

que, non esclude il fatto che, indipendente-mente dalla frequenza, i singoli picchi dicaldo o di freddo possano talvolta raggiun-gere anche valori record. Infine, un discor-so a parte va fatto per le tempeste. A livelloglobale non appare evidente che in questiultimi decenni vi siano stati aumenti nellafrequenza dei cicloni tropicali (e delle tem-peste ad essi associati: gli uragani, i tifoni, itornado ecc.), né nella frequenza di quelliextratropicali, anche se i danni derivanti datali tempeste appaiono in aumento.Pertanto, pur non essendo variata la fre-quenza, sembrerebbe aumentata l’intensitào la violenza di tali tempeste. Tuttavia, nonessendo disponibili informazioni completee attendibili sulla intensità di questi eventiestremi, non è del tutto certo se i maggioridanni siano dovuti ad una aumentata inten-sità a parità di frequenza oppure ad unaaumentata, per le zone colpite, vulnerabi-lità ambientale e territoriale, a parità di in-tensità. Se si analizzano i fenomeni a livelloregionale si osserva che:a) il fenomeno di “el niño” ha portato ad un

aumento della frequenza e dell’intensitàdei cicloni tropicali originati sul Pacificoe ad una diminuzione dei cicloni extra-tropicali generati sull’Atlantico per glianni successivi al 1970 e fino ai nostrigiorni;

b) la frequenza e l’intensità dei cicloni diorigine atlantica è oscillante (periodi incui appare un aumento, alternati a pe-riodi in cui appare una diminuzione), aseconda dei decenni oggetto di osser-vazioni, ma sul lungo periodo non si os-servano tendenze certe;

c) la frequenza e l’intensità dei cicloni ori-ginati sull’Oceano Indiano è molto varia-bile senza alcuna tendenza né all’au-mento, né alla diminuzione.

Le tendenze climatiche in atto inItaliaL’Italia dispone di un rilevante patrimoniodi documentazione storica sulle caratteri-

stiche meteorologiche di molte località ita-liane. Dati ed informazioni, opportunamen-te interpretate ed elaborate hanno permes-so di realizzare un quadro dell’evoluzionedel clima e valutare i cambiamenti in atto inuna prospettiva di lungo periodo. Le seriesecolari più lunghe ed affidabili (1865-2000) provengono dalle stazioni UCEA edai Servizi Idrografici, mentre quelle de-cennali (1951-2000) rilevate secondo gli“standard” internazionali della WorldMeteorological Organization sonodell’Aeronautica Militare.

Variazioni di temperatura in Italia

Le analisi delle serie storiche italiane, chesono circa 40, relative al periodo 1865-1996 indicano che:• le temperature massime e minime men-

sili sono aumentate in modo diversonelle diverse regioni, ma soprattutto fraItalia settentrionale ed Italia centro-meri-dionale;

• la temperatura massima è aumentata nelperiodo di osservazione (1865-2000) dicirca 0,6 °C nelle regioni del nord Italia edi 0,8 °C nelle regioni del centro-sud;

• la temperatura minima è aumentata dicirca 0,4°C nelle regioni del nord e 0,7°nel centro-sud;

• l’inverno è la stagione nella quale le tem-perature massime e minime sono au-mentate maggiormente in tutte le regioniitaliane.

• per le regioni dell’Italia centro-meridio-nale, a partire dal 1930, si riscontra inol-tre una tendenza al progressivo aumentodella evapotraspirazione e, di conse-guenza, dei processi di aridità, a causadella concomitanza sia dell’incrementodelle temperature, sia della progressivariduzione delle precipitazioni, anche sele informazioni sulle precipitazioni sonoda ritenersi meno affidabili nel periodocompreso fra il 1930 ed il 1950.

Il quadro generale degli andamenti delletemperature osservate in Italia mostra ca-ratteristiche analoghe a quelle medie os-

165COMPLESSITÀ & SVILUPPO 2003

IL CLIMA PROSSIMO VENTURO. EVOLUZIONE DEL CLIMA ED IMPATTI DEI CAMBIAMENTI CLIMATICI IN ITALIA

servate a livello globale, ma con accentua-zione dei fenomeni di riscaldamento e deiprocessi di aridità per le regioni centro-meridionali.

Variazioni di precipitazioni in Italia

Le serie storiche italiane più affidabili inquesto campo non risalgono al secoloscorso, come nel caso della temperatura,ma sono più recenti e riguardano settanta-cinque serie di precipitazioni giornaliererelative al periodo dal 1951-1996, dallequali si evidenzia che in questi ultimi 50anni circa:• le precipitazioni totali sono diminuite in

tutto il territorio nazionale con maggioririduzioni nelle regioni centro-meridiona-li, rispetto a quelle settentrionali;

• il numero complessivo dei giorni dipioggia in tutto il territorio nazionale èdiminuito di circa 14% senza significativevariazioni fra regioni settentrionali e re-gioni centro-meridionali;

• a livello stagionale si riscontra, in gene-rale e per tutte le regioni, che la riduzio-ne dei giorni di pioggia è molto più ele-vata nella stagione invernale rispetto allealtre stagioni;

• a livello stagionale si riscontra inoltre unatendenza, generale e per tutte le regioni,all’aumento dell’intensità delle precipita-zioni e ad una diminuzione della loro du-rata;

• l’aumento dei fenomeni siccitosi riguardatutte le regioni italiane, ma la persistenzadei periodi di siccità è diversamente di-stribuita: nelle regioni settentrionali lapersistenza è maggiore in inverno, men-tre nelle regioni meridionali la persisten-za è maggiore in estate.

Gli andamenti osservati in Italia sono soloparzialmente analoghi con gli andamentiosservati a livello globale. Ciò è dovuto allaparticolare climatologia della regione me-diterranea e all’evoluzione a più grandescala che sta subendo tale climatologia.Infatti, gli studi in corso mostrano una varia-zione della frequenza e della persistenza

dei cicloni extratropicali sul bacino delMediterraneo ed una accelerazione dellavelocità e della intensità del ciclo idrologi-co complessivo mediterraneo.

Variazione del livello del mare

Quantunque a livello globale, a partire dal1900, il livello medio del mare è andatoprogressivamente aumentando (circa 0,2mm/anno) con un’accentuazione della cre-scita in questi ultimi anni (circa 0,7mm/anno), tuttavia il mar Mediterraneo (equindi anche i mari italiani), presenta com-portamenti anomali rispetto agli oceani.Dopo una fase iniziale di innalzamento pro-gressivo del livello, analogo a quello osser-vato a livello globale, sono apparse anoma-lie nei tassi di crescita, particolarmente evi-denti negli ultimi 30 anni, ma soprattutto inquesti ultimi 15 anni durante i quali il livellomarino è rimasto stazionario o ha mostratoaddirittura sintomi di diminuzione. Questoandamento recente, se paragonato conquello della media degli oceani impliche-rebbe necessariamente la formazione inatto di una sorta di “scalino” che dovrebbeformarsi presso lo stretto di Gibilterra eche gli studi in corso stanno cercando diverificare e spiegare. Attualmente le ipotesiin esame sono le seguenti:• il livello del mar Mediterraneo non cre-

sce come quello degli oceani a causadelle anomalie nella dinamica dell’atmo-sfera, che hanno colpito in modo partico-lare il Mediterraneo: infatti, poiché è va-riata la frequenza e l’intensità dei cicloniextra tropicali e sono aumentate in nu-mero ed intensità le situazioni anticiclo-niche sul Mediterraneo (alte pressioni),la pressione atmosferica sulla superficiedel mare è mediamente più alta, e que-sto comporterebbe, per un mare chiusocome il mediterraneo uno “schiaccia-mento” non trascurabile verso il bassodella superficie marina stessa;

• il livello del Mar Mediterraneo non cre-sce come quello degli oceani a causadelle anomalie del ciclo idrologico com-

166 COMPLESSITÀ & SVILUPPO 2003

VINCENZO FERRARA

plessivo del bacino mediterraneo: infatti,da una parte è aumentata l’evaporazionedelle acque mediterranee (a causa delriscaldamento globale) e dall’altra è di-minuito l’apporto idrico dei fiumi e delleacque interne (a causa della riduzionedelle precipitazioni): tutto ciò porta siaad una crescita della salinità delMediterraneo, sia ad una diminuzionedel livello marino. Gli apporti di acquaatlantica attraverso lo stretto di Gibilterranon riescono a compensare le perditeper evaporazione e minor apporto flu-viale, perché la maggior acqua salatapresente nel Mediterraneo, e che dalMediterraneo tende a riversarsi nel-l’Atlantico (acqua più pesante), impedi-rebbe all’acqua atlantica meno salata (epiù leggera) di penetrare attraverso lasezione, alquanto angusta, dello stretto diGibilterra nel Mediterraneo a flussi suffi-cienti per compensare le perdite.

Risorse idriche

Le stime più recenti (campagne di studiodella Conferenza Nazionale delle Acque)valutano che l’apporto complessivo dellepiogge sul territorio nazionale è di circa300 miliardi di metri cubi per anno e si di-stribuisce in modo disomogeneo fra nord(41%), centro (26%), sud (20%) ed isole(6%). L’evapotraspirazione riduce drastica-mente questo apporto tanto che la risorsanetta effettivamente disponibile viene sti-mata essere di poco superiore ai 50 miliar-di di metri cubi per anno suddivisa inacque sotterranee (per circa 10-25%) eacque superficiali (75-90%): un quartocirca delle acque superficiali viene raccol-ta in invasi naturali ed artificiali.Gli utilizzatori delle risorse idriche dispo-

nibili sono fondamentalmente le regionisettentrionali (per il 65%), mentre le regio-ni centrali e meridionali ne hanno a dispo-sizione molto meno (il 35%). Il principaleconsumatore di acqua in tutte le regioni è ilsettore agricolo, le cui esigenze vengonosoddisfatte al nord utilizzando direttamente

le acque superficiali, mentre al sud e nelleisole utilizzando soprattutto gli invasi artifi-ciali. L’uso potabile ai fini civili viene soddi-sfatto utilizzando prevalentemente acquesotterranee ma al sud acquista importanzafondamentale l’uso delle acque di invasiartificiali. Questo bilancio idrologico, trac-ciato a grandi linee, sta subendo delle mo-difiche perché gli apporti complessivi chevengono dalle precipitazioni meteorichemostrano la tendenza alla diminuzione, piùaccentuata nell’Italia meridionale rispettoal nord Italia, mentre gli utilizzi dell’acquada parte delle attività umane sono in co-stante aumento, con una situazione di cre-scente criticità nelle regioni meridionali enelle isole.

Variazione qualità dei suoli e rischiodesertificazione

Le analisi complessive sui suoli della regio-ne mediterranea mostrano che molte dellearee più meridionali dell’Europa e granparte di quelle del nord Africa sono, già datempo, soggette ad una crescente pressio-ne antropica sulle risorse naturali, allaquale si aggiungono ora anche i cambia-menti del clima: tutto ciò sta determinandouna riduzione della produttività biologicaed agricola e ad una progressiva perdita dibiodiversità degli ecosistemi naturali. InItalia, il fenomeno è particolarmente evi-dente nelle regioni meridionali ed insulari,dove l’aridità dei suoli è aumentata a parti-re dal 1900, ma soprattutto in questi ultimidecenni, sia in termini di estensione dellearee interessate, sia in termini di intensità.Le aree aride, semi-aride e sub-umidesecche, che si trasformano poi in aree de-gradate, interessano attualmente il 47%della Sicilia, il 31,2% della Sardegna, il 60%della Puglia, ed il 54% della Basilicata.Tuttavia, al degrado del suolo hanno contri-buito anche le modalità di uso del suolo edi cambiamenti di uso del suolo, come adesempio politiche a sostegno dell’agricol-tura non sempre adatte alle specificità ter-ritoriali, l’impiego irriguo di risorse idriche

167COMPLESSITÀ & SVILUPPO 2003

IL CLIMA PROSSIMO VENTURO. EVOLUZIONE DEL CLIMA ED IMPATTI DEI CAMBIAMENTI CLIMATICI IN ITALIA

non sempre idonee, il disboscamento e lacrescita degli incendi boschivi, la concen-trazione dell’urbanizzazione nelle aree co-stiere.Fattori derivanti da cambiamento del climae fattori di origine antropica hanno com-plessivamente innescato alcuni processiche sono stati identificati come principalecausa del degrado del suolo italiano, e di ri-schio di desertificazione nell’Italia meridio-nale; tali processi sono: l’erosione, la saliniz-zazione, la perdita di sostanza organica el’impermeabilizzazione.

Gli scenari futuri per l’Europa e ilMediterraneoLe valutazioni degli scenari di cambiamen-to climatico e di conseguenze dei cambia-menti climatici in Europa ed in particolarenell’area mediterranea non sono allo statoattuale delle conoscenze, abbastanza detta-gliate da renderle sicuramente affidabili,essendo affette da errori che dipendono siadai modelli e dalle metodologie utilizzatesia dagli scenari di evoluzione dello svilup-po socio economico e delle emissioni an-tropiche di gas di serra.Tenendo conto delle incertezze, vengonodi seguito riportate le tendenze future piùprobabili in relazione alla sensibilità dei si-stemi ambientali e socioeconomici europeied alle capacità di adattamento di tali siste-mi alle variazioni climatiche.L’Europa ed in particolare l’area mediterra-nea sia a causa della complessità dei siste-mi ambientali, umani, sociali ed infrastrut-turali, sia a causa della peculiarità delle ca-ratteristiche degli ecosistemi naturali e delpatrimonio storico, artistico e culturale,possiede già attualmente una vulnerabilitàaccentuata verso gli eventi estremi nonsolo di tipo meteorologico (alluvioni, inon-dazioni, siccità ecc.), ma anche di tipo na-turale (terremoti, stabilità geologica edidrogeologica ecc.).I futuri cambiamenti climatici prevedibilimodificheranno tale vulnerabilità e porte-

ranno conseguenze che, rispetto alla situa-zione attuale, in alcuni casi si aggraveran-no, in altri si attenueranno.I problemi prioritari che dovranno affronta-re i Paesi dell’Europa meridionale, ed inparticolare i Paesi del Mediterraneo, sonocosì sintetizzabili:

a) gli eventi meteorologici ed idrologiciestremi ed in particolare la differenza fraabbondanza e scarsità d’acqua fra norde sud Europa e, per l’Italia, fra nord esud Italia. Questo problema non è sem-plicemente una questione di bilancioidrologico, ma ha profonde implicazionisull’agricoltura, la produzione industria-le, l’urbanizzazione, il turismo, la salutee non ultimo il settore assicurativo;

b) lo spostamento verso nord di tutti i siste-mi ecologici ed ambientali naturali chepotrebbe portare a profonde modifiche,anche del paesaggio, in tutta Europacon effetti positivi nel nord Europa ed ef-fetti negativi nel sud Europa ed in Italia,soprattutto nei settori dell’agricoltura,del turismo e tempo libero, nel settoreresidenziale;

c) le ripercussioni secondarie connessecon le conseguenze dei cambiamenticlimatici, quali la perdita della biodiver-sità e i rischi di desertificazione che inte-resserebbero soprattutto il sud Europa el’area mediterranea. Ripercussioni nontrascurabili si avrebbero anche nel cam-po economico a causa delle modifichedelle opportunità di sviluppo per i variPaesi europei, ma anche fra le varie re-gioni italiane, soprattutto per quanto ri-guarda le iniziative economiche, l’occu-pazione e la distribuzione della ricchez-za, opportunità che, a loro volta, coinvol-gerebbero anche problemi di equità frale popolazioni europee.

Per quanto riguarda i possibili cambia-menti, la situazione che si prospetterebbeviene qui di seguito sintetizzata in dettaglioin relazione ai vari fattori climatici ed aiprincipali impatti prevedibili.

168 COMPLESSITÀ & SVILUPPO 2003

VINCENZO FERRARA

Temperatura

La temperatura media annuale tenderà acrescere ad un ritmo compreso fra 0,1° e0,4 °C per decennio e tale crescita risul-terà più marcata sull’Europa nord orientale(in particolare la penisola scandinava e laRussia occidentale) e sul Mediterraneo (inparticolare Spagna, Italia e Grecia), mameno marcata nell’Europa nord occidenta-le (in particolare: isole britanniche eFrancia). A livello stagionale, invece, il ri-scaldamento invernale sarà più accentuatolungo una direzione ovest-est che vadall’Europa centrale a quella orientale(dalla Francia alla Russia), mentre il riscal-damento estivo sarà più marcato lungo unadirezione nord sud che va dalla Scan-dinavia all’Italia. Inoltre tenderà a diminuiresia la lunghezza della stagione invernale,sia la frequenza degli estremi di freddo ininverno. Viceversa, tenderà ad aumentaresia la lunghezza della stagione estiva, sia lafrequenza degli estremi di caldo in estate.

Precipitazioni

L’andamento generale previsto per le pre-cipitazioni annue future mostra:• un aumento delle precipitazioni ad un

ritmo compreso fra 1 e 2% per decennioper quanto riguarda il nord Europa;

• una diminuzione delle precipitazioni adun ritmo pari a circa 1% per decennioper quanto riguarda il sud Europa ed inparticolare l’area mediterranea;

• un carattere ambiguo per quanto riguar-da il centro Europa ed in particolare l’a-rea compresa fra Francia ed Ungheria.

L’andamento stagionale delle precipitazio-ni mostra una differenziazione ancor piùmarcata nelle varie regioni europee. Inparticolare:• la maggior parte dell’Europa diventerà

più piovosa in inverno (ad eccezione deiBalcani e della Turchia che viceversa di-ventano più secchi) e più secca in estate(ad eccezione della Scandinavia che vi-ceversa diventa più piovosa);

• in inverno la maggiore piovosità si con-centrerà soprattutto lungo le zone pro-spicienti l’asse centrale europeo che vada ovest ad est (dalla Francia allaRussia);

• in estate invece si manifesterà un fortegradiente lungo un asse nord-sud (dallaScandinavia all’Italia) con forte aumentosiccità nell’area mediterranea (diminu-zione delle piogge estive del 5% per de-cennio), e con un discreto aumento delleprecipitazioni nel nord Europa (aumentodelle piogge del 2% per decennio).

Eventi estremiLa previsione dell’intensità e della frequen-za futura degli eventi meteorologici estremiè molto difficile ed i risultati vanno conside-rati come indicativi. È quindi molto proba-bile che aumenti sia la frequenza che l’in-tensità di molti fenomeni estremi ed in par-ticolare:• delle onde di calore in estate su tutta

l’Europa;• delle precipitazioni estreme (alluvioni)

su tutta l’Europa, soprattutto d’inverno;• della mancanza prolungata di precipita-

zioni (siccità) sull’Europa meridionale,soprattutto d’estate.

Il probabile aumento della frequenza e del-l’intensità degli eventi meteorologici estre-mi porterà ad un aumento dei danni eco-nomici e sociali sulle strutture ed infrastrut-ture residenziali e produttive, la cui entitàdipende sia dalla vulnerabilità delle singo-le strutture ed infrastrutture, sia dalla vulne-rabilità ambientale e territoriale comples-sivamente esistente. La crescita di eventiestremi, potrebbe incidere anche diretta-mente sulle attività produttive modificandole opportunità di alcuni mercati e la do-manda di alcuni prodotti.

Risorse idricheL’attuale pressione antropica sulle risorseidriche, ed in particolare il loro uso e la lorogestione, tenderà a diventare più acuta coni cambiamenti climatici. I rischi da alluvioni

169COMPLESSITÀ & SVILUPPO 2003

IL CLIMA PROSSIMO VENTURO. EVOLUZIONE DEL CLIMA ED IMPATTI DEI CAMBIAMENTI CLIMATICI IN ITALIA

e da inondazioni tenderanno ad aumenta-re, e aumenteranno anche i rischi di dispo-nibilità di adeguate risorse idriche, in parti-colare nel sud Europa e nell’area mediter-ranea. I cambiamenti climatici tenderannoad aumentare le differenze tra nord e sudEuropa (eccesso di acqua nel nord Europa,mancanza d’acqua nel sud Europa).

La qualità dei suoli

La qualità dei suoli tenderà a deteriorarsi intutta l’Europa. In particolare, nel nordEuropa il deterioramento potrà essere pro-vocato principalmente dal maggior dilava-mento dei suoli a causa della crescita delleprecipitazioni e dei maggiori rischi di allu-vione, mentre nel sud Europa, al contrario,il deterioramento potrà essere provocatodal degrado dei suoli da erosione e perditadi nutrienti a causa dalla diminuzione delleprecipitazioni e dai maggiori rischi di sic-cità. Il degrado a sua volta accrescerà il ri-schio di desertificazione. Con l’aumentodella temperatura saranno probabili feno-meni di deglaciazione in alta montagna. Isuoli, ma soprattutto i pendii e versanti libe-ri da ghiacci perenni, saranno più soggettia processi franosi.

Ecosistemi

L’aumento della temperatura media e lacrescita delle concentrazioni di anidridecarbonica in atmosfera sono in grado dicambiare gli equilibri degli ecosistemi na-turali con modifiche anche nel paesaggio.Pertanto, la vegetazione e gli ecosisteminaturali più tipici dell’area mediterraneatenderanno a spostarsi verso il centroEuropa, così come le foreste di conifere equelle tipiche boreali delle medie latitudinipotrebbero prendere il posto della tundra,presente attualmente alle più alte latitudinidell’Europa.Nell’area mediterranea, invece, tenderannosia ad aumentare gli incendi boschivi, sia acrescere i rischi di perdita degli ecosistemie della biodiversità attuale. Le conseguen-ze si ripercuoteranno anche sulla fauna e

soprattutto su quella migratoria.Si valuta che complessivamente la produt-tività primaria tenderà a crescere (maggio-re presenza di biomassa), ma, salvo unafase transiente (espansione verso norddelle foreste), non cresceranno le riservecomplessive di carbonio (carbon sinks andcarbon stocks).

Agricoltura

L’aumento di anidride carbonica in atmo-sfera tenderà ad aumentare la produttivitàagricola soprattutto del nord e del centroEuropa. Nel sud Europa, invece, la riduzio-ne della disponibilità d’acqua e l’aumentodella temperatura tenderanno a portare, in-vece, ad un effetto opposto.Complessivamente, l’Europa non subireb-be modifiche significative nella produttivitàagricola totale, ma solo una sua diversa di-stribuzione. Infatti, dai cambiamenti clima-tici il nord Europa riceverebbe degli effettipositivi, mentre il sud Europa degli effettinegativi, che tenderebbero complessiva-mente a bilanciarsi.

Foreste

La risposta delle foreste ai cambiamenticlimatici presenterà due tendenze oppo-ste, una di diminuzione del patrimonio fo-restale causata dalla riduzione della dispo-nibilità idrica nelle aree del sud Europa edel Mediterraneo, e l’altra di espansionedella flora arborea e di allungamento delperiodo vegetativo nel nord Europa, doveci saranno più favorevoli condizioni di tem-peratura ed umidità dei suoli, oltre allamaggiore disponibilità di anidride carbo-nica per la fotosintesi.Nell’area mediterranea, ed in particolarenel sud Italia, in gran parte di Spagna,Grecia e Turchia, l’aumento previsto dell’a-ridità renderà le foreste più vulnerabili aifattori di disturbo biotici (attacchi batterici,parassitari ecc.) ed abiotici (siccità, incendiecc.) riducendone la resistenza e soprattut-to compromettendone la resilienza. Ciò

170 COMPLESSITÀ & SVILUPPO 2003

VINCENZO FERRARA

comporterà, in tali aree, anche una perditadi habitat e quindi di biodiversità.

Benessere umanoL’aumento della temperatura tenderà a mo-dificare anche l’uso del tempo libero dellapopolazione ed in particolare tenderà a sti-molare maggiori attività turistiche e ricrea-zionali all’aria aperta nel nord Europa ed aridurle, invece, nel sud Europa. Nell’areamediterranea in particolare, le più frequen-

ti ondate di calore e di siccità, insieme allaminore disponibilità di acqua, potrebberomodificare le attuali abitudini turisticheconcentrate soprattutto in estate, così comeil minor innevamento e la progressiva riti-rata dei ghiacciai potrebbe modificare e ri-durre l’abituale turismo invernale alpino.

Ambiente marino-costieroL’aumento del livello del mare comporteràmaggiori rischi per le zone costiere euro-

171COMPLESSITÀ & SVILUPPO 2003

IL CLIMA PROSSIMO VENTURO. EVOLUZIONE DEL CLIMA ED IMPATTI DEI CAMBIAMENTI CLIMATICI IN ITALIA

Che cos’è il clima

Il “clima” nell’opinione pubblica è percepito come una serie di statistiche meteorologiche. In realtà, ilclima è l’equilibrio energetico tra il flusso totale di energia entrante sul nostro pianeta, che è quasi to-talmente l’energia solare, ed il flusso totale di energia uscente dal nostro pianeta, che è in parte radia-zione solare riflessa dall’atmosfera, dal suolo e dalle nubi, ed in parte energia emessa o irraggiatadalla terra nel suo insieme. Prima di essere riemessa verso lo spazio, l’energia solare viene anche tra-sformata (per esempio: in calore e dimanica dell’atmosfera, dagli oceani) e rielaborata in varie forme(comprese le forme organiche). Pertanto, il clima è l’equilibrio di un sistema (detto sistema climatico)costituito dalle seguenti componenti: atmosfera, oceano, biosfera e geosfera (inclusa la criosfera ed isistemi idrogeologici continentali). Tali componenti interagiscono incessantemente fra loro scambian-dosi flussi di calore, flussi di energia, e flussi di materia attraverso due cicli fondamentali: quello del-l’acqua e quello del carbonio. L’equilibrio a scala globale costituisce il clima globale, l’equilibrio ascala regionale o locale costituisce rispettivamente il clima regionale o locale. Attualmente, le attivitàumane sono capaci di modificare le capacità di assorbimento o di emissione dei flussi energetici equindi sono in grado di modificare il clima.

Che cosa sono vulnerabilità e resilienza ai cambiamenti del clima

La vulnerabilità è la potenzialità o la possibilità che un determinato sistema (ambientale o umano)possa essere danneggiato rispetto ad una variazione del clima, possibilità determinata dall’incapacitàdi tollerare quella variazione. Ciò porta come conseguenza a modifiche anche irreversibili e a danni,la cui entità dipende dalla sensibilità ai cambiamenti del clima del sistema suddetto. La resilienza, in-vece, è la potenzialità o la possibilità che un determinato sistema possa resistere ad un danno, possi-bilità determinata dalle sue proprie capacità di elasticità o di recupero rispetto alla variazione delclima, la resilienza è, quindi, l’opposto della vulnerabilità. Vulnerabilità e resilienza rappresentano, in-fatti, le due facce di una stessa medaglia.

Che cosa è l’adattamento ai cambiamenti del clima

L’adattamento rappresenta gli aggiustamenti che i sistemi naturali e quelli umani effettuano, o sono ingrado di effettuare, in relazione ad una variazione del clima, al fine di riequilibrarsi alle mutate condi-zioni, o agli effetti di tali mutate condizioni. Si tratta di aggiustamenti, che da una parte tendono a mini-mizzare le conseguenze negative della variazione climatica e, dall’altra parte, a sfruttare le opportu-nità positive di tale variazione, aggiustamenti che nei sistemi ambientali naturali, in assenza di inter-vento umano, sono per lo più di tipo omeostatico. L’adattamento dipende dalle intrinseche capacitàche i sistemi considerati hanno di raggiungere un nuovo equilibrio più o meno analogo al preceden-te, ma adeguato alla nuova situazione. Le capacità di adattamento sono tanto maggiori quanto mag-giore è la resilienza del sistema considerato (o quanto minore è la sua vulnerabilità), e sono tantomaggiori quanto minore è la sensibilità di tale sistema alla variazione del clima. Di conseguenza, au-mentare o favorire l’adattamento di un sistema ai cambiamenti climatici significa prioritariamente di-minuire la vulnerabilità di tale sistema agli stessi.

pee del mediterraneo. In particolare, si va-luta che i maggiori problemi siano nellaperdita di zone umide alla foce dei fiumi,nell’invasione di acqua salata nelle faldecostiere di acqua dolce con conseguenzesull’agricoltura e sulla disponibilità diacqua dolce, ed infine, nella maggiore epiù rapida erosione delle spiagge basse edelle spiagge ottenute con opere di difesaidraulica delle coste o di zone bonificate.Nell’Europa settentrionale, le zone costierepiù esposte a rischio di inondazione sareb-bero quelle del mar Baltico ed in particola-re della Polonia.

Problemi di maggiore criticità perl’ItaliaGli scenari futuri di cambiamento climaticoper l’Europa ed il Mediterraneo, sopra de-scritti, contengono le indicazioni sui possi-bili impatti che riguardano anche l’Italia nelcontesto dell’area mediterranea e del sudEuropa. Tuttavia, sono da evidenziare alcu-ni problemi critici che si porranno in Italia aseguito dei prevedibili cambiamenti clima-tici, problemi che riguardano soprattutto leconseguenze sull’ambiente marino costie-ro in relazione all’innalzamento del livellodel mare, le conseguenze sul suolo, ecosi-stemi ed agricoltura in relazione alle varia-zioni di temperatura, precipitazioni ed umi-dità e gli eventuali potenziali rischi aggiun-tivi in relazione all’acutizzarsi di eventiestremi.

Innalzamento del livello del mareAll’innalzamento del livello del mare contri-buiscono diverse cause, ma l’espansionetermica degli oceani sarà la fondamentalecausa di innalzamento del livello marinoglobale. Tuttavia, su base regionale l’innal-zamento del livello del mare sarà diverso aseconda delle diverse regioni del globo.Nel Mediterraneo tale innalzamento do-vrebbe essere contenuto, secondo IPCC,tra i 18 cm ed i 30 cm al 2090, senza ovvia-mente considerare i fattori di subsidenza

naturale che sono diversi per le diversezone costiere italiane.Assumendo come riferimento le valutazio-ni IPCC e senza tener conto dei movimentiverticali del suolo a cui è soggetto per suanatura geologica il territorio italiano, risul-terebbero a rischio inondazione circa4.500 chilometri quadrati di aree costiere epianure distribuite nel modo seguente:– 25,4% nel nord dell’Italia (soprattutto alto

Adriatico);– 5,4% nell’Italia centrale (soprattutto

medio Adriatico ed alcune zone delmedio Tirreno);

– 62,6% nell’Italia meridionale (soprattuttoGolfo di Manfredonia e zone del Golfo diTaranto);

– 6,6% in Sardegna (soprattutto zone dellaparte occidentale e meridionale).

Anche se per il momento l’area mediterra-nea non appare tra le più critiche per pro-blemi di popolazioni a rischio di inonda-zione, è, comunque fra quelle mondiali apiù alta vulnerabilità in termini di perdita dizone umide ed in particolare degli ecosi-stemi e della biodiversità marino-costiera.Inoltre, l’invasione marina delle aree co-stiere basse e delle paludi costiere, accom-pagnata da minori capacità di ripascimen-to delle spiagge da parte dei detriti solididai fiumi (fiumi con portate medie più ri-dotte a causa della riduzione delle precipi-tazioni), accelera l’erosione delle coste, au-menta la salinità negli estuari e nei delta acausa dell’ingresso del cuneo salino, pro-duce una maggiore infiltrazione di acquasalata negli acquiferi della fascia litorale.Le coste basse sarebbero in ogni casomaggiormente esposte alle inondazioni incaso di eventi meteorologici estremi ac-compagnati da forti mareggiate, che, tral’altro, impediscono il deflusso dei fiumi nelmare, causando maggiori probabilità distraripamenti e di alluvioni.Va osservato, comunque, che i maggiori ri-schi valutati per l’Italia sono in realtà rischiaggiuntivi di quelli già esistenti a causadella attuale pressione antropica e dell’uso

172 COMPLESSITÀ & SVILUPPO 2003

VINCENZO FERRARA

dei territori costieri. Infatti, almeno perquanto riguarda l’Italia, i cambiamenti cli-matici non tendono a creare nuovi rischi,ma tendono ad accentuare ed amplificare(con effetti talvolta non prevedibili) i rischigià esistenti derivanti dalla urbanizzazione,la produzione industriale, la pesca, il turi-smo, i trasporti marittimi ecc.Secondo uno studio dell’ENEA, sono a pos-sibile rischio di inondazione e/o erosionecostiera non solo l’area veneziana e tutta lacosta dell’alto Adriatico compresa grossomodo tra Monfalcone e Rimini, ma anchealtre aree costiere quali quelle alla foce deifiumi (Magra, Arno, Ombrone, Tevere,Volturno, Sele), quelle a carattere lagunare(Orbetello, laghi costieri di Lesina e Varano,stagno di Cagliari), coste particolarmentebasse o già soggette ad erosione (costaprospiciente Piombino, tratti della costapontina e del Tavoliere delle Puglie ecc.).L’entità del rischio non è, comunque, lostesso per tutte le coste sopra menzionate,ma è maggiore là dove esistono già pro-blemi di subsidenza e problemi di erosio-ne e di instabilità dei litorali, problemi cheriguardano soprattutto l’alto Adriatico e l’al-to Tirreno.

Suolo e agricoltura

Nell’Italia meridionale, già attualmente af-flitta da scarsità di acqua e da problemi didegrado dei suoli a causa di molteplici fat-tori derivanti dalle attività antropiche e dal-l’uso del territorio, i cambiamenti climaticiprevedibili indurranno ulteriori fattori di ri-schio inclusi i rischi di desertificazione peri quali sono in corso opportuni studi nel-l’ambito dell’Annesso IV della Conven-zione per la lotta contro la desertificazione.La possibilità di ulteriore degrado a causadei cambiamenti climatici è legata alla con-comitanza di due fattori che gli attuali sce-nari di cambiamento climatico non stimanocon certezza ma indicano come probabili,e cioè: la diminuzione delle precipitazionitotali annue al di sotto della soglia di circa600 mm/anno che, con temperature medie

crescenti, implica un rischio permanente diaridificazione; l’estensione dei periodi disiccità per periodi prolungati di molti mesi,soprattutto se questo periodo coincide conil semestre caldo (evapotraspirazionemolto alta e aridificazione acuta). Anche seirrigati, i suoli possono ugualmente degra-dare se le attività umane sul territorio (edin primo luogo l’agricoltura) sono tali da in-durre cambiamenti insostenibili nei terreni,ridurre la biodiversità e rendere non per-manente qualsiasi tipo di equilibrio ecosi-stemico. Nell’Italia settentrionale, dove in-vece gli equilibri idrologici potrebbero es-sere cambiati per la maggiore disponibilitàd’acqua, il problema del degrado è legatoalle condizioni di maggior ruscellamento(o run-off) a cui sono sottoposti i suoli, masoprattutto i pendii e le zone collinari.Secondo le più recenti stime condotte daENEA, l’incremento di temperatura mediaprevista da IPCC alle nostre latitudini potràinfluenzerà sia la vegetazione naturale siale coltivazioni. In particolare, nell’Italia me-ridionale potrebbe prodursi un effetto par-ticolarmente negativo sui sistemi locali,poiché sia la vegetazione sia i terreni si tro-vano già in un regime di disponibilità idri-ca marginale. Le regioni italiane settentrio-nali potrebbero avere invece maggiori pro-blemi di franosità e di erosione da run-off,ma meno problemi sulla vegetazione com-plessiva. Ciò nonostante, terreni bassi nellazona del delta del Po potrebbero esserecolpiti in maniera significativa da fenomenidi innalzamento del livello del mare e di in-trusioni di acque salmastre. In ogni caso, iprevisti aumenti di temperatura e di varia-zione delle precipitazioni e gli effetti sulciclo idrologico richiederanno cambia-menti di gestione in molte regioni.

Eventi estremi

Le tendenze previste da IPCC a livello glo-bale avranno ripercussioni anche a livellonazionale. In particolare è possibile cheaumenti la frequenza, ma soprattutto l’in-tensità di fenomeni estremi quali siccità, al-

173COMPLESSITÀ & SVILUPPO 2003

IL CLIMA PROSSIMO VENTURO. EVOLUZIONE DEL CLIMA ED IMPATTI DEI CAMBIAMENTI CLIMATICI IN ITALIA

luvioni ed di altri fenomeni meteorologiciparticolarmente violenti (come le trombed’aria, le burrasche, i groppi ecc.).Tuttavia alcuni di questi fenomeni estremi,quali le alluvioni, interesseranno maggior-mente l’Italia settentrionale, mentre altri,quali la siccità, soprattutto il meridioned’Italia.La recrudescenza soprattutto dell’intensitàdei fenomeni estremi porterà come conse-guenza ad una variazione, probabilmentesignificativa, degli esistenti rischi di cata-strofi naturali e della vulnerabilità del terri-torio nazionale, la cui valutazione di detta-glio è attualmente soggetta ad attente ana-lisi da parte dell’ENEA.

BibliografiaANTONIOLI F., 1999. Measuring Holocene sea-level risein the Mediterranean, in state e pressure onMediterranean Sea Environment. Joint report of theTopic Centre on Marine Coastal Environment. EEA –European Environment Agency.

ANTONIOLI F., Silenzi S., 2001. Sea Surface Tem-perature and Sea Level Variations in the TyrrhenianSea during the Last 2000 and 500 yr. Invited paper atAccademia dei Lincei. Workshop on “Global climatechanges during the late quaternary”.

ANTONIOLI F., LEONI G., MARGOTTINI C., 2001. The risk ofsea flooding in 33 Italian coastal plains. Accademiadei Lincei. Workshop on “Global climate changes du-ring the late quaternary”, Roma 4-5 maggio 2001.Abstract volume.

BRUNETTI M., BUFFONI L., MAUGERI M., NANNI T., 2000c.“Precipitation intensity trends in northern Italy”.International Journal of Climatology 20: 1017-1031.

BRUNETTI M., COLACINO M., MAUGERI M., NANNI T.,2001. “Trends in the daily intensity of precipitation inItaly from 1951 to 1996”. International Journal ofClimatology 21: 299-316.

BRUNETTI M., MAUGERI M., NANNI T., 2000a. “Variationsof temperature and precipitation in Italy from 1866to 1995”. Theoretical and Applied Climatology 65:165–174.

BRUNETTI M., MAUGERI M., NANNI T., 2000b. “Trends ofminimum and maximum daily temperatures in Italyfrom 1865 to 1996”. Theoretical and AppliedClimatology 66: 49-60.

BRUNETTI M., MAUGERI M., NANNI T., NAVARRA A., 2002.“Droughts and extreme events in regional dailyItalian precipitation series”, Int. J. Climatol., in press.

BUFFONI L., MAUGERI M., NANNI T., 1999. “Precipitationin Italy from 1833 to 1996”. Theoretical and AppliedClimatology 63: 33-40.

CAMINITI N. M., LA MALFA S. (a cura di), 2002.Incontrare Johannesburg 2002. Rapporto ENEA sullo

stato di attuazione del Patto per l’Energia e l’Am-biente, ENEA.

CAMUFFO D., JONES P. (eds.), 2002. Improved under-standing of past climatic variability from early dailyEuropean instrumental sources, Kluwer AcademicPublisher.

CLINE W.R.,1992. The Economics of Global Warming.Institute of International Economics, Washington,DC.

COLACINO M., CONTE M., 1993. “Greenhouse effectand pressure pattern in the Mediterranean basin”. IlNuovo Cimento, 16C, 67-76.

COMITATO NAZIONALE PER LA LOTTA CONTRO LA DESERTIFICA-ZIONE – Comunicazione nazionale per la lotta alla sic-cità e alla desertificazione.

CORPO FORESTALE DELLO STATO (MIPAF) – Rapporto sullasalute delle foreste italiane 2001.

EASTERLING W.E., CROSSON P.R., ROSENBERG N.J., MCKENNEY

M.S., KATZ L.A., LEMON K.M., 1993. “Agricoltural im-pacts of and responses to climate change in theMissouri-Iowa-Nebraska-Kansas (MINK) region”. Cli-matic Change 24(1/2) 23-62.

ENEA, 2003. Terza Comunicazione Nazionale del-l’Italia alle Nazioni Unite (UNFCCC), Capitolo 6,Ministero dell’Ambiente e del Territorio, Roma.

ENEA FEEM, 2003. La risposta al cambiamento cli-matico in Italia, Rapporto ENEA-Ministero Ambientee Territorio, Roma.

EUROPEAN COMMISSION, 1999. Weather Impacts onNatural, Social and Economic Systems (WISE), DG XII(Environment and Climate Research Programme) -Framework IV.

EUROPEAN COMMISSION (ongoing) Climate Change andAdaptation Strategies for Human Health in Europe(cCASHh), DG Research Environment and Su-stainable. Development Programme), Framework V.

FANKHAUSER S., 1995. Valuing Climate Change. TheEconomics of the Greenhouse, Earthscan, London.

FANKHAUSER S., SMITH J.B., TOL R.S.J., 1999. “Weatheringclimate change: some simple rules to guide adaptationdecisions”, Ecological Economics 30, 67-78.

FEENSTRA J.F., BURTON I., SMITH J.B., TOL R.S.J. (eds.),1998. Handbook on Methods of Climate ChangeImpact Assessment and Adaptation Strategies, pp.4.1-4.20, United Nations Environment Programmeand Institute for Environmental Studies, Vrije Uni-versiteit, Nairobi and Amsterdam.

INTERGOVERNMENTAL PANEL ON CLIMATE CHANGE, 2001.Climate Change 2001: The Scientific Basis,Cambridge University Press, New York.

INTERGOVERNMENTAL PANEL ON CLIMATE CHANGE, 2001.Climate Change 2001: Impacts, Adaptation andVulnerability, Cambridge University Press, New York.

INTERGOVERNMENTAL PANEL ON CLIMATE CHANGE, 2001.Climate Change 2001: Mitigation, Cambridge Uni-versity Press, New York.

INTERGOVERNMENTAL PANEL ON CLIMATE CHANGE, 1998. TheRegional Impacts of Climate Change: An Assessmentof Vulnerability, Cambridge University Press, NewYork.

174 COMPLESSITÀ & SVILUPPO 2003

VINCENZO FERRARA

INTERGOVERNMENTAL PANEL ON CLIMATE CHANGE, 1996.Impacts, adaptation and mitigation of climate chan-ge: scientific-technical analyses, IPCC-WG2, Cam-bridge Univ. Press, pp. 773-797.

INTERGOVERNMENTAL PANEL ON CLIMATE CHANGE, 1995.Radiative Forcing of Climate Change: An Evaluationof the Emission Scenarios, Geneva.

LAMBECK K., BARD E., 2000. “Sea-level change alongthe French Mediterranean coast since the time of theLast Glacial Maximum”. Earth Planetary ScienceLetter 175 (3-4), 202-222.

LAMBECK K., JOHNSTON P., 1995. “Land subsidence andsea-level change: contributions from the melting ofthe last great ice sheets and the isostatic adjustmentof the Earth”. In: BARENDS F.J., BROUWER F.J.J., SCHRODER

F.H. (eds.), Land Subsidence. Proc. Fifth Int. Symp.Land Subsidence, The Hague, 16-20 October 1995.Rotterdam, 3-18.

LAMBECK K., CHAPPEL J., 2001. “Sea level change th-rough the last glacial cycle”, Science, 292, 679-686.

MAUGERI M., BAGNATI Z., BRUNETTI M., NANNI T., 2001.“Trends in Italian total cloud amount, 1951-1996”,Geophys. Res. Lett., 28, 4551- 4554.

MINISTERO DELL’UNIVERSITÀ E DELLA RICERCA SCIENTIFICA E

TECNOLOGICA, Programma Nazionale della Ricerca –Approvato dal CIPE il 21.12.00.

MOBERG A., JONES P.D., BERGSTROM H., CAMUFFO D.,COCHEO C., DAVIES T.D., DEMARÉE G., MAUGERI M.,MARTIN-VIDE J., VERHOEVE, T., 2000. “Day-to-day Tem-perature Variability Trends in 160- to 275-year-longEuropean Instrumental Records”. J. Geophys. Res. –Atmospheres, Vol 105: D18, 22849-22868.

NAVARRA A. (a cura di). Linee Guida del Piano Na-zionale di Ricerca per la Protezione del Clima,Ministero dell’Ambiente, 1998.

NICHOLIS R.J., HOOZEMANS F.M.J., MARCHNAD M., 1999.“Increasing flood risk and wetland losses due to sealevel rise”. Global Environmental Change, n. 9, pp.69-87).

PFISTER C., BRAZDIL R., GLASER, R., BARRIENDOS M.,CAMUFFO D., DEUTSCH,M., DOBROVOLNY P., ENZI S.,GUIDOBONI E., KOTYZA O., MILITZER S., RACZ L., RODRIGO

F.S., 1999. “Documentary Evidence on Climate in theSixteenth-Century Europe”. Special Issue: ClimaticVariability in Sixteenth-Century Europe and Its SocialDimensions, Climatic Change, 43:1, 55-110.

PIRAZZOLI P.A., 1997. Sea-Level Changes, the last20.000 years. Wiley, 211 p.

PIRAZZOLI P.A., TOMASIN A., 2000. “L’evoluzione Re-cente delle cause meteorologiche dell’acqua alta”.Atti dell’Istituto Veneto di Scienze Lettere ed Arti,CLVII, 317-342.

PIRAZZOLI P.A., 1993. “Global sea-level changes andtheir measurement”. Global and Planetary Changes,8 135-148.

SCIORTINO M. ET AL., 2000. “La lotta alla desertificazio-ne in Italia e nel bacino del Mediterraneo”, inComplessità e sviluppo, ENEA 2000, pp. 37-46.

SHIMEL D.S. ET AL., 1996. The global carbon cycle,IPCC-SR, Cambridge Univ. Press, pp. 76-86.

VALENTINI R. ET AL., 2000. “Accounting for carbonsinks in the biosphere”, in European Perspective,Horhold, Jena.

175COMPLESSITÀ & SVILUPPO 2003

IL CLIMA PROSSIMO VENTURO. EVOLUZIONE DEL CLIMA ED IMPATTI DEI CAMBIAMENTI CLIMATICI IN ITALIA

&complessità sviluppo

&com

ple

ssità

svilu

ppo

Analisi delle potenzialità della spettroscopia dirisonanza magnetica nucleare come tecnica analitica

per la valutazione dell’omogeneità e per lacaratterizzazione di materiali di riferimento a matrice

alimentare

VINCENZO ALTAMURAMARIA ANTONIETTA BIANCIFIORI

FRANCESCO INTROCASORAFFAELE LAMANNA

MARIA LUCIA MIGLIETTAILARIO PISCIONERI

ENEAUTS Biotecnologie,

Protezione della Salute e degli Ecosistemi

La risonanza magneticanella caratterizzazione chimicadi materiali di riferimento

2003 Tratto da: ENERGIA, AMBIENTE E INNOVAZIONE 5/03

176 COMPLESSITÀ & SVILUPPO 2003

Misure e materiali di riferimento

La misuraÈ grandissima, nella società attuale, l’im-portanza economica e sociale delle attivitàlegate alla misura: quasi tutti i segmentidell’economia, infatti, ne sono in variomodo influenzati.Nei processi produttivi, le tecniche di misu-ra acquisiscono un peso sempre maggiore,in quanto la crescente complessità dellenuove tecnologie e l’introduzione dell’auto-mazione anche nei comparti maturi richie-dono metodi di misura e di controllo sem-pre più sofisticati e sempre più integrati neidiversi stadi dei processi di fabbricazione.Le misure giocano un ruolo fondamentaleanche nella ricerca di nuovi materiali, nuoviprocessi e nuove tecnologie, ed è sullabase dei risultati di vari tipi di misure chevengono prese decisioni di carattere lega-le, amministrativo e sanitario, di grande im-portanza per l’individuo e per la società.Si stima che le attività legate alla misura in-cidano oggi per qualche unità percentualesul prodotto nazionale lordo dei paesi in-dustrializzati. Le analisi chimiche, in parti-colare, hanno un peso notevole sull’econo-mia: solo negli Stati Uniti, ogni anno vengo-no eseguite dai laboratori pubblici e priva-ti varie decine di miliardi di analisi chimi-che nei campi più diversi (dall’ambientealle biotecnologie, dalle analisi cliniche aquelle di materiali ad alta purezza ecc.). Neconsegue che le implicazioni economichee sociali di dati analitici non accurati posso-no essere molto pesanti ed è per questoche diventa sempre più necessario lo svi-luppo di metodologie atte a migliorare laqualità dei risultati analitici e garantirnel’affidabilità.Particolarmente importante è la ricadutaeconomica e sociale di misure affidabili nelsettore agro-alimentare. L’attenzione deiconsumatori e, con essi, quella delle istitu-zioni nazionali e internazionali è focalizzatasui temi della sicurezza, della autenticità edella tipicità degli alimenti; anche l’Unione

Europea impone regole sempre più strin-genti per l’etichettatura dei prodotti ali-mentari, in favore di una maggiore informa-zione sulle loro proprietà nutrizionali, sullaloro qualità ed origine.L’attenzione generale sulla sicurezza ali-mentare è rivolta principalmente alla pre-senza di sostanze usate nella produzione elavorazione dei prodotti agricoli, come ipesticidi, e la presenza di sostanze nocivederivanti dall’inquinamento ambientale.Recenti e importanti casi di malattie provo-cate da alimenti, come quelle dovute allacontaminazione da diossine o alla infezionedel bestiame affetto da encefalopatia spon-giforme bovina (BSE), hanno ingigantito lapreoccupazione dell’opinione pubblicasulla sicurezza alimentare. Desta inoltrepreoccupazione l’uso di organismi geneti-camente modificati (OGM) la cui sicurezzaper la salute umana non è stata ancoracompletamente accertata e rispetto ai qualiesistono forti riserve in merito al rischioche possono costituire per la biodiversità.In merito alla autenticità e tipicità degli ali-menti, sempre più spesso assistiamo a veree proprie battaglie politiche per protegge-re sul mercato mondiale i nostri prodotti ti-pici dai numerosi tentativi di contraffazionee/o dall’uso non corretto della denomina-zione di un prodotto per aggirare i marchidi protezione (DOP, IGP), basti pensare allarecente battaglia per l’uso della denomina-zione “Parmesan”, come richiesto da alcu-ni paesi, in cui è stato chiamato a dare ungiudizio il Codex Alimentarius (organodella FAO e della Organizzazione Mon-diale della Sanità).Rispondere a queste richieste di controllosulla qualità degli alimenti vuol dire ese-guire determinazioni analitiche, la cui affi-dabilità deve essere garantita.

Le analisi chimiche e l’accuratezza

Sfortunatamente, a differenza delle misuredi grandezze fisiche come massa, lunghez-za, temperatura ecc., i cui strumenti di mi-sura possono essere tarati direttamente dai

177COMPLESSITÀ & SVILUPPO 2003

LA RISONANZA MAGNETICA NELLA CARATTERIZZAZIONE CHIMICA DI MATERIALI DI RIFERIMENTO

laboratori di metrologia nazionale o co-munque, con campioni a loro volta verifica-ti su campioni nazionali, le misure chimi-che non hanno una tracciabilità1 dello stes-so tipo. Infatti, un procedimento di analisichimica richiede un numero variabile ditrasformazioni chimiche e chimico-fisichedel campione, ciascuna delle quali può es-sere fonte di contaminazione, perdita dianaliti2, errori.Perché i risultati siano attendibili, le misurechimiche devono avere due importantiproprietà: precisione ed accuratezza.La precisione è la riproducibilità della mi-sura e può essere valutata semplicementeper mezzo di misure ripetute sullo stessocampione.L’accuratezza è stata definita dall’Interna-tional Organization for Standardization(ISO)3 come “l’accordo tra il valore vero ed irisultati medi ottenibili applicando la proce-dura sperimentale un numero di volte moltogrande”. La valutazione dell’accuratezza,così come il riconoscimento e l’eliminazio-ne degli errori, è un processo complessoche richiede l’uso delle seguenti procedurepossibilmente combinate insieme:a) l’effettuazione di misure per mezzo di

differenti tecniche analitiche, metodi eanalisti: se queste misure sono in accor-do tra loro, si può assumere che il risul-tato sia accurato; tuttavia, capita frequen-temente il caso in cui un laboratorioabbia a disposizione un solo metodo ouna sola tecnica analitica;

b) la partecipazione ad intercomparazioni.L’accuratezza dei risultati riportati da unlaboratorio per una specifica determina-zione può essere valutata dall’accordocon i valori raccomandati, ottenuti dauna rigorosa valutazione statistica dei ri-sultati di tutti i laboratori partecipanti al-

l’intercomparazione. Il campione perl’intercomparazione dovrebbe essere ilpiù possibile simile, come composizionee concentrazioni, ai campioni da analiz-zare nella normale routine analitica;

c) l’uso di materiali di riferimento simili,per composizione quali-quantitativa, aicampioni da analizzare.

La capacità di ottenere gli stessi risultati,entro i limiti concordati, da parte di tutti i la-boratori che effettuano la stessa analisi(cioè la compatibilità delle misure) è diestrema importanza: essa può essere rag-giunta quando la rete di misura è basatasull’accuratezza.In figura 1 è illustrato un modello di sistemadi misura accurato e compatibile, costituitoda un sistema gerarchico di metodi di mi-sura e di materiali di riferimento[1].Gli elementi del sistema sono:

1) Unità di misura di base e derivateNel sistema internazionale di unità (SI), at-tualmente adottato dalla maggior parte deipaesi del mondo e dagli organismi di unifi-cazione a livello internazionale, a tutte legrandezze corrispondono delle unità: leunità di base sono scelte con il criterio chedevono essere definite esattamente inmodo “assoluto”, senza cioè ricorrere, sepossibile, al confronto con campioni artifi-ciali o con altre unità.

2) Metodi definitiviSono quei metodi che misurano quantitàchimiche o fisiche direttamente in unità dibase o che sono legati ad esse indiretta-mente da relazioni matematiche esatte.Questi metodi devono avere elevata ripro-ducibilità, devono essere privi di errori si-stematici e deve essere conosciuto in ma-niera esauriente il processo che sta allabase del metodo.

178 COMPLESSITÀ & SVILUPPO 2003

V. ALTAMURA, M.A. BIANCIFIORI, F. INTROCASO, R. LAMANNA, M.L. MIGLIETTA, I. PISCIONERI

1 Tracciabilità: “Proprietà del risultato di una misura o del valore di uno standard che può essere correlato con riferimenti stabiliti,generalmente standard nazionali o internazionali, attraverso una catena ininterrotta di confronti che abbiano ciascuno una incertez-za stabilita.” (Guida ISO 30 1992).

2 Analita: sostanza oggetto dell’indagine analitica.3 ISO è una federazione internazionale di enti di normazione nazionali, non governativa, istituita nel 1947. La missione della ISO è di

promuovere lo sviluppo della standardizzazione e delle attività correlate allo scopo di agevolare gli scambi internazionali di beni eservizi e di sviluppare cooperazioni nell’ambito di attività scientifiche, tecnologiche ed economiche.

3) Materiali di riferimentoNello schema citato, i materiali di riferi-mento sono solo una parte di un disegnopiù vasto; essi sono inseriti in due livelli di-versi, a seconda del grado di accuratezza edi definizione.Un materiale di riferimento primario, es-sendo un materiale puro, prodotto attraver-so procedimenti lunghi e costosi, non puòessere usato ogni volta che nella realtàsperimentale si renda necessario un mate-riale di riferimento, ma va usato soprattuttonella messa a punto di metodi di riferimen-to, in controlli di qualità e per la produzionedi materiali di riferimento secondari (dettianche di laboratorio). Questi ultimi, caratte-rizzati per mezzo dei primi, possono a lorovolta essere usati nella normale routine.

4) Metodi di riferimentoPer metodi di riferimento si intendono queimetodi, di accuratezza provata e dimostra-ta, che hanno le seguenti funzioni:– calibrare e verificare i metodi in campo;– calibrare i materiali di riferimento secon-

dari;– permettere l’effettuazione di programmi

di controllo di qualità.

Lo sviluppo di un metodo di riferimento èun processo complesso, per certi aspettisimile al processo di certificazione di unmateriale di riferimento.

5) Metodi in campoPoiché molti metodi di riferimento nonpossono essere usati in pratica a causadella loro complessità o del costo elevato,vengono usati dei metodi più accessibili, ingrado di fornire una quantità di risultatimaggiore, in meno tempo e/o con costominore. Questi metodi, pur non essendodotati a volte della massima riproducibilità,devono avere comunque un’accuratezzaadeguata rispetto alla necessità analitica.Per la calibrazione ed il controllo di questimetodi, l’impiego di materiali di riferimen-to è essenziale.

I materiali di riferimento

I materiali di riferimento, da quanto risultaanche dal paragrafo precedente, sonoquindi lo strumento a disposizione dell’a-nalista per attuare il controllo di qualità suiprocedimenti analitici adottati e per garan-tire l’affidabilità dei risultati ottenuti me-diante il confronto fra un campione reale ed

179COMPLESSITÀ & SVILUPPO 2003

LA RISONANZA MAGNETICA NELLA CARATTERIZZAZIONE CHIMICA DI MATERIALI DI RIFERIMENTO

unità di misura di base

metodi definitivi

materiali diriferimento primari

metodi di riferimento

• sviluppo e valutazionemetodi in campo

• preparazione di materialidi riferimento di lavoro

• controllo di qualità diroutine

• sviluppo e valutazione metodidi riferimento

• produzione materiali di riferimentosecondari ad alta accuratezza

• applicazioni critiche del controllodi qualità

materiali di riferimento secondari

metodi in campo

applicazioni in campo

Figura 1Modello di sistema dimisura accurato ecompatibile, costitui-to da un sistema ge-rarchico di metodi dimisura e di materialidi riferimento

un campione a composizione nota. Dettimateriali hanno lo stesso ruolo dei campio-ni di riferimento metrologici e permettono,al laboratorio che li impiega, di ottenere ri-sultati tracciabili rispetto al sistema interna-zionale di unità di misura e confrontabilicon quelli dei laboratori che lavorino conle stesse modalità.I materiali di riferimento nel laboratorioanalitico hanno diverse funzioni:1) contribuiscono allo sviluppo di nuovi

metodi di analisi o di controllo ed allamodifica di quelli già esistenti;

2) contribuiscono a controllare la produzio-ne di materiali di riferimento secondari(detti anche di laboratorio) o la qualità diuna riedizione di un materiale di riferi-mento primario;

3) come materiale incognito (all’analista)servono a verificare, validare o controlla-re una procedura analitica o i vari labo-ratori di una rete di misura;

4) forniscono punti di calibrazione per glistrumenti usati in una procedura analitica;

5) all’interno di un metodo di riferimento ostandardizzato, sono usati come mate-riale calibrante o di controllo;

6) assicurano il controllo statistico di qualitàa lungo termine di un processo di misura.

I materiali di riferimento usati in un proce-dimento analitico devono avere la composi-zione della matrice e la concentrazionedegli analiti ricercati il più simile possibile aquella dei campioni da analizzare. Quantopiù la composizione del materiale di riferi-mento approssima quella del campionereale da analizzare, tanto più la correttezzadella sua misura implica anche la correttez-za della misura del campione reale (da quila necessità di disporre di molti materiali diriferimento anche preparati da matricireali). Ciò diventa particolarmente impor-tante per i materiali di riferimento da im-piegare nel controllo di qualità nel settoreagro-alimentare dove bisogna tener contonon solo della moltitudine delle matrici ali-mentari possibili ma anche della variabilitànaturale nella composizione di uno stesso

prodotto dovuta a differenze nella varietà enelle condizioni e metodi di produzione.L’importanza della certificazione di un ma-teriale di riferimento sta soprattutto nelfatto che l’organizzazione certificante forni-sce all’utilizzatore la garanzia che il valorecertificato è la migliore approssimazionepossibile al valore “vero” della grandezzae, nello stesso tempo, rende noto come taleapprossimazione è stata ottenuta.La produzione e la certificazione di mate-riali di riferimento sono dei processi com-plessi e dispendiosi, che richiedono per dipiù tempi molto lunghi, in quanto prevedo-no la partecipazione di numerosi laboratoriben attrezzati e di grande esperienza, op-pure l’esistenza di una struttura permanen-te di elevatissima qualificazione; per talemotivo i materiali disponibili non sono innumero tale da coprire tutte le necessità,mentre, d’altra parte, è sempre crescentela richiesta di materiali di riferimento intutte le aree della scienza e della tecnolo-gia. Tutto ciò ha reso sempre più necessa-ria la cooperazione internazionale.La disponibilità di materiali di riferimentoper un mercato mondiale, invece che na-zionale, consente infatti notevoli economie,in quanto rende possibile la produzione diun numero maggiore di materiali di riferi-mento, utilizzando al meglio le competenzedi ogni singola nazione.Fino al 1969[2] non c’era mai stato nessuntentativo di coordinare le attività sui mate-riali di riferimento tra le organizzazioni delsettore dei diversi paesi industrializzati otra agenzie internazionali. Ciò può essereattribuito principalmente al fatto che fino aquel tempo quasi tutti i materiali di riferi-mento prodotti erano indirizzati verso ap-plicazioni industriali, e, di conseguenza, lasalvaguardia degli interessi delle industrienazionali era la considerazione prioritaria.A partire dalla fine degli anni 60 divennesempre più evidente che i materiali di rife-rimento erano destinati a giocare un ruolofondamentale non solo nell’aumento dellaproduttività industriale, ma anche in alcune

180 COMPLESSITÀ & SVILUPPO 2003

V. ALTAMURA, M.A. BIANCIFIORI, F. INTROCASO, R. LAMANNA, M.L. MIGLIETTA, I. PISCIONERI

aree di enorme interesse, a livello interna-zionale: la sanità, la protezione dell’am-biente, l’energia nucleare, ed infine la pro-tezione e la sicurezza del consumatore.Ciò ha fatto sì che, negli anni 70 e 80, ci siastata una forte crescita nelle attività sui ma-teriali di riferimento in molti paesi e pressoorganizzazioni internazionali. L’aumentatointeresse ha portato a riconoscere la ne-cessità di istituire un organismo internazio-nale in grado di innescare delle iniziative dicooperazione sui materiali di riferimentoche si sono concretizzate nella costituzione,all’interno dell’International Organizationfor Standardization (ISO), di un Comitato suiMateriali di Riferimento (REMCO), con icompiti principali di:– proporre azioni sui materiali di riferi-

mento;– stabilirne definizioni, categorie, livelli e

classificazioni.Tutti i principali paesi industrializzati hannoinoltre attivato iniziative sui materiali di rife-rimento, a supporto delle necessità nazio-nali nel campo della produzione industrialee della protezione dell’ambiente e della sa-lute. Oltre ad assicurare l’uniformità del si-stema di misura in ambito nazionale, scopodi tali iniziative è spesso quello di svolgerefunzioni normative. Le soluzioni organizza-tive scelte, pur variando in maniera sensi-bile da un paese all’altro, a causa delle dif-ferenti realtà nazionali, prevedono in ognicaso un ruolo di guida, coordinamento e ri-ferimento per le strutture pubbliche. Le ra-gioni di un intervento pubblico nella pre-parazione e distribuzione di materiali di ri-ferimento, sono diverse:– evitare un’inutile duplicazione di sforzi

da parte delle singole industrie;– dotare i materiali di riferimento prodotti

di quella autorità, derivante da un enteneutrale tecnicamente competente, chenon avrebbero se fossero prodotti da unprivato;

– produrre i materiali di riferimento ne-cessari per applicazioni diverse.

In Italia, come in tutti i paesi più avanzati,

esiste una struttura metrologica finalizzataa rendere affidabile ed economica l’attivitàindustriale. Le attività metrologiche prima-rie (tecnico-scientifiche) sono svolte daistituzioni diverse e principalmente da:– Istituto Metrologico G. Colonnetti (IMGC)

del CNR;– Istituto Elettrotecnico Nazionale G. Fer-

raris (IENGF);– ENEA;– Istituto Superiore di Sanità.Esistono inoltre centri di taratura secondari(tra cui alcuni laboratori dell’ENEA), chesvolgono la maggior parte delle tarature, la-sciando agli istituti primari principalmentela realizzazione dei campioni primari e l’at-tività di confronto a livello internazionale.Tuttavia, questa struttura metrologica noninclude, se non in misura ridotta, fra le pro-prie attività la metrologia chimica ed i ma-teriali di riferimento; manca quindi attual-mente una sede istituzionale in cui venga-no affrontate tali problematiche, e, di con-seguenza, manca completamente, a diffe-renza di tutti gli altri paesi più industrializ-zati, una attività autonoma di produzione ecertificazione di materiali di riferimento.Una iniziativa nazionale in questo settore èda considerarsi di grande significato strate-gico, al di là del valore puramente economi-co, in quanto l’esistenza di una attività inquesto campo può essere considerata unindice della maturità tecnologica, oltre chedell’indipendenza commerciale, del Paese.Essendo i materiali di riferimento stretta-mente legati allo sviluppo dei processi pro-duttivi ed alla esportazione dei prodotti, essiconcorrono in maniera notevole ad afferma-re l’affidabilità tecnologica del Paese, che asua volta è non solo un elemento di prestigio,ma anche uno strumento di penetrazionetecnico-commerciale di notevole efficacia.Infine, i materiali di riferimento costituisco-no un elemento di garanzia nell’applicazio-ne di norme e controlli derivanti dalla legi-slazione nazionale e dalle direttive comuni-tarie, principalmente nei settori dell’am-biente, della sicurezza e della sanità.

181COMPLESSITÀ & SVILUPPO 2003

LA RISONANZA MAGNETICA NELLA CARATTERIZZAZIONE CHIMICA DI MATERIALI DI RIFERIMENTO

Preparazione di materiali diriferimentoIl processo di preparazione di un materialedi riferimento certificato può essere suddi-viso in diverse fasi:1) definizione del materiale da produrre e

delle grandezze da certificare, e, conse-guentemente, scelta dei laboratori e deimetodi da impiegare;

2) preparazione del lotto (batch) e verificadell’omogeneità e della stabilità;

3) determinazione analitica dei parametrida certificare, raccolta e confronto dei ri-sultati ed eventuali test supplementariper l’eliminazione di dati non accurati;

4) certificazione, attraverso l’elaborazionee il trattamento statistico dei dati ottenuti;

5) stesura del documento finale e distribu-zione del materiale certificato.

Preparazione del lottoLa parte preliminare del processo è la pre-

parazione di un lotto di materiale di qualitàadeguata dal punto di vista della stabilità edell’omogeneità. Ciò richiede spesso piùlavoro di quello richiesto dalla parte di cer-tificazione vera e propria.Un materiale di riferimento è usato di solitonell’arco di diversi anni, per cui è di grandeimportanza che sia stabile: se varia neltempo, infatti, i valori veri delle sue pro-prietà potranno non essere più in accordocon i valori certificati. La valutazione dellastabilità può richiedere studi preliminari, inparticolare per materiali di origine biologi-ca, che possono degradarsi ed essere at-taccati da batteri, funghi ecc. (anche informa liofilizzata), o in molti casi subire va-riazioni nelle concentrazioni o nei legamichimici a seguito di volatilizzazione (perelementi volatili come Hg, As) o di reazionichimiche con agenti contaminanti.Il metodo di conservazione influenza ov-viamente il periodo di validità di un MR; un

182 COMPLESSITÀ & SVILUPPO 2003

V. ALTAMURA, M.A. BIANCIFIORI, F. INTROCASO, R. LAMANNA, M.L. MIGLIETTA, I. PISCIONERI

La International Organization for Standardization (ISO) si occupa sin dagli anni 70 dei materiali di rife-rimento e attraverso il Comitato Tecnico sui MR (REMCO), istituito nel 1975, ha elaborato le seguentidefinizioni:

Materiali di Riferimento (RM): materiale o sostanza di cui uno più valori relativi alle sue proprietà sonosufficientemente omogenei e ben stabiliti da poter essere utilizzati per la calibrazione di uno strumento,la valutazione di un metodo di misura o per assegnare valori ai materiali (Guida ISO 30, 1992)[3].Quando i valori delle proprietà sono certificati attraverso una procedura che stabilisce la sua traccia-bilità ad un valore accurato avente una sua incertezza ben definita, si parla di Materiale di RiferimentoCertificato.

Materiale di Riferimento Certificato (CRM): materiale di riferimento provvisto di certificazione, dicui una o più valori relativi alle sue proprietà sono certificati per mezzo di una procedura che stabili-sce la loro riferibilità ad una realizzazione accurata dell’unità nella quale i valori delle proprietà sonoespressi e per la quale ogni valore certificato è accompagnato da incertezza ad un livello di confi-denza esplicitamente indicato (Guida ISO 30, 1992)[3].

Le Guide cui si fa riferimento sono alla base della normativa relativa ai Materiali di Riferimento e, di-fatti, l’ISO è un organismo riconosciuto, a livello internazionale, a svolgere attività normativa così comel’EN a livello europeo, e l’UNI a livello nazionale. L’osservanza di tali norme non è obbligatoria.Spesso, però, l’argomento trattato dalle norme ha un impatto così determinante sulla sicurezza del la-voratore, del cittadino o dell’ambiente che le Pubbliche Amministrazioni fanno riferimento ad esse ri-chiamandole nei documenti legislativi e trasformandole, quindi, in documenti cogenti.L’uso dei Materiali di Riferimento Certificati CRM è riservato alla verifica della accuratezza delle mi-sure effettuate e alla validazione dei metodi analitici adottati[4] mentre i Materiali di Riferimento noncertificati, spesso indicati come Materiali di Riferimento di Laboratorio (LRM), sono destinati ad unuso routinario per i programmi di controllo di qualità del laboratorio (carte di controllo), ovvero allaverifica sul lungo periodo delle prestazioni analitiche e alla determinazione della riproducibilità deirisultati ottenuti.

condizionamento speciale è necessarioper materiali sensibili all’alterazione daparte dell’aria o dell’umidità e in alcunicasi è raccomandata la conservazione atemperature tra i 10 e i 30 °C in essiccatoreal buio. Per questi motivi deve essere stabi-lita una data oltre la quale il certificato nonè più valido.Poiché l’obiettivo nelle preparazioni di MRin molti casi è la produzione di campioni“naturali”, simili in composizione della ma-trice e concentrazioni degli analiti ai cam-pioni reali, il materiale di partenza è unmateriale naturale e la preparazione delbatch richiede una sequenza di processibase realizzati con metodi e tecniche chedipendono di volta in volta dalle caratteri-stiche della matrice da trattare, dal livello diconcentrazione degli analiti di interesse edalla dimensione e dal numero di unità daprodurre[5]. In particolare, nel caso di ma-teriali solidi in polvere, i processi fonda-mentali sono: la disidratazione, la macina-zione, la setacciatura, l’omogeneizzazione,il confezionamento ed infine i controlli perl’omogeneità e la stabilità.La disidratazione ed il confezionamentosono fondamentali per garantire la stabilitàrispetto alle condizioni di conservazione,trasporto e stoccaggio.La disidratazione è uno dei metodi più anti-chi per la conservazione di un alimento.L’eliminazione dell’acqua riduce drastica-mente l’attività enzimatica e microbica au-mentando la stabilità del prodotto neltempo. L’acqua in un alimento si trova indue fasi termodinamiche distinte: una fra-zione d’acqua con proprietà simili all’ac-qua pura, detta acqua libera, e una frazioneche interagisce con le molecole che costi-tuiscono l’alimento, detta acqua legata, conproprietà fisiche molto diverse dall’acquapura. Una delle caratteristiche dell’acqualegata è che al suo interno i processi enzi-matici e di proliferazione batterica, alla

base della degradazione di un alimento,sono fortemente inibiti. Per poter ottenereun buon grado di conservabilità di un ali-mento è quindi sufficiente estrarre l’acqualibera4, considerando che le proprietà ter-modinamiche dell’acqua legata ne rendo-no l’estrazione difficile e costosa.Macinazione, setacciatura e omogeneizza-zione sono tutte operazioni che mirano a ri-durre la variabilità di composizione delmateriale fino all’ottenimento di un prodot-to in cui le proprietà che si intendono misu-rare sono omogenee in tutti i punti dell’in-tera massa.Il confezionamento deve avvenire in unitàcampione rappresentative del lotto di pro-duzione. La scelta della forma, delle di-mensioni e dei materiali che costituisconola confezione è un passaggio importantenella definizione del protocollo di produ-zione di un materiale di riferimento. I mate-riali costitutivi della confezione devono as-sicurare, infatti, una totale inerzia nei con-fronti del contenuto ed essere compatibilicon le condizioni di conservazione.

Rischi di contaminazione delmateriale

Durante tutte le fasi di lavorazione è impor-tante tenere sotto controllo il rischio di con-taminazione del materiale: uno dei mag-giori rischi durante la lavorazione è infattila perdita o l’aggiunta accidentale di analitialla massa di materiale. Il rischio deriva dalfatto che la contaminazione non è mai ri-producibile e oltretutto influenza negativa-mente l’omogeneità del materiale.L’analisi dei rischi di contaminazione, de-gradazione della matrice e/o degli analiti edi tutti quei fattori che potrebbero rendereil materiale non idoneo all’uso è uno stru-mento che permette di individuare le mi-gliori strategie di produzione con un con-seguente aumento dell’affidabilità del pro-cesso e della qualità del prodotto finale.

183COMPLESSITÀ & SVILUPPO 2003

LA RISONANZA MAGNETICA NELLA CARATTERIZZAZIONE CHIMICA DI MATERIALI DI RIFERIMENTO

4 Un parametro che permette di valutare il rapporto tra acqua libera ed acqua legata è la cosiddetta attività dell’acqua, aw . Valori diaw < 0,3 garantiscono un buon livello di disidratazione, sufficiente alla conservazione su lungo periodo di una matrice alimentare.

Le fonti di contaminazione possono esseremolteplici: sostanze esogene, i materiali difabbricazione di utensili e macchine chevengono in contatto con il campione, diffu-sione dalle taniche di stoccaggio o dallebottiglie ecc.È possibile minimizzare i rischi di contami-nazione attraverso una opportuna sceltadei materiali che sono a diretto contattocon la massa di materiale in lavorazione.L’acciaio è un ottimo materiale per la mag-gior parte delle applicazioni ma non vabene quando gli analiti di interesse sonoelementi metallici in traccia. In questo casosono più opportuni materiali come Teflon,polietilene, polipropilene, poliuretano,vetro. Per elementi macinanti o lame pos-sono essere utilizzati lo zirconio, il carburodi tungsteno o altri materiali contenentimetalli che raramente sono di interesseanalitico e non sono perciò oggetto d’inte-resse per il materiale di riferimento.Altri tipi di contaminazione che possonocondurre alla degradazione della matricee degli analiti sono le contaminazioni batte-riche ed enzimatiche. Per far fronte a que-sto tipo di contaminazione è importantecreare condizioni che inibiscano la prolife-razione batterica o l’attività enzimatica,avendo cura di minimizzare i tempi e letemperature dei processi di lavorazione e,quando particolarmente indicato, operarein atmosfera di gas inerte.Infine, dopo il confezionamento del mate-riale nelle singole unità e prima della di-stribuzione e della caratterizzazione chimi-ca, si eseguono i test sulla omogeneità fraunità e all’interno della singola unità[6,7,8].

Verifica dell’omogeneità espettroscopia NMR

Il requisito dell’omogeneità e la sua verifi-ca sta diventando sempre più importante,in quanto le tecniche di misura sono diven-tate più precise e le analisi possono essereeseguite su quantità più piccole di materia-le. L’omogeneità deve essere perciò con-trollata molto attentamente prima di intra-

prendere il lavoro di certificazione. Quan-do si prevede la certificazione di un mate-riale per diverse proprietà, l’omogeneitàrispetto ad una di queste proprietà non im-plica necessariamente l’omogeneità ri-spetto a tutte le altre.Affinché il materiale di riferimento sia uti-lizzabile nelle comuni applicazioni analiti-che, è essenziale che la differenza tra icampioni sia minore dell’incertezza dellemisure; ogni porzione di un dato lotto deveessere identica entro i limiti di incertezzastabiliti, e quindi il valore certificato dellaproprietà di interesse deve valere per ogniporzione.L’omogeneità deve essere valutata attra-verso un’apposita campagna, condotta ingenere da un solo laboratorio, con un me-todo di precisione adeguata.I metodi analitici usati nella valutazionedell’omogeneità di un materiale di riferi-mento devono essere rapidi e accurati masoprattutto altamente riproducibili così dapoter apprezzare la variabilità dovuta alladisomogeneità. Infatti, a questo stadio, nonè importante determinare il valore “vero”della proprietà quanto piuttosto la disper-sione dei valori misurati per quella stessaproprietà fra campioni raccolti dal lotto.La spettroscopia di Risonanza MagneticaNucleare (NMR) può fornire una valida al-ternativa ai metodi analitici tradizionali invirtù della sua alta selettività e velocità. Laspettroscopia NMR è una tecnica che trovaoggi numerose applicazioni nel campodella chimica degli alimenti[9,10,11].Tale tecnica, infatti, permette di analizzarematrici complesse come tessuti animali evegetali e quindi è particolarmente adattaper la caratterizzazione di prodotti agro-alimentari. Mediante NMR è possibile ladeterminazione quantitativa e simultaneadi diversi composti caratteristici della ma-trice. A tale scopo è necessario aver de-scritto completamente lo spettro NMR dellamatrice[12,13], assegnato tutti i set di righe1H/13C (chemical shift δ, costanti di accop-piamento J) e aver quindi, individuato le

184 COMPLESSITÀ & SVILUPPO 2003

V. ALTAMURA, M.A. BIANCIFIORI, F. INTROCASO, R. LAMANNA, M.L. MIGLIETTA, I. PISCIONERI

185COMPLESSITÀ & SVILUPPO 2003

LA RISONANZA MAGNETICA NELLA CARATTERIZZAZIONE CHIMICA DI MATERIALI DI RIFERIMENTO

Il laboratorio per la preparazione di materiali di riferimento

Il Laboratorio per la Preparazione di Materiali di Riferimento del Centro Ricerche ENEA Trisaia èstato progettato appositamente per la produzione di materiali a matrice agro-alimentare. Le appa-recchiature di cui dispone consentono di trattare vegetali da molli a medio duri e sono realizzate conmateriali che minimizzano i rischi di contaminazione da metalli e sostanze organiche.Per la fase preliminare di riduzione della dimensione delle particelle del campione (triturazione) sidispone di una macchina trituratrice con vasca n PVC da 40 l e coltelli in teflon, collegata ad una cen-trifuga con filtro in teflon per la separazione di eventuali parti fibrose, semi ecc.Per le matrici vegetali ad alto tenore di acqua, è prevista una successiva fase di concentrazione per al-lontanamento dell’acqua con evaporatore rotante. Questo sistema, lavorando a pressione ridotta, pro-voca l’abbassamento del punto di ebollizione del solvente e di conseguenza consente la distillazionea temperature in cui non avviene alcuna alterazione termica della matrice. Il distillato contiene le fra-zioni volatili evaporate insieme al componente principale e può essere utilizzato per ricostituire l’e-ventuale prodotto essiccato giungendo ad un prodotto finale che è molto prossimo alla matrice reale.L’evaporatore rotante è costituito da un pallone di distillazione in vetro pyrex dellacapacità di 100 litri, inserito in un bagno termostatico; la serpentina di raffredda-mento e i palloni di raccolta dell’estratto (20 l) sono sempre in vetro pyrex; i tubiusati per l’immissione, il recupero del prodotto e il lavaggio del pallone sono in te-flon. L’apparecchio è gestito da computer interno che permette di impostare i pa-rametri di pressione, la temperatura del bagno, il numero di giri del pallone (1÷50rounds per minutes - rpm), di visualizzare la temperatura del prodotto e identifi-care il ciclo di lavorazione, la data e la durata dell’operazione (figura 2).Per il processo di essiccamento si dispone di due tipologie di attrezzature: un liofi-lizzatore ed una stufa termo-ventilata ad azoto. La liofilizzazione è un processo di es-siccamento particolarmente indicato per le matrici agro-alimentari ed è quello chefornisce prodotti disidratati di migliore qualità dal momento che è il processo con ilminor impatto sulla struttura del prodotto. Inoltre, i prodotti disidratati mediante lio-filizzazione sono quelli che meglio riacquistano le loro caratteristiche originariedopo reidratazione.Il liofilizzatore Virtis SL 35 a disposizione ha una camera di liofilizzazione com-posta da sette ripiani in acciaio inossidabile (per un totale di 0,84 m2 disponibi-li) su cui trovano posto i vassoi contenenti il prodotto da liofilizzare. La tempera-tura di liofilizzazione viene seguita da quattro termocoppie di tipo T in rame-co-stantana distribuite uniformemente nei vassoi. Il vuoto nella camera viene assi-curato da una pompa da vuoto Leybold della capacità di 25 litri/ora. L’acqua diliofilizzazione viene raccolta in un condensatore tenuto alla temperatura di circa–45 °C, avente capacità di 35 l, e che può essere reso indipendente dalla came-ra di liofilizzazione. I vassoi in acciaio inossidabile che contengono il prodottohanno dimensioni 24 × 50 × 5 cm e vengono riempiti formando strati inferiori ai2 cm di prodotto per permettere una efficace liofilizzazione (figura 3).L’apparecchio è gestito, in locale, da un computer interno su cui è possibile im-postare tutte le fasi del processo, oppure da remoto con un computer esternoposto in una sala controllo appositamente preparata.La macinazione viene effettuata per mezzo di un mulino (vibro-energy) a pallecon vasca in poliuretano e mezzi macinanti in zirconio collegato ad un vibro-va-glio equipaggiato con setacci in nylon (o metallo).Il sistema di mescolamento delle polveri per l’omogeneizzazione è costituito daun fusto in PET della capacità di 180 l posizionato su un carrello rotante. Tale si-stema sfrutta i principi cinematici della rotazione e dell’inversione. Difatti, l’assedel fusto è allineato con la diagonale del cilindro delineato dal carrello, consen-tendo così l’inversione durante il moto di rotazione.L’imbottigliamento viene realizzato con una macchina dosatrice per polveri. Lamacchina è costituita da un tavolo rotante per l’alimentazione delle bottiglie, il

Figura 3Liofilizzatore

Figura 2Evaporatore rotante

sostanze che, al tempo stesso, meglio rap-presentano la matrice e dispongono dellerighe di risonanza più idonee alla quantifi-cazione. La sensibilità analitica, la precisio-ne e la selettività della tecnica la rendono

particolarmente adatta al tipo di determi-nazione offrendo, inoltre, il vantaggio di unamanipolazione ridottissima del campioneanalitico e di tempi di analisi contenuti.

Un caso studio: preparazione diun materiale di riferimento amatrice “pomodoro”

Il processo

Le fasi di produzione e di controllo del pro-cesso, le macchine da utilizzare e l’indivi-duazione dei punti critici sono state pianifi-cate in dettaglio con l’ausilio di un dia-gramma di flusso rappresentato in figura 4.Il campionamento del materiale di parten-za è stato fatto scegliendo bacche a gradodi maturazione simile perché la concentra-zione di zuccheri, che sono fra gli analitiscelti per lo studio dell’omogeneità me-diante NMR, dipende fortemente dal gradodi maturazione.La fase di pre-trattamento prevede l’elimi-nazione delle parti estranee (foglie, pedun-coli ecc.), il lavaggio del materiale per ilcontrollo della contaminazione esogena ela macinazione del materiale, seguita dacentrifugazione, per una prima, grossolanaomogeneizzazione.A questo punto il materiale è pronto per lafase di disidratazione. Nella preparazionedel materiale a matrice “pomodoro” l’es-siccazione avviene per liofilizzazione dopouna preliminare distillazione a pressione ri-dotta.

186 COMPLESSITÀ & SVILUPPO 2003

V. ALTAMURA, M.A. BIANCIFIORI, F. INTROCASO, R. LAMANNA, M.L. MIGLIETTA, I. PISCIONERI

posizionamento sotto la dosatrice e lo scarico delle bottiglie piene al termine del ciclo produttivo. Ladosatrice dispensa le polveri secondo programmi di pesatura definiti dall’utente e può essere tara-ta da 1 a 1000 g.Il prodotto viene trasferito alla cella di carico tramite coclea o nastro trasportatore a seconda dellanatura delle polveri. Queste operazioni possono essere eseguite in atmosfera anidra di azoto o ariaoperando all’interno di una cabina predisposta opportunamente dalla cui sommità viene distribuitoil gas voluto. La chiusura ultima delle bottiglie in atmosfera controllata viene effettuata all’interno dellacamera del liofilizzatore, laddove la possibilità di evacuare precedentemente l’atmosfera sovrastan-te il prodotto nelle bottiglie, consente di garantire la presenza del solo gas desiderato all’internodella bottiglia chiusa.

CampionamentoAcquisto di pomodori freschi (30 kg)

Lavaggio del prodotto con H2Odi grado MilliQ

Eliminazione del 50% di H2Oper evaporazione a bassa pressione

Macinazione e centrifugazione

Liofilizzazione

Controllo dell’umidità residua

Macinazione

Setacciatura

Omogeneizzazione

Imbottigliamento

Conservazione a 18 °C al buio

Controlli analitici su: distribuzione,granulometrica, attività dell’acqua,

omogeneità, stabilità

Scarti

Scarti

Bucce e semi

> 3%

> 125 µm

> 500 µm< 125 µm

< 3%

Passata

Figura 4Schema di prepara-zione di un materia-le a matrice “Pomo-doro”

La distillazione a pressione ridotta permet-te di separare parte dell’acqua contenutanella matrice vegetale e recuperare conessa alcuni dei componenti volatili che ca-ratterizzano l’aroma dell’alimento.Questo distillato si rivela utile nella ricosti-tuzione del materiale liofilizzato, apportan-do parte di quei composti volatili che sa-rebbero altrimenti andati completamentepersi con la liofilizzazione.Successivamente il materiale solido disi-dratato è stato ridotto in polvere a granulo-metria controllata, omogeneizzato ed infineconfezionato. Il prodotto è stato confeziona-to in bottiglie di vetro scuro e conservato a18 °C (figura 5)[14].Durante il processo di preparazione, sono

187COMPLESSITÀ & SVILUPPO 2003

LA RISONANZA MAGNETICA NELLA CARATTERIZZAZIONE CHIMICA DI MATERIALI DI RIFERIMENTO

Figura 5Materiale di riferi-mento a matrice “Po-modoro”

Dati sperimentali

Massa prima dellaconcentrazione conevaporatore rotante

(kg)

Massa concentrataprima della liofilizzazione

(kg)

Massa dopo laliofilizzazione

(kg)

Resa inprodotto secco

(%)

Sono stati selezionati 30 kg di pomodori della varietà “ciliegino”, lavati con acqua a grado di purez-za milliQ, macinati e centrifugati.La purea di pomodoro è stata concentrata per allontanamento dell’acqua in essa contenuta median-te evaporazione a bassa pressione, secondo le seguenti condizioni operative: temperatura del bagno60 °C, RPM = 15, pressione = –920 mbar. La temperatura del prodotto durante l’evaporazione si èmantenuta costante intorno a 35 °C, tempo di evaporazione circa 5 h. Il distillato è stato raccolto econservato a 4 °C in tanica di PE. L’essiccamento è stato eseguito per liofilizzazione. Il prodotto con-centrato è stato distribuito nei vassoi del liofilizzatore, rivestiti con fogli di polietilene, formando stra-ti inferiori ai 20 mm e sistemati nel liofilizzatore VIRTIS SL 35.A completamento del processo di liofilizzazione il campione, che presentava una attività residua del-l’acqua pari aw = 0,185 a t = 20,6 °C, è stato raccolto in una busta di polietilene. I risultati del pro-cesso di disidratazione sono riassunti nella tabella sottostante.Il liofilizzato è stato macinato in un mulino a palle nella cui camera di macinazione sono stati aggiunticirca 20 kg di mezzi macinanti in zirconio. L’operazione è durata circa 15 minuti, al termine dei qualila polvere è stata convogliata ad un vibrovaglio dove sono state separate tre frazioni a 500, 125 e <125 µm. La frazione superiore a 500 µm è stata scartata (il 2% del totale), quella compresa fra 500 e125 µm è stata riunita alla frazione inferiore e macinata nuovamente per 15 minuti. Infine, è stata rac-colta la sola frazione a granulometria inferiore ai 125 µm. La polvere di pomodoro liofilizzato è stataomogeneizzata in fusto rotante per circa 8 ore. Dopo l’omogeneizzazione sono state riempite 38 bot-tiglie da 25 g con l’apposita macchina dosatrice per polveri.Le bottiglie sono state chiuse in atmosfera controllata. L’operazione si conduce all’interno del liofiliz-zatore grazie ad un particolare sistema di movimentazione dei ripiani. Nello specifico, le bottigliesono state tenute in condizioni di vuoto inferiore a 20 mTorr ad una temperatura di 30 °C per 24 h.Questo passaggio consente una ulteriore disidratazione del prodotto e garantisce l’eliminazione dieventuale umidità riassorbita dal liofilizzato durante le fasi di lavorazione precedenti la chiusura dellebottiglie. Infine le bottiglie sono state chiuse e sigillate in atmosfera di aria anidra.

23,41 14,86 1,1 4,7

stati previsti dei punti di controllo con rac-colta di campioni dalla massa di materialesottoposto a lavorazione per valutarne ilcontenuto di acqua libera residua, la granu-lometria, l’omogeneità.Dopo il confezionamento nelle singoleunità sono stati eseguiti i controlli analiticisulla omogeneità fra unità.

Controlli analitici

Granulometria

Sul prodotto finale è stata misurata l’attivitàresidua dell’acqua con uno strumento dimisura che sfrutta la tecnica del punto dirugiada (Aqualab) e ne è stata determinatala distribuzione granulometrica. I dati di di-

stribuzione granulometria sono riportati infigura 6.Dai dati di distribuzione granulometrica ri-portati in figura 6, si evince che circa il 90%del materiale prodotto con questo metodoha granulometria compresa fra 53 e 75 µm,con un massimo di distribuzione intorno a75 µm.

Caratterizzazione NMR della matrice

I campioni di passata e di liofilizzato di po-modoro e l’acqua estratta durante il pro-cesso di concentrazione della passata sonostati analizzati mediante NMR.La caratterizzazione analitica di una sostan-za naturale mediante NMR richiede un’as-segnazione univoca delle righe dello spet-tro alle sostanze contenute nel campione.Per quanto riguarda il pomodoro una par-ziale assegnazione dello spettro 1H NMR èstata effettuata da A. Sobolev et al.[15] e co-stituisce un primo passo per la realizzazio-ne di un protocollo di analisi NMR di mate-riali di riferimento di pomodoro.Gli esperimenti NMR sono stati eseguiti sucampioni allo stato liquido. Allo scopo sonostati preparati degli estratti liquidi dei cam-pioni di purea e liofilizzato di pomodoroper centrifugazione a 14000 rpm per 10min. Agli estratti è stata aggiunta, in rappor-to 1:2, una soluzione tampone di fosfato inD2O (600 mM, pD 6,5), contenente DSS0,1% come standard interno. I campionisono stati posti in tubi standard per NMRda 5 mm e analizzati utilizzando un probeTXI.Nelle figure 7 e 8 sono riportati, rispettiva-mente, gli spettri protonici del liofilizzato dipomodoro ricostituito con acqua distillata econ l’acqua ottenuta dal processo di con-centrazioneI due spettri sono abbastanza simili e diffe-riscono solo per alcuni segnali. In figura 9sono riportate in scala espansa le regionidello spettro in cui tali differenze sono evi-denti. Nella figura gli spettri ottenuti dal lio-filizzato ricostituito con due diversi tipi diacqua sono messi a confronto con lo spet-

188 COMPLESSITÀ & SVILUPPO 2003

V. ALTAMURA, M.A. BIANCIFIORI, F. INTROCASO, R. LAMANNA, M.L. MIGLIETTA, I. PISCIONERI

0

10

20

30

40

50

Dimensione particelle

Per

cent

uale

(%

)

125

µm

103

µm90

µm75

µm53

µm38

µm

< 38

µm

Figura 6Distribuzione gra-nulometrica MR “Po-modoro”

Figura 7Pomodoro liofiliz-zato ricostituito conH2O distillata

tro dell’acqua proveniente dal processo didistillazione a pressione ridotta. Da taleconfronto emerge che le differenze fra idue spettri sono imputabili alla sempliceaggiunta delle sostanze contenute nell’ac-qua estratta.Dall’analisi dello spettro 1H NMR dell’ac-qua estratta si evince la presenza di meta-nolo, etanolo, 1-metossietanolo e di alcunesostanze aromatiche che sono responsabilidell’aroma. Tali sostanze sono state identifi-cate nello spettro mediante alcuni esperi-menti bidimensionali in particolare COSYed Eterocorrelata che sono mostrati rispet-tivamente nelle figure 10a e 10b.Dal confronto con gli spettri di purea di po-modoro fresco, emerge la sostanziale coin-cidenza con lo spettro del campione di po-modoro liofilizzato ricostituito con l’acquaestratta dai pomodori stessi. Lo spettro delpomodoro fresco, infatti, contiene ricono-scibili i segnali del metanolo e dell’etanolomentre i segnali di altre molecole, presentinell’acqua estratta, sono nascosti dallerighe di risonanza più intense dei costi-tuenti principali del pomodoro.L’analisi NMR rivela pertanto la qualità del

processo di liofilizzazione del pomodoro.Infatti, non ci sono variazioni sostanziali nelprofilo molecolare di quest’ultimo rispetto aquello registrato per il pomodoro fresco equesto ci garantisce di aver preservato lamatrice. Inoltre, le trascurabili differenze frail prodotto fresco e quello liofilizzato vengo-no ulteriormente ridotte andando a ricosti-tuire il liofilizzato con l’acqua estratta dallamatrice stessa con il processo di evapora-

189COMPLESSITÀ & SVILUPPO 2003

LA RISONANZA MAGNETICA NELLA CARATTERIZZAZIONE CHIMICA DI MATERIALI DI RIFERIMENTO

Figura 9Espansioni degli spet-tri di: a) pomodoroliofilizzato ricostitui-to con H2O distillata;b) pomodoro liofiliz-zato ricostituito con ildistillato dalla matri-ce; c) distillato estrat-to dalla matrice

a

b

c

Figura 8Pomodoro liofiliz-zato ricostituito conil distillato dalla ma-trice

zione a pressione ridotta. Questo aspettodella conservazione delle proprietà dellamatrice è particolarmente importante nelsettore dei materiali di riferimento, dal mo-mento che essi servono a garantire agli uti-lizzatori di avere un prodotto che, stabile edomogeneo, riproduce al meglio le caratteri-stiche chimiche e fisiche della matricereale “fresca” oggetto di indagine.

Valutazione dell’omogeneità

Per lo studio della omogeneità sono stati

registrati gli spettri protonici del succoestratto dal pomodoro liofilizzato prelevatoda 10 bottiglie campione (circa 17 mg dimateriale solido in polvere per ogni estrat-to). La durata totale del singolo esperimen-to è di circa 10 minuti. La serie di 10 spettricontiene informazioni sull’omogeneità ditutti i metaboliti principali contenuti neicampioni. L’estrazione di tale informazionerichiede l’analisi numerica dello spettro edin particolare il calcolo dell’area delle righecorrispondenti agli analiti di interesse. Inquesto lavoro sono stati quantificati quattrometaboliti (α-glucosio, β-glucosio, acido lat-tico, acido citrico) che presentano righeben risolte nello spettro NMR. Questa non èuna condizione vincolante per la quantifica-zione dello spettro anche se righe risoltepresentano minori difficoltà di valutazione.Il calcolo dell’area di ciascuna riga relativaai quattro metaboliti è stata effettuata me-diante la simulazione dello spettro con unasovrapposizione di Lorentziane.In figura 11 l’omogeneità del MR pomodoroè confrontata con la variabilità intrinsecadel metodo di misura, ricavata dall’analisi di10 ripetizioni dello stesso campione. La va-riabilità del metodo è stata valutata dell’or-dine dello 0,6% per tutti gli analiti conside-rati (è da sottolineare che uno dei vantaggidella NMR è quello di fornire determinazio-ni analitiche di più metaboliti con errori dimisura confrontabili). Un coefficiente di va-riazione medio del 2% è stato rilevato neicampioni provenenti da diverse bottiglie.

Conclusioni

L’aumento nel volume degli scambi com-merciali a livello internazionale ha reso evi-dente, oggi più che in passato, la necessitàdi migliorare l’accuratezza delle misure, acausa delle conseguenze economichedegli errori e delle dispute originate daldisaccordo nei risultati. Tale necessità èresa ancora più pressante dall’accentuatointeresse per il controllo dell’ambiente eper la protezione dei consumatori.

190 COMPLESSITÀ & SVILUPPO 2003

V. ALTAMURA, M.A. BIANCIFIORI, F. INTROCASO, R. LAMANNA, M.L. MIGLIETTA, I. PISCIONERI

n° unità campione0 2 4 6 8 10

32

31,5

31

30,5

30

29,5

29

28,5

28

Variabilità fra unità

(Aci

do c

itric

o) (

U.A

.)

n° replica0 2 4 6 8 10

32

31,5

31

30,5

30

29,5

29

28,5

28

Variabilità fra NMR

(Aci

do c

itric

o) (

U.A

.)

Figura 10Spettri bidimensio-nali del distillatoestratto dalla matrice

Figura 11L’omogeneità del MRpomodoro è con-frontata con la varia-bilità intrinseca delmetodo di misura, ri-cavata dall’analisi di10 ripetizioni dellostesso campione

Un’adeguata verifica degli strumenti e deimetodi usati nella pratica analitica può con-tribuire notevolmente a migliorare tale si-tuazione.Anche i materiali di riferimento possonodare un valido contributo, in quanto lo svi-luppo di nuovi materiali e la loro disponi-bilità su vasta scala sono dei momentidella massima importanza per stabilire emantenere la qualità nelle analisi chimi-che, sia dei costituenti principali, sia deglielementi in traccia. Quanto detto è parti-colarmente vero per la caratterizzazionechimica degli alimenti per la quale i mate-riali di riferimento forniscono un significa-tivo contributo al controllo della loro qualitàe sicurezza.In questo lavoro è stato descritto il processodi produzione e di caratterizzazione analiti-ca preliminare di un materiale di riferimentodi lavoro a matrice “pomodoro”.L’omogeneità e qualità del materiale sonostati valutati con una tecnica analitica inno-vativa quale la NMR che ha mostrato l’altogrado di coincidenza con la matrice ini-ziale fresca, soprattutto laddove il liofiliz-zato venga ricostituito con l’acqua estrattadalla stessa matrice, e la soddisfacenteomogeneità del materiale ottenuto in ac-cordo con la misura della distribuzionegranulometrica.L’attività di preparazione e di caratterizza-zione può risultare estremamente utileconsiderando che non solo c’è bisogno dinuovi materiali, che soddisfino una mag-giore varietà di necessità analitiche, maanche di dati migliori, per quanto riguardaaccuratezza e precisione, nei materiali diriferimento esistenti.

Bibliografia01. URIANO G.A., GRAVATT C.C., CRC Crit. Rev. Anal.

Chem., 6, 361, 1977.

02. BIANCIFIORI M.A., MADARO M., Reference Materials- An assessment of the present situation, ENEART/INN/90/13.

03. ISO Guide 30, 1992. Terms and definitions usedin connections with reference materials.

04. ISO Guide 32, 1997. Calibration in analyticalchemistry and use of certified reference mate-rials.

05. KRAMER K.J.M. KRAMER G.N., MUNTAU H., PracticalManual for the Production of LaboratoryReference Material, Mermayde – Bergen (NL),2001.

06. PAUWELS J., LAMBERTY A., SCHIMMEL H., “Homo-geneity testing of reference materials”, Accred.Qual. Assur., 3 : 51-55, 1998.

07. LISINGER T.P.J., PAUWELS J., VAN DER VEEN A.M.H.,SCHIMMEL H., LAMBERTY A., “Homogeneity and sta-bility of reference materials”, Accred. Qual.Assur., 36 : 20-25, 2001.

08. VAN DER VEEN A.M.H., LISINGER T.P.J., PAUWELS J.,“Uncertainty calculations in the certification ofreference materials. 2. Homogeneity study”,Accred. Qual. Assur., 6 : 26-30, 2001.

09. PFEFFER P.E., GERASIMOWICZ W.V., Nuclear Magneticresonance in Agricolture, CRC Press, 1989.

10. BELTON P.S., HILLS B.P., WEBB G.A. (editors),Advances in Magnetic Resonance in FoodScience, RSC, 1999.

11. BIANCIFIORI M.A., LAMANNA R., MANNINA L., SEGRE

A., “La Risonanza Magnetica Nucleare nel cam-po agro-alimentare”, Energia, ambiente e inno-vazione, 2/2001, 46-58.

12. PAULI G.F., “qNMR – A versatile concept for thevalidation of natural product reference com-pounds”, Phytochem. Anal. 12, 28-42, 2001.

13. MANIARA G., RAJAMOORTHI K., SRINIVASAN R.,STOCKTON G.W., “Method performance and vali-dation for quantitative analysis by 1H and 31PNMR spectroscopy. Application to analytical stan-dards and agricultural chemicals”, Anal. Chem.70, 4921-4928, 1998.

14. GIOVANNELLI G., PARADISO A., “Stability of dried andintermediate misture tomato pulp during stora-ge”, J. Agric. Food Chem. 2002, 50, 7277-7281.

15. SOBOLEV A., SEGRE A., LAMANNA R., “Proton high-field NMR study of tomato juice”, MagneticResonance in Chemistry, 41 : 237-245, 2003.

191COMPLESSITÀ & SVILUPPO 2003

LA RISONANZA MAGNETICA NELLA CARATTERIZZAZIONE CHIMICA DI MATERIALI DI RIFERIMENTO

&com

ple

ssità

svilu

ppo

Il solare fotovoltaico svolge un ruolo sempre piùdiffuso in architettura. Sta diventando una realenecessità per chi progetta e costruisce, e stimola

tecnici e ricercatori a realizzare soluzioni innovativeefficaci e di pregio

FRANCESCO PAOLO VIVOLIALESSANDRA SCOGNAMIGLIO

ENEAUTS Fonti Rinnovabili

e Cicli Energetici Innovativi

Il solare fotovoltaicoper una architettura sostenibile

2003 Tratto da: ENERGIA, AMBIENTE E INNOVAZIONE 5/03

192 COMPLESSITÀ & SVILUPPO 2003

Le premesse per il successo diuna nuova tecnologiaLa tecnologia fotovoltaica sta oggi vivendoun momento particolarmente felice. Tra leenergie alternative a quelle fossili oltre cherinnovabili, che tendono in prospettiva agarantire una fonte inesauribile di approv-vigionamento energetico, l’energia solareè quella che meglio risponde al requisitosempre più pressante di soddisfacimentodei bisogni energetici dell’uomo in manie-ra compatibile con l’ambiente. L’energiaelettrica prodotta dai moduli fotovoltaicipuò essere utilizzata:• per alimentare strutture impiantistiche di

servizio isolate e stoccata in batterie: èquesto il caso di impianti “ad isola”, lon-tani dalla rete pubblica di distribuzione;

• per l’immissione in rete, è il caso degliimpianti funzionanti in parallelo alla retedi distribuzione, con cui scambia ener-gia, cedendola nei momenti in cui la pro-duzione eccede i consumi, e recuperan-dola nelle ore di bassa produzione;

• per alimentare la rete interna e gli appa-recchi elettrici di edifici unifamiliari; op-pure, nel caso di edifici destinati ad uffici,ad integrazione della richiesta energeti-ca nei momenti di picco di consumo elet-trico.

L’industria energetica sta sviluppando laricerca di impianti e componenti di avan-guardia, che tendono a consentirne unosfruttamento efficace ed economico. In talsenso i sistemi fotovoltaici che possono es-sere integrati negli involucri edilizi, o chepossono trovare applicazione nell’ambitodelle infrastrutture urbane – quali barriereantirumore, lampioni, pensiline delle fer-mate della rete dei trasporti di superficie odei parcheggi – giocano un ruolo signifi-cativo.La varietà delle modalità di integrazionedei sistemi fotovoltaici in architettura facapo alla possibilità di impiegare compo-nenti speciali o sistemi di montaggio estre-mamente diversificati per le varie applica-zioni quali coperture inclinate, coperture

piane, coperture curve, facciate, frangisole.È utile notare che, pur ricorrendo ad unastessa tipologia di applicazione, i livelli diintegrazione possono essere diversi. Infatti,in via del tutto generale, si può dire che leapplicazioni possibili vanno dalla semplicesovrapposizione dei sistemi fotovoltaici suicomponenti edili tradizionali, alla loro par-ziale integrazione in essi, alla totale integra-zione (con la conseguente completa sosti-tuzione dei componenti edili tradizionali).

Fotovoltaico ed architettura,un interessante binomioCiò che ha indubbiamente frenato la diffu-sione delle applicazioni fotovoltaiche finoad oggi è stato l’elevato costo di questatecnologia. Con i programmi di incentiva-zione pubblica recentemente lanciati in di-versi paesi, oltre all’abbattimento immedia-to dei costi dovuto ai contributi economici,si conta di dare avvio a quelle economie discala e a quelle innovazioni di processo edi prodotto che dovrebbero rendere leaziende che operano in questo settore unpo’ meno dipendenti dall’aiuto pubblico econsentire loro, in un futuro non lontano, didiventare competitive sul mercato. È ora-mai chiaro come a rappresentare il seg-mento di mercato più interessante siano gliimpianti di piccola taglia connessi alla reteelettrica di distribuzione (denominati an-che impianti per generazione diffusa con-nessa a rete) e, specialmente, quelli inte-grati in architettura.I vantaggi derivanti dall’impiego di sistemifotovoltaici di questo tipo sono di diversanatura. In primo luogo il ricorso a sistemifotovoltaici connessi alla rete elettrica, nelcaso di una considerevole generazione dif-fusa, consente di sopperire ai picchi didomanda che si verificano nelle ore diurnea causa dei forti consumi dovuti al funziona-mento degli esercizi commerciali o degliambienti di lavoro, sulla cui domanda graval’impiego di potenti sistemi di condiziona-mento dell’aria (si tenga conto che l’ener-

193COMPLESSITÀ & SVILUPPO 2003

IL SOLARE FOTOVOLTAICO PER UNA ARCHITETTURA SOSTENIBILE

gia consumata nelle fasce orarie di punta ri-sulta essere la più costosa); e di produrreenergia elettrica nel luogo in cui viene con-sumata, modulandola sulle esigenze dell’u-tenza, con una conseguente minore neces-sità di potenziare le linee di trasformazione.A ciò si aggiunga che la possibilità di im-piego di superfici marginali degli edifici ola completa integrazione nelle struttureedili consente di evitare l’occupazione disuolo da parte del sistema (si pensi alla no-tevole estensione delle grandi centrali foto-voltaiche); e che, inoltre, si evitano perditedi energia dovute alla distribuzione, inquanto l’energia elettrica viene utilizzatanello stesso luogo in cui viene prodotta.Sul fronte strettamente inerente il campodella progettazione architettonica e dellecostruzioni di involucri è da dire che:• l’impiego di sistemi fotovoltaici integrati

negli involucri edilizi si coniuga con l’ela-borazione di soluzioni progettuali ispirateai principi della progettazione bioclimati-ca, che intende massimizzare gli apportisolari e ridurre al minimo il consumo dienergia legato al raggiungimento e man-tenimento del comfort termico degli in-vasi;

• mediante una corretta progettazione l’uti-lizzo multifunzionale del componente foto-

voltaico può incidere favorevolmente sulleprestazioni termiche dell’involucro, ed èpossibile, anche, prevedere modalità direcupero dell’energia termica prodottadal surriscaldamento del retro dei moduli;

• si possono ridurre, in una certa misura, icosti di costruzione (risparmio sullestrutture di supporto e risparmio sui ma-teriali da costruzione), e quelli di installa-zione dei sistemi fotovoltaici;

• i componenti fotovoltaici possiedono ca-ratteristiche di modularità e di alta inte-grabilità (compatibilità con tecnologieedilizie tradizionali), pertanto il loro im-piego è compatibile con i moderni pro-cessi di produzione e costruzione;

• i tempi di ritorno energetico ed econo-mico dei sistemi fotovoltaici sono compa-tibili con i tempi di vita degli edifici.

Relativamente a quest’ultimo punto, espe-rienze ed analisi condotte da autorevoli or-ganismi mostrano che la durata dei sistemifotovoltaici è compatibile e paragonabilealla durata degli edifici ed ai loro intervallidi tempo di manutenzione. A questo propo-sito, è da evidenziare che la rapida evolu-zione tecnica e industriale degli ultimi anniha determinato il mutamento dei requisiti edelle caratteristiche dei manufatti edili. Sivaluta oggi che, dopo circa 50-60 anni, per

194 COMPLESSITÀ & SVILUPPO 2003

FRANCESCO PAOLO VIVOLI, ALESSANDRA SCOGNAMIGLIO

1 I primi sistemi realizzati a scopo sperimentale hanno già, pur realizzati con tecnologie ormai superate, una vita di almeno 25 annie continuano a fornire la stessa energia di cui ai primi anni di vita.

0,25 0,27 1,50,16

0,970,21

3,42,8

3,67

2,75

7,8

DEU; 83,3

0,13DEU NLD

ITA ESP

FRA AUT

SWE FIN

GBR DNK

GRE PRT

BEL

Grafico 1Potenza totale degliimpianti solari foto-voltaici installati in13 paesi dell’UnioneEuropea nel 2002 (inMWp)

edifici particolarmente complessi e dall’al-to contenuto tecnologico, il costo di manu-tenzione sarebbe superiore al costo di de-molizione e riciclaggio delle sue particomponenti. Questo se confrontato con ladurata di circa 30 anni finora stimata deimoduli fotovoltaici in silicio cristallino1, fa-rebbe coincidere i cicli della manutenzionestraordinaria, o addirittura della demolizio-ne e sostituzione dell’edificio, con quelli divita del materiale fotovoltaico. Infatti la du-rata di vita del fotovoltaico potrebbe essereanche maggiore dei 30 anni, perché dalpunto di vista fisico non esiste alcun motivoper cui il silicio od il vetro debbano degra-darsi prima.Nell’ottica dello sviluppo sostenibile delpianeta, il fotovoltaico potrebbe giocare un

ruolo di tutto rispetto, consentendo di forni-re energia elettrica pulita a partire da unafonte rinnovabile sufficiente per i consumidi miliardi di esseri umani. Al modello at-tuale di produzione, trasporto e distribu-zione dell’energia elettrica ne subentre-rebbe uno nuovo basato su una decentra-lizzazione molto spinta del sistema di gene-razione, in cui la produzione ed il consumopossono essere l’una vicina all’altro. Moltiargomenti giocano a favore di questa ipote-si: la riduzione delle perdite di energia do-vute alle linee elettriche, la limitazione dellelinee ad altissima tensione, a rilevante inqui-namento visivo ed elettromagnetico, la libe-ralizzazione del mercato elettrico che offrenuove possibilità di vendita ed acquisto li-bero di elettricità, così come avviene per la

195COMPLESSITÀ & SVILUPPO 2003

IL SOLARE FOTOVOLTAICO PER UNA ARCHITETTURA SOSTENIBILE

33.580

6.636 8.83617.600

1.500

194.700

9.080 2.75813.856

2.746 473

20.000

452.230

4.757 14.97220.509

6.210 928 3.032

167.800

0

50.000

100.000

150.000

200.000

250.000

300.000

350.000

400.000

450.000

500.000

kWp

AUS AUT CAN CHE DNK DEU ESP FIN FRA GBR ISR ITA JPN KOR MEX NLD NOR PRT SWE USA

Grafico 2Potenza cumulatadegli impianti solarifotovoltaici installatinei paesi OCSE al2001 (in kWp)

982.203

kWp

0

100.000

200.000

300.000

400.000

500.000

600.000

700.000

800.000

900.000

1.000.000

1992 1993 1994 1995 1996 1997 1998 1999 2000 2001

109.940136.240

163.905 198.627244.706

313.984

395.711

519.933

725.562

Grafico 3Potenza totale degliimpianti solari foto-voltaici installati neipaesi OCSE dal 1992al 2002 (in kWp)

maggior parte degli altri beni di consumo.In un tale scenario, è molto probabile chela produzione d’elettricità a partire dallaconversione fotovoltaica, in piccole unitàdistribuite, ma collegate alla rete elettrica,avrà un ruolo importante da giocare, e cheper la gran parte le applicazioni sarannocostituite da sistemi integrati negli involucriedilizi. In concomitanza alla creazione diun vero mercato è, a breve termine, previ-sto lo sviluppo di nuovi prodotti con requi-siti tecnici migliorati e costi sempre piùcompetitivi, e, inoltre si moltiplicherà la di-sponibilità di componenti innovativi speci-ficamente pensati per l’integrazione in ar-chitettura, come ad esempio elementi foto-voltaici realizzati su supporti flessibili, susupporti policromatici riflettenti o traspa-renti, su supporti in materiali naturali.

Ricerche per la diffusione delfotovoltaico in architetturaA grandi linee, le ricerche finora condottenell’ambito dell’applicazione e della diffu-sione di sistemi fotovoltaici in architetturaattengono principalmente a due filoni: ilprimo incentrato sulla prefabbricazione, ilsecondo orientato a migliorare l’accettabi-lità del fotovoltaico, curandone la valenzaestetica (intesa anche come valore aggiun-to). È, ovviamente, comune a entrambi i fi-loni di ricerca l’esigenza di attuare una pro-gressiva riduzione dei costi, senza la qualenon sarà possibile un’apprezzabile diffu-sione di questa tecnologia.Le ricerche sulla prefabbricazione indaga-no la possibilità di inserire il fotovoltaiconei normali processi di produzione edilizia,in modo da ridurne i costi di produzione.Esse si concentrano sulla ricerca e speri-mentazione di sistemi innovativi altamentefunzionali a bassa tecnologia realizzabili in

processi industriali (rispondenza a requisitiedili), e sulla messa a punto di kit per inter-venti retrofit e BIPV (compatibilità con tec-nologie e sistemi costruttivi tradizionali).Le ricerche sull’accettabilità dei sistemi fo-tovoltaici, relativamente agli aspetti visivi,indagano la possibilità di impiegare i mo-duli fotovoltaici per l’edilizia come elemen-ti che siano in grado di migliorare l’aspettodegli edifici: esse si concentrano, in linea dimassima, sulla sperimentazione di compo-nenti innovativi, cosiddetti “ad alta valenzaestetica” e sull’individuazione degli ele-menti peculiari della tecnologia fotovoltai-ca che, opportunamente disegnati, possa-no concorrere a migliorare l’aspetto deicomponenti (moduli e celle).In ambito europeo molteplici sono i proget-ti di ricerca orientati in tal senso; a titolo diesempio, se ne possono citare due svilup-pati nel corso degli ultimi anni, il primo in-centrato sulla prefabbricazione (PRIDE), ilsecondo sullo sviluppo di componenti foto-voltaici ad alta valenza estetica (BIMODE).Il progetto PRIDE (Prefabrication of RoofIntegrated PV systems), iniziato nell’apriledel 1997 e conclusosi nel febbraio del2000, si era posto come obiettivo l’inseri-mento del fotovoltaico nei normali processidi produzione edilizia a bassa tecnologiamediante lo sviluppo di un componenteprefabbricato per l’integrazione in coper-ture inclinate2. I partner erano una compa-gnia di ricerca e consulenza, la Ecofys; unproduttore di elementi per tetti, la Unidek;una compagnia elettrica, la RWE; l’ENEL;un contraente associato, la Ove Arup &Partners, con funzione di consulenza sul-l’ingegnerizzazione; un consulente sull’in-dustrializzazione edilizia designato dallaEcofys, la Hullmann Willkomm & Partners;un consulente sull’integrazione di sistemisolari nel costruito, sempre designato dalla

196 COMPLESSITÀ & SVILUPPO 2003

FRANCESCO PAOLO VIVOLI, ALESSANDRA SCOGNAMIGLIO

2 Molto interessante, nel campo delle ricerche sullo sviluppo e sperimentazione di componenti fotovoltaici prefabbricati per l’edili-zia, è anche un altro progetto europeo, denominato PV Starlet, incentrato sullo sviluppo e produzione di una lastra piana fotovoltai-ca adatta ad un buon numero di tegole differenti diffuse in Europa. Partner del progetto sono nove società, costituite da produttoridi tegole e materiali per tetti e produttori di strutture metalliche. Al momento sono stati messi a punto due prototipi adatti, rispetti-vamente, all’impiego con tegole piane e tegole curve. Si veda B. Gaiddon: PV-Starlet The development of a PV tile at a Europeanlevel, presentato alla conferenza “PV in Europe – From PV technology to energy solutions” (Roma, 7-11 ottobre 2002).

Ecofys, la Roy Gelders Architects.Il maggiore risultato del progetto PRIDE èstato la messa a punto di un prodotto com-merciale denominato UniSole, caratterizza-to da bassi costi ed alta qualità, caratteristi-che che gli hanno fatto meritare apprezza-menti sia da parte degli utenti che delleimprese edili (figura 1).Sul fronte della valenza estetica, il progettoBIMODE (DEvelopment of BI-functionalphotovoltaic MOdules for building integra-tion), iniziato nel dicembre del 1997 e con-clusosi nel novembre 1999, si ponevacome obiettivo quello di sviluppare unagamma di moduli fotovoltaici adatti all’inte-grazione in facciata, che dessero un utilecontributo in termini di energia elettrica al-l’edificio, e fossero disegnati in modo davalorizzarne anche l’aspetto (è in questosenso che si trattava di moduli bifunzionali:generatori elettrici ed elementi decoratividella facciata). Per rispettare la prima con-dizione era stato stabilito un limite minimodi rendimento elettrico dei moduli da svi-luppare pari all’8% (in realtà tutti i prototipirealizzati, ad eccezione di quello esagona-le, hanno un’efficienza compresa tra il 6,3ed il 12,1%). Particolarmente interessanteè stata la composizione del team di ricerca,che testimonia la necessità di un approcciomultidisciplinare al tema dell’integrazionedel fotovoltaico in architettura. Partner delprogetto erano: la BP Solarex, con funzionedi coordinamento del progetto; la Kun-sthochschule für Medien di Colonia, per ildesign; l’Atmoinstitut of the Austrian Uni-versities, per l’ottimizzazione del designdelle celle ai fini del rendimento energeti-co; la Ove Arup & Partners, per la consu-lenza architettonica; la TFM (Teulades yFaçades Multifunctionales) di Barcellonaper la produzione dei moduli; la Bayer AGper la fornitura dei wafer; la IES (Uni-versidad Politecnica de Madrid) per le si-mulazioni teoriche.Nell’ambito di questo progetto sono statimessi a punto sei differenti prototipi, rap-portabili a due tipologie. La prima di esse

ha indagato la possibilità di ibridare duedifferenti processi produttivi, quello del fo-tovoltaico e quello dell’arte vetraia, realiz-zando come prodotto finale alcuni pannellivetrati decorati fotovoltaici. La seconda, in-vece, ha indagato i gradi di libertà offerti aidesigner dal fotovoltaico (colore e formadelle celle, aspetto delle griglie e dei con-tatti elettrici).Relativamente alla prima tipologia, per ilprimo prototipo l’idea era integrare dueelementi tra di loro completamente diffe-renti ed estranei, quali i pannelli in vetrodecorati (risultato dell’interazione tra l’artedella lavorazione del vetro e la pittura suvetro), e moduli fotovoltaici; è stato dise-gnato un tradizionale pannello vetrato perfinestra con elementi ornamentali figurativi,nel quale sono state integrate delle cellefotovoltaiche standard con connessionistandard (figura 2). In un altro caso è statacombinata la tecnologia del vetro fuso conquella fotovoltaica; sono stati realizzati duemoduli colorati in vetro fuso che integranocelle fotovoltaiche standard (figura 3).In riferimento alla seconda tipologia di mo-duli, sono stati realizzati: un modulo trian-

197COMPLESSITÀ & SVILUPPO 2003

IL SOLARE FOTOVOLTAICO PER UNA ARCHITETTURA SOSTENIBILE

Figura 1UniSole, sistema fo-tovoltaico prefab-bricato per integra-zione in coperturainclinata messo apunto nell’ambitodel Progetto PRIDE

Figura 2Modulo fotovoltai-co in pannello vetra-to progettato nel-l’ambito del Pro-getto BIMODE (dise-gn del prof. JürgenClaus)

golare composto da celle triangolari di co-lori blu scuro, blu acciaio, oro e magenta,disposte in modo da ottenere un motivogeometrico decorativo; un modulo rettan-golare allungato con strisce di celle alter-nate di forma rettangolare e quadrata, dicolore magenta ed oro; un modulo “cubi-co” composito realizzato con tre laminatifotovoltaici romboidali ognuno con cellemonocristalline di colore differente (bluscuro, blu acciaio ed oro), che, assemblatiinsieme, contribuiscono a conferire al mo-dulo l’effetto tridimensionale di un cubo; unmodulo con celle monocristalline esagona-li di colore verde e pattern dei contatti elet-trici sinusoidale (i contatti elettrici seguonola forma del confine tra le celle).A ben vedere, fermo restando l’interesse diquesta ricerca, non poche perplessità su-scitano gli esperimenti di ibridazione tra latecnologia fotovoltaica e quella dell’artevetraria, in primo luogo per la penalizza-zione eccessiva arrecata agli aspetti ener-getici e, inoltre, per ragioni legate alla scar-sa ripetibilità dell’esperienza ed all’ap-proccio metodologico.

In particolare, prendendo a prestito le pa-role di Adolf Loos, si potrebbe obiettareche “ogni materiale possiede un linguag-gio formale che gli appartiene e nessunmateriale può avocare a sé le forme checorrispondono a un altro materiale. Perchéle forme si sono sviluppate a partire dallepossibilità di applicazione e dal processocostruttivo propri di ogni singolo materiale,si sono sviluppate con il materiale e attra-verso il materiale. Nessun materiale con-sente una intromissione nel proprio reper-torio di forme”3.In tal senso, ben più interessanti, almeno dalnostro punto di vista, si presentano i prototi-pi della seconda tipologia in quanto, comeanticipato, hanno consentito di indagare lepossibilità formali (estetiche, per così dire),intrinseche alla tecnologia fotovoltaica.Infatti, se sperimentazioni sulla valenzaestetica del fotovoltaico di questo tipo sicollocano, evidentemente, in un ambito pro-prio della ricerca, ancora distante dalcampo delle realizzazioni usuali, il crescen-te interesse mostrato da istituzioni scientifi-che e da produttori di celle verso il temadella valenza estetica fa supporre che in unfuturo abbastanza prossimo vi saranno ulte-riori possibilità di scelta per i progettisti.Allo stato attuale tra le differenti tipologie dimoduli esistenti i componenti che sembra-no più flessibili rispetto alle tematiche pro-prie della progettazione architettonica e deldesign sono i moduli del tipo vetro-vetro(realizzati mediante l’incapsulamento conresina trasparente delle celle fotovoltaichetra due pannelli in vetro), i quali offrono unagrande libertà progettuale grazie alla pos-sibilità di variare alcuni parametri quali, ladimensione e la forma dell’elemento vetra-to, il sistema tecnologico costruttivo di fac-ciata o di copertura nella quale integrare ilsistema fotovoltaico, lo schema distributivoe la distanza tra le celle, il tipo di cella, lemodalità di cablaggio.In tale direzione, nell’ambito delle ricerche

198 COMPLESSITÀ & SVILUPPO 2003

FRANCESCO PAOLO VIVOLI, ALESSANDRA SCOGNAMIGLIO

Figura 3Modulo fotovoltai-co in pannello invetro fuso progetta-to nell’ambito delprogetto BIMODE(design del prof.Hellmuth Costard)

Figura 4Componente vetra-to frangisole SGG-PROSOL con celleERSOL rot

3 ADOLF LOOS, Il principio del rivestimento (1898), in Parole nel vuoto, Milano 1990, p. 80.

condotte dall’Unità Tecnico Scientifica FontiRinnovabili e Cicli Energetici Innovatividell’ENEA, durante lo scorso anno si è in-dagata la possibilità di realizzare una tipo-logia di componente edilizio con modulofotovoltaico vetro-vetro che, per caratteri-stiche tecniche e funzionali (compatibilitàcon tecnologie edilizie esistenti, funzioniaggiunte al fotovoltaico), oltre che di ordineestetico, si prestasse ad una larga applica-zione; il fine era verificare le possibilità diimpiego di moduli fotovoltaici in edifici esi-stenti o di nuova realizzazione, caratteriz-zati dall’uso di linguaggi architettonici con-temporanei.Sono state sperimentate le possibilità com-positive offerte dalla tipologia di modulofotovoltaico vetro-vetro (di uso oramai piut-tosto diffuso), individuando i parametri pro-gettuali che ne caratterizzano la flessibilitàdi impiego in architettura e, in specialmodo, nelle facciate; per questo scopo si èrealizzato un componente vetrato fotovol-taico con funzione di frangisole per un si-stema di serramento apribile.Particolare attenzione è stata rivolta allefasi di progettazione del componente, e nesono state elaborate dieci varianti (mante-nendo fissa la dimensione del pannello dicm 83,5 x 143), differenti per tipologia dicelle (dimensioni, colore) e per disposizio-ne (pattern e interspazi), al fine di verificar-ne, oltre che la riuscita formale, anche la fun-zionalità rispetto alla funzione schermantedal sole. Per otto campioni si è fatto ricorsoall’impiego di celle colorate con disposizio-ne spaziale uniforme, a densità differente, alfine di valutare le possibilità cromatiche delfotovoltaico (figura 4); per gli altri due cam-pioni, invece, la distribuzione delle celle èstata studiata in modo da disegnare un moti-vo geometrico armonico.A tal fine si è fatto uso di misure derivantidalla serie rossa del Modulor (figure 5 e 6),il sistema di proporzionamento ideato da LeCorbousier, basato sulla regola della sezio-ne aerea e su alcune misure del corpoumano.

ConclusioniIn conclusione, è possibile dire che la cul-tura progettuale contemporanea è semprepiù orientata verso un’interazione positivatra il manufatto costruito e l’ambiente circo-stante, che si attua anche attraverso il ricor-so alle fonti rinnovabili di energia, ed allemoderne tecnologie. In tal senso l’integra-zione di sistemi fotovoltaici in architetturanon va vista esclusivamente come una pos-sibilità per la diffusione e lo sviluppo delfotovoltaico, ma come una reale necessitàdi un certo modo di progettare e costruire,rispetto alla quale il mondo della ricercapuò fornire delle risposte, che sono sia gliapprofondimenti scientifici, che la diffusio-ne delle conoscenze.A riprova di questo interesse da parte delmondo della cultura progettuale verso lefonti rinnovabili in generale, e verso il ri-corso alle tecnologie solari nello specifico,in un articolo pubblicato su una delle piùimportanti riviste nazionali di architettura,ed intitolato “Vi dispiacerebbe smettere dicostruire come avete fatto finora?”, WernerSobek, successore di Frei Otto dal 1995all’Università di Stoccarda, sostiene:

199COMPLESSITÀ & SVILUPPO 2003

IL SOLARE FOTOVOLTAICO PER UNA ARCHITETTURA SOSTENIBILE

Figura 5Componente vetra-to frangisole SGG-PROSOL con celleASE TE 16 SF

Figura 6Schema del modulocon celle ASE TE 16SF proporzionatocon il Modulor

Modulor serie rossa

113069,8043,2026,7016,5010,2006,3003,9002.05001,5000,90000,6

“L’architettura di oggi, in base ai propriobiettivi concettuali e di progettazione,si autodefinisce come radicata nel terzomillennio: un’architettura che ritiene diesprimere atteggiamenti tipici della no-stra epoca e di quella futura, che trova lesue forme non ricorrendo a progetti emateriali tradizionali, ma basandosi suprocessi integrali di pianificazione e or-ganizzazione che tengono conto degliattuali stili di vita e di quelli futuri.Questo tipo di architettura ha un rappor-to radicalmente diverso e positivo conl’ambiente naturale, i suoi utenti e la re-lativa tecnologia.Risulta quindi ovvio che tale tipo di ar-chitettura possa sfruttare anche le tecno-logie moderne generalmente accettateed applicate. In altre parole, ciò significache un edificio residenziale costruitooggi potrebbe, e dovrebbe, essere deltutto non inquinante e capace di funzio-nare esclusivamente ad energia eolicae/o solare. Una costruzione simile do-vrebbe essere collocata nell’ambientenaturale con interferenze minime. (…) Èinoltre superfluo ribadire che questotipo di architettura richiede processi dif-ferenti di progettazione e di costruzione.Per realizzare sistemi modulari e alta-mente integrati sono necessarie nonsolo conoscenze scientifiche e unabuona dose di fantasia durante la fase diprogettazione, ma anche una stretta coo-perazione tra progettisti e costruttori.” .4

Questo testo appare di particolare interesseper diversi aspetti. In primo luogo è testimo-nianza di come negli ultimi anni il tema dellasostenibilità, dibattuto precedentemente inambiti quasi esclusivamente scientifici, siadiventato un riferimento costante nella pro-gettazione e costruzione degli edifici edegli ambienti contemporanei.In secondo luogo, relativamente al temadell’integrazione del fotovoltaico in archi-tettura, definisce una posizione di diritto

per la tecnologia fotovoltaica (inclusa nelpiù generale tema delle tecnologie solari)accanto alle altre tecnologie moderne im-piegate nella costruzione degli edifici.Gli aspetti evidenziati si coniugano perfet-tamente con la consapevolezza maturatada tempo in ambito scientifico, e cioè chel’integrazione del fotovoltaico in architetturarappresenti uno dei campi più promettentirispetto alla diffusione di questa tecnologia,grazie anche ai molti ed indubbi vantaggiche tale tipo di applicazione offre rispettoalla realizzazione di grandi centrali isolate.Come è noto tale consapevolezza ha fatto sìche sul versante tecnico si indagassero leproblematiche (elettriche e normative) le-gate alla connessione in rete degli impianti,e all’impiego del modulo fotovoltaico comecomponente edile (e questo sforzo è statocondiviso anche dai costruttori e dai pro-duttori sia di componenti fotovoltaici sia dicomponenti edili tradizionali). A questopunto, ciò che emerge è che sembra giuntoil momento di mettere in atto una connes-sione tra pratica, progettazione, realizzazio-ne e ricerca, poiché nella cultura progettua-le contemporanea si delinea un ruolo delfotovoltaico non più solo “possibile”, ma“dovuto”. L’auspicio è che l’interesse e lenuove conoscenze dei progettisti e dei tec-nici possano consentire la sperimentazionedi soluzioni innovative e di pregio sia per laprogettazione architettonica che per la dif-fusione e la qualità del fotovoltaico.

BibliografiaC. ABBATE (a cura di), L’integrazione architettonica delfotovoltaico: esperienze compiute, Roma 2002.

N. ASTE, Il fotovoltaico in architettura, Napoli 2002.

R. THOMAS, Photovoltaics and Architecture, Londra2002.

AA. VV., La città del Sole - Guida al fotovoltaico nellearee urbane, Firenze 2001.

AA. VV., PRIDE-Publishable Report, 2002.

AA. VV., BIMODE-Publishable Report, 1999.

200 COMPLESSITÀ & SVILUPPO 2003

FRANCESCO PAOLO VIVOLI, ALESSANDRA SCOGNAMIGLIO

4 W. SOBEK, “Vi dispiacerebbe smettere di costruire come avete fatto finora?”, in Casabella, 694, novembre 2001, p. 19.

201COMPLESSITÀ & SVILUPPO 2003

&com

ple

ssità

svilu

ppo

La mobilità privata, non sempre accompagnata

da un adeguato sviluppo delle infrastrutture disupporto, è divenuta il problema più importante per la

qualità dell’aria nelle aree urbane. Il presente lavoroaffronta questa tematica, illustrando la costruzione e

l’applicazione di una metodologia modellistica chepuò costituire un valido supporto alla pianificazione

della mobilità e un efficace strumento di valutazionedella qualità dell’aria

GABRIELE ZANINIFABIO MONFORTI

ELISIA NARDINIENEA

Unità Tecnico-Scientifica Protezionee Sviluppo dell’Ambiente

e del Territorio Tecnologie Ambientali

Una modellistica dell’inquinamentoda traffico veicolare in area urbana

2003 Tratto da: ENERGIA, AMBIENTE E INNOVAZIONE 6/03

La composizione dell’atmosfera viene con-tinuamente alterata, sia a livello locale sia,nel tempo, su scala globale dall’insiemedelle sostanze, di origine naturale o antro-pica. che in essa sono rilasciateIn questi ultimi anni la qualità dell’aria,principalmente degli agglomerati urbani, èdiventata oggetto di grande attenzione siada parte dell’opinione pubblica sia del le-gislatore. Le città costituiscono un sistemaad alta antropizzazione, caratterizzate daun’elevata concentrazione di abitanti in unospazio che solitamente si contraddistingueper un notevole accentramento di attivitàumane. Attività che inevitabilmente vannoad influire negativamente sulla qualità del-l’aria. In questo contesto gli impianti finaliz-zati alla trasformazione dell’energia costi-tuiscono un massiccio apporto di sostanzeinquinanti di origine antropica.L’impatto ambientale di tali attività non è li-mitato solo al rilascio di sostanze in atmo-sfera, ma interessa altri aspetti, come laqualità delle acque di scarico, il rilascio dicalore all’esterno, il livello delle emissionisonore, che però esulano dal contesto delpresente lavoro. Fra di esse spiccano, nellearee urbane, le attività legate al trasporto,privato o collettivo, all’interno delle città o

da/verso le aree urbane stesse. Il ruolo delsistema dei trasporti sta assumendo un’im-portanza crescente nelle società moderne,e di conseguenza sono sempre più eviden-ti e rilevanti i problemi connessi con la suagestione. La mobilità ha notevoli ripercus-sioni sul piano socio-economico di ognipaese: in particolare l’ottimizzazione dellagestione e della efficienza del trasporto, ela riduzione del suo impatto sull’ambientecircostante, sono tematiche di primo pianodel dibattito politico1.In Italia si è osservata la crescita continuadel numero di veicoli circolanti, cui perònon è corrisposta una sufficiente crescitadelle infrastrutture urbane. Se a ciò si ag-giunge una diffusa inadeguatezza del ser-vizio del trasporto pubblico, pur in via dimiglioramento in molte aree, si comprendefacilmente come nelle città italiane il pro-blema sia particolarmente sentito.Purtroppo l’Italia si contraddistingue, nel-l’ambito dell’Unione Europea, per un parcocircolante piuttosto vetusto che presentauna notevole presenza di auto con etàmedia superiore a 10 anni ed in stato ma-nutentivo scadente; inoltre la percentualedei veicoli con oltre 16 anni è molto mag-giore in Italia di quella media calcolata ascala europea (figura 1). Come ovvio, que-sto tipo di veicoli è caratterizzato da mag-giori emissioni e consumi, oltre che da mi-nore sicurezza (figura 2).La situazione italiana è ulteriormente ag-gravata dalla stessa conformazione deicentri urbani, che risente della loro evolu-zione storica: le strade, in genere di picco-le dimensioni, sono spesso intasate dal traf-fico e sono percorse a velocità basse confrequenti stop and go che provocano unmaggior rilascio di inquinanti rispetto acondizioni di traffico scorrevole. Inoltrenelle città si presenta sempre più pressanteil problema della sosta dei veicoli e spessol’automobilista deve compiere una lungaricerca per trovare uno spazio libero adibi-to al parcheggio, provocando un notevoleincremento dei consumi e delle emissioni

202 COMPLESSITÀ & SVILUPPO 2003

GABRIELE ZANINI, FABIO MONFORTI, ELISIA NARDINI

2018161412

Anni

6

5

4

3

2

1

Italia

Germania

Francia

Gran Bretagna

Figura 1Percentuali di autodi età superiore ai10 anni in alcuniparchi auto europei

Fonte: DI LORENZO A., Carburanti, autoveicoli e ambiente: gli attori e i registi, Energia, 3/94, pag. 57.

che si aggiungono a quelle dovute al traffi-co vero e proprio2.Diventa quindi urgente fornire ai managerambientali degli strumenti che possanosupportare le decisioni e che, in particola-re, consentano di valutare gli effetti, a brevee medio termine, delle disposizioni norma-tive sull’effettivo stato della qualità dell’aria.Per questo motivo, nell’ambito dell’UnitàTecnico-Scientifica Protezione e Sviluppodell’Ambiente e del Territorio, la Sezionedi Metodi di Progettazione Innovatividell’ENEA ha dato vita, a partire dal 2001,ad una struttura modellistica che, a partiredalla richiesta di mobilità potesse permet-tere di valutare l’impatto delle emissioni datraffico sulla qualità dell’aria urbana.Tale suite modellistica sarà descritta neiprossimi paragrafi, dopo un excursus suiprincipali temi coinvolti nello studio dellaqualità dell’aria in area urbana.

L’inquinamento atmosferico e laqualità dell’aria urbanaNell’atmosfera di un centro urbano è possi-bile rintracciare tutte le numerose sostanzeattualmente definite inquinanti, siano esse informa gassosa o di aerosol, cioè di particel-le (liquide o solide) in sospensione. L’azionenociva di una sostanza inquinante sugli or-ganismi viventi o sui manufatti esposti all’at-mosfera o più in generale sull’ambiente, èstrettamente connessa con l’esposizione delbersaglio all’inquinante medesimo, gran-dezza che a sua volta è funzione della con-centrazione e del tempo di contatto.Essenzialmente si distinguono due tipi diesposizione: acuta (a concentrazioni eleva-te per un tempo breve) e cronica (a con-centrazioni relativamente basse, ma perlunghi periodi di tempo). Fatti salvi alcuniepisodi di particolare gravità, l’esposizionenei grandi centri urbani e delle zone indu-striali appartiene solitamente alla secondacategoria. A una data esposizione possonocorrispondere effetti differenti secondo lecaratteristiche del bersaglio (ad esempio,

per un essere umano, la condizione fisica,l’età, la presenza di un’eventuale patologiapolmonare o cardiaca e così via). Inoltre inatmosfera non si ha la presenza isolata disingoli composti inquinanti, ma di misceledegli stessi, all’interno delle quali le so-stanze possono interagire in varia manieratra loro e con il bersaglio3.

Inquinamento atmosferico damotori termici

I combustibili fossili costituiscono attual-mente la maggior fonte di energia utilizzataper realizzare la mobilità urbana pubblicae privata. Questi combustibili sono di origi-ne organica, provenendo da una lentissimatrasformazione di resti di sostanze vegetalied animali intrappolate nel sottosuolo econtengono prevalentemente carbonio (C)e idrogeno (H), cui si aggiungono in minoriquantità ossigeno (O), zolfo (S), azoto (N),sostanze solide incombustibili, dette ancheceneri, ed una percentuale di umidità va-riabile.Il contenuto energetico di tali combustibiliviene convertito in una forma utilizzabileattraverso la combustione, processo che ri-chiede un combustibile e un comburente: ilcomburente o ossidante utilizzato è in ge-nere l’ossigeno contenuto nell’aria chedeve essere miscelato con il combustibile.La stragrande maggioranza dei veicoli cir-colanti in Italia è alimentata a benzina e a

203COMPLESSITÀ & SVILUPPO 2003

UNA MODELLISTICA DELL’INQUINAMENTO DA TRAFFICO VEICOLARE IN AREA URBANA

100 100

291

235

510

312

600

500

400

300

200

100

0Vetture nuove Vetture oltre 10 anni Vetture oltre 15 anni

CO

HC

Indi

ce e

mis

sion

i (ve

tture

nuo

ve =

100

)

Figura 2Emissioni relative diCO e idrocarburi perautovetture nuove,di età compresa fra i10 e 15 anni e di etàsuperiore ai 15 anni

Fonte: DI LORENZO A., Carburanti, autoveicoli e ambiente: gli attori e i regi-sti, Energia, 3/94, pag. 57.

gasolio, mentre gli altri combustibili, dettialternativi, quali il gas naturale, il GPL, ilBioDiesel e i cosiddetti “gasoli bianchi”, direcente nascita, hanno ancora una limitatadiffusione, sebbene in crescita.

La classificazione delle emissioni veicolari

L’attività di analisi e di studio delle emissio-ni associate al settore del trasporto inEuropa è iniziata negli anni 70. Oggigiornoessa è principalmente condotta dall’Euro-pean Topic Centre of Air Emissions(ETC/AE), Centro di studio che è in strettacomunicazione con le autorità governativedelle varie nazioni europee, il cui obiettivoprincipale è redigere degli inventari an-nuali delle emissioni antropiche, sia totaliche suddivise per tipologie di sorgente(progetto CORINAIR: CORe INventory ofAIR Emissions). Nell’ambito CORINAIR,come si è visto all’inizio del paragrafo, leemissioni dei veicoli a motore sono rag-gruppate in tre tipologie18:

A. Hot emissions: le emissioni del veicolo inmoto, funzione della velocità, dell’acce-lerazione e di numerosi altri parametri;

B. Cold-start extra emissions: le emissioni li-berate durante la fase di riscaldamentodel motore, dopo una partenza a freddo,spesso espresse come frazione delleemissioni a caldo, in base alla porzionedel tragitto interessato dal riscaldamentodel motore rispetto a quello complessivo;

C. Evaporative emissions: le emissioni ditipo evaporativo, la cui composizione èlegata a quella del combustibile e costi-tuite per la maggior parte da VOC(Volatile Organic Compounds – Com-posti Organici Volatili). A loro volta sud-divise in diurnal losses, dovute all’innal-zamento giornaliero della temperaturaesterna, hot soak losses, emissioni di ar-resto del veicolo, dovute al raffredda-mento del motore, running losses, perdi-te evaporative durante la marcia del vei-colo, per effetto del calore prodotto dal

motore in moto e filling losses, perdite divapori di combustibile durante le opera-zioni di riempimento del serbatoio.

Le perdite diurne e le Hot Soak costituisco-no la parte preponderante delle perditeevaporative totali. Per contenerne l’entità, iveicoli di più recente produzione sono mu-niti di canister a carboni attivi, atti a adsor-bire i vapori che tendono a fuoriuscire dalserbatoio e dai sistemi di alimentazionequando il motore è caldo. Inoltre, nei centridi distribuzione dei combustibili per i vei-coli si va via via adottando l’uso di mani-chette a recupero vapori.

Composizione delle emissioni veicolari

Nel seguito si riassumerà brevemente l’ori-gine dei principali composti inquinanti(gassosi e particolati) emessi dai veicolimossi da motori a combustione interna.

Anidride carbonica (CO2) – Durante la com-bustione gli atomi di carbonio vengono ossi-dati producendo CO2, che viene rilasciata intempo breve. La concentrazione di CO2 neigas di scarico è un importante indice dell’ef-ficienza con cui avviene il processo: il rendi-mento di combustione è, infatti, direttamenteproporzionale alla quantità di CO2 emessa.La CO2 è un gas stabile con una permanen-za in atmosfera non trascurabile, valutata vi-cina ai 15 anni. Poiché questo gas viene pro-dotto in quantità sempre crescenti, se ne staosservando un accumulo in atmosfera conpossibili ripercussioni sul clima globale4.

Monossido di carbonio (CO) – Gas incoloree inodore, che si sviluppa in caso di com-bustione imperfetta e incompleta di sostan-ze contenenti carbonio. Il CO è molto reat-tivo, per cui la sua permanenza nell’atmo-sfera è limitata a qualche ora. Il parametroche condiziona l’entità delle emissioni delCO è il rapporto α = aria/combustibile. Ilmonossido di carbonio è infatti prodotto inrilevanti quantità nelle combustioni di mi-scele ricche (cioè in eccesso di combusti-bile rispetto all’apporto di ossigeno), nellequali scarseggia l’ossigeno libero.

204 COMPLESSITÀ & SVILUPPO 2003

GABRIELE ZANINI, FABIO MONFORTI, ELISIA NARDINI

Ossidi di azoto (NOx) – Comprendono l’os-sido (NO) ed il biossido (NO2): nella com-bustione viene prodotto in massima parte ilprimo (che è più stabile ad alta temperatu-ra), che successivamente si ossida nell’at-mosfera. La formazione di questi ossidi èlegata alla presenza dell’azoto nel combu-stibile e nell’aria comburente5. In particola-re sono stati individuati tre meccanismi cheportano alla formazione di NOx

6: NOx ter-mici (meccanismo di Zel’dovich), PromptNOx, Fuel NOx. In camera di combustione ilmonossido di azoto si ossida a NO2 manmano che ci si allontana dalla zona di fiam-ma, poiché la temperatura si abbassa. Nelcomplesso si può osservare come l’anda-mento della concentrazione degli NOx

emessi in un processo di combustione di-penda principalmente dalla concentrazio-ne di ossigeno molecolare e dalla tempe-ratura, e quindi dal rapporto α (rapportoaria di alimentazione/combustibile)7.

Idrocarburi (HC) e composti organici volati-li (VOC) – Comprendono un numerosogruppo di alcune centinaia di sostanze or-ganiche presenti in atmosfera in forma digas o di particelle liquide. Si tratta di com-posti generalmente presenti nel combusti-bile che sopravvivono alla combustionenelle zone in cui la composizione e le con-dizioni fisiche della miscela impedisconol’ossidazione di parte del combustibile(spegnimento o quencing), soprattuttoquando la combustione è condotta in regi-me magro (ovvero in situazioni in cui pre-vale l’aria immessa sul combustibile intro-dotto). A causa della loro volatilità, gli idro-carburi e i VOC costituiscono inoltre lamaggior parte delle emissioni di tipo eva-porativo, emissioni la cui intensità viene ov-viamente a dipendere dalle condizioni cli-matiche dell’ambiente, con un massimo neimesi estivi. Fra di essi spiccano il benzene,l’1-3 butadiene e gli IPA (IdrocarburiPoliciclici Aromatici)8 per la loro tossicità eper la loro accertata cancerogenicità.

Benzene (C6H6) – Il benzene è un gas in-

colore, caratterizzato da un tipico odore:tra gli idrocarburi aromatici ha la composi-zione più semplice. È molto volatile e in-fiammabile: la sua molecola è costituitaper il 92,3% in peso di carbonio e per larestante parte da idrogeno, e possiedeuna tipica struttura anulare planare.Rispetto agli altri idrocarburi, il benzene èpoco reattivo ed è stabile dal punto di vistafotochimico. Permane in atmosfera media-mente qualche giorno prima di venire ri-mosso. Esistono numerosi processi indu-striali che presentano come sottoprodottoil benzene, ma la sua fonte antropica più ri-levante è data dai processi di manipolazio-ne, lavorazione e combustione dei combu-stibili fossili, tramite i quali può venire libe-rato nell’atmosfera per fenomeni evapora-tivi, oppure insieme ai gas di scarico siacome incombusto sia come prodotto veroe proprio del processo di combustione. Lapresenza del benzene all’interno dei car-buranti non dipende solo dalla loro com-posizione originaria. Esso viene infatti ad-dizionato alle benzine con lo scopo di so-stituire i composti del piombo con altre so-stanze antidetonanti mantenendo sempresufficientemente elevato il numero di otta-no, come nella benzina senza piombo(detta comunemente benzina verde) com-parsa in Italia negli anni 80 del secoloscorso, che poteva contenere fino al 5% involume di benzene (CEE 85/210). Con lascoperta della pericolosità del benzene el’accertamento della sua cancerogenicità, ilimiti massimi per questo composto sisono fatti sempre più restrittivi e oggi il va-lore massimo consentito in Italia è 1% involume (legge 413). Per mantenere ugual-mente alto il livello ottanico e nello stessotempo contenere la quantità di idrocarbu-ri aromatici presenti, negli ultimi tempi sista prendendo in considerazione l’addi-zione di composti ossigenati come MTBEe ETBE, che però possono essere immes-si nelle benzine in quantità limitata e acosti maggiori rispetto agli idrocarburiaromatici.

205COMPLESSITÀ & SVILUPPO 2003

UNA MODELLISTICA DELL’INQUINAMENTO DA TRAFFICO VEICOLARE IN AREA URBANA

1-3 butadiene (C4H6) – A temperatura am-biente è anch’esso un gas, incolore, facil-mente infiammabile, e con un tipico aromapungente e anche per esso è stata dimo-strata la capacità cancerogena. Questa so-stanza è più reattiva del benzene, e la suadegradazione in aria dà origine ad altre so-stanze tossiche. L’1-3 butadiene provieneprincipalmente da fenomeni di combustio-ne incompleta di combustibili fossili, men-tre nel suo caso le emissioni di tipo evapo-rativo sono trascurabili poiché, per esigen-ze tecnologiche e motoristiche, i combusti-bili liquidi sono ricavati in modo da mini-mizzarne la quantità. La maggior parte di1-3 butadiene liberata in atmosfera è da at-tribuire alle partenze a freddo del veicolo8.Esso può essere facilmente rimosso daigas di scarico per mezzo di un efficientecatalizzatore trivalente. Non sono conosciu-te fonti naturali che ne provocano il rilascio.

Idrocarburi policiclici aromatici (IPA) – Sonoidrocarburi con due o più anelli aromatici.Provengono da un’incompleta combustio-ne delle sostanze organiche e sono estre-mamente affini con il particolato carbonio-so, che ne può accrescere la pericolosità egli effetti (comportamento sinergico).

Piombo (Pb) – Il piombo è una sostanzache viene liberata nell’atmosfera combina-ta spesso con altri elementi. La più rilevan-te tra le fonti antropiche è la combustionedi combustibili fossili, in particolare benzi-ne additivate. In passato per elevare le ca-ratteristiche antidetonanti delle benzine equindi il numero di ottano, si è intervenutoaggiungendo ad esse quantità di piombotetraetile e piombo tetrametile (compostipiombo-alchilici). Per abbattere le emissio-ni in atmosfera di questa sostanza si sonoadottate benzine prive di piombo, con l’usodi additivi antidetonanti di altro genere9.

Particolato sospeso totale (PST) – Con taledenominazione si indica usualmente l’in-sieme di tutte le particelle, solide o liquide,

che si trovano in sospensione nell’atmosfe-ra (aerosol). La composizione, le sorgenti ele caratteristiche di tali particelle sono mol-teplici, ivi incluse numerose sorgenti natu-rali che, tuttavia, liberano in aria particellemeno pericolose rispetto a quelle liberatedalle attività antropiche10. Tra queste ultimepredominano il settore dei trasporti e i pro-cessi di combustione in genere8. Nellacombustione, la formazione di particolato èun processo indesiderato che avviene inzone con carenza di ossigeno e quindi èsintomo di una combustione incompleta. Ilprocesso fisico-chimico che origina taliparticelle (pirolisi) consiste nella deidroge-nazione degli idrocarburi che tendono,successivamente, ad aggregarsi in piccolinuclei solidi, che a loro volta si accresconoattraverso reazioni di condensazione edaddizione arrivando a contenere fino a mi-gliaia di atomi di C. Questo fenomeno è fa-vorito dalla presenza di alte temperature,di un ambiente riducente (cioè privo di os-sigeno) e dall’uso di combustibili comples-si. Dal punto di vista sanitario sono moltopericolose le particelle fini PM10, ovverocon diametro < 10 µm, e PM2,5 con diame-tro < 2,5 µm.

Biossido di zolfo (SO2) – È un gas incoloreche si forma nei processi di combustioneesclusivamente a causa della presenza dizolfo nel combustibile impiegato. L’apportoassociato ai trasporti su strada risulta mino-re rispetto a quello dovuto ad altre fonti an-tropiche. Inoltre, l’andamento della concen-trazione degli ossidi di zolfo in atmosfera,osservato in questi ultimi anni, è decre-scente grazie alla sempre maggiore diffu-sione di combustibili a basso tenore dizolfo o desolforati.

Ozono (O3) – L’ozono è un ossidante estre-mamente reattivo, presente principalmentenella stratosfera, ove si genera per fenome-ni di dissociazione fotochimica dell’ossige-no molecolare ed assolve il delicato compi-to di proteggere la terra dai raggi ultravio-

206 COMPLESSITÀ & SVILUPPO 2003

GABRIELE ZANINI, FABIO MONFORTI, ELISIA NARDINI

letti che provengono dal sole. L’ozono tro-posferico è un inquinante secondario, pro-dotto cioè da reazioni chimiche cui parteci-pano emissioni antropogeniche e sostanzeche sono naturalmente presenti in atmosfe-ra11. In atmosfera in presenza di ossigeno li-bero e di ossidi di azoto si innesca natural-mente un ciclo di reazioni che coinvolgonotali sostanze e che ha come prodotto inter-medio l’ozono e che si chiuderebbe con ladistruzione dell’ozono per opera del mo-nossido di azoto. Se però nell’aria sono pre-senti alcune sostanze appartenenti alla ca-tegoria dei VOC (Volatile Organic Com-pounds), in presenza di radiazione solare, ilciclo si chiude con la reazione tra questesostanze ed il monossido di azoto, con con-seguente accumulo di ozono. Tra tutte le at-tività umane, il traffico veicolare è uno deimaggiori responsabili della produzione deiprecursori dell’ozono. È possibile valutare ilpotenziale di formazione dell’ozono (PFO,definito come [mg] di O3 formato per [mg]di VOC presente), che possiedono alcunesostanze organiche volatili. Alcuni esempisono riportati nella tabella 1.

Caratteristiche emissive dei motoritermici

I motori termici si distinguono principal-mente in base a come viene attivato il pro-cesso di combustione, tra motori ad accen-sione comandata (o a benzina, in cui l’inne-sco viene fornito da una scintilla) e ad ac-censione spontanea (o Diesel, in cui si sfrut-ta la proprietà di autoaccensione di uncombustibile). Essi presentano caratteristi-che costruttive diverse ed in particolare,poiché si realizzano due diversi processi dicombustione, sono caratterizzati da emis-sioni differenti12.

Motori ad accensione comandata

In questo tipo di motori si immette nella ca-mera di combustione una miscela aria-benzina, in genere stechiometrica e moltoomogenea, che viene compressa dall’azio-ne del pistone e poi accesa mediante una

scintilla prodotta dalla candela. Poiché lacombustione viene attivata dall’esterno,nella fase di compressione la miscela nondeve raggiungere pressioni e temperaturedi autoaccensione.In un processo di combustione premiscela-ta si può osservare come sulle pareti dellacamera si verificano fenomeni di quencing,ovvero di estinzione della fiamma e di spe-gnimento. Infatti le pareti, per varie esigen-ze, devono essere costantemente raffred-date e parte del calore che si sprigionanella combustione risulta disperso all’e-sterno per fenomeni di conduzione e diconvezione. In prossimità delle pareti si os-serva quindi un rilevante abbassamentodella temperatura, con conseguente accu-mulo di idrocarburi incombusti o parzial-mente ossidati e di monossido di carbonio.Anche se il regime di moto nella camera dicombustione viene reso altamente turbo-lento, lo straterello di spegnimento non puòmai essere eliminato del tutto e nei gas discarico è sempre rilevabile la presenza dicomposti incombusti.Nei motori ad accensione comandata, oltreal quencing, esistono altri fenomeni checausano la presenza di sostanze incombu-ste allo scarico. Esse raggiungono le con-centrazioni massime in fase di decelerazio-ne o in regime di minimo, in cui si innescaun processo di ricircolo interno dei gas discarico. Se tale fenomeno assume eccessi-ve proporzioni si ha una diminuzione del-l’efficienza della combustione, con conse-guente incremento degli incombusti. I mo-tori a benzina inoltre producono notevoliemissioni di NOx, dato che operano, gene-ralmente, con valori del rapporto aria/com-

207COMPLESSITÀ & SVILUPPO 2003

UNA MODELLISTICA DELL’INQUINAMENTO DA TRAFFICO VEICOLARE IN AREA URBANA

Tabella 1Potenziale di forma-zione dell’ozono dialcuni principali com-posti organici volatili

Composto PFO

Propano 0,48

N-butano 1,02

1,3 butadiene 10,89

Benzene 0,42

Toluene 2,73

Fonte: POLUZZI V., DESERTI M., FUZZI S., Ozono e smog fotochimico, Maggiolieditore, ARPA, 1998, pag. 27.

bustibile vicini al valore in cui se ne osser-va la massima produzione (regime stechio-metrico)12.Per gli ossidi di azoto, gli idrocarburi in-combusti e il monossido di carbonio si puòrappresentare efficacemente l’andamentodelle emissioni in funzione del rapporto acome nella figura 3.

Motori Diesel

In questi motori si realizza l’accensionespontanea del combustibile, e non è ne-cessario regolare la portata di aria combu-rente. Il combustibile, spruzzato da apposi-ti iniettori direttamente nella camera dicombustione, in cui l’aria immessa è stataprecedentemente portata in particolaricondizioni di pressione e temperatura,viene ridotto in goccioline fini in modo damassimizzarne il contatto con l’aria e ga-rantire l’avvio della combustione.All’interno della camera di combustione lacomposizione della miscela varia da puntoa punto: il processo si avvia nei punti in cuiil rapporto aria/combustibile rientra nelcampo di accendibilità e si propaga manmano che la temperatura e il miscelamentotra combustibile e comburente all’internodel cilindro progrediscono.Nei motori Diesel l’emissione inquinantepiù significativa, anche e soprattutto dal

punto di vista dell’impatto ambientale, ècostituita dal particolato, detto anche fumo,distinguibile in fumo bianco, composto so-stanzialmente da gocce incombuste di ga-solio liberate in fase di avviamento, e infumo nero, costituito da particelle solide,prevalentemente di natura carboniosa, lacui origine è intrinseca alle modalità concui avviene la combustione nei cilindri.Tale particolato è costituito da atomi di car-bonio aggregati in macromolecole, che siformano a seguito di fenomeni pirolitici.Tali particelle, inoltre, nel flusso di gas discarico possono aggregarsi tra di loro perfenomeni di collisione comportandosicome dei piccoli nuclei di condensazione.La loro superficie è, infatti, sede di processifisici che coinvolgono la frazione leggeradei gas presenti (identificata con la siglaSOF: Soluble Organic Fraction), come l’e-vaporazione, la condensazione, l’adsorbi-mento12. Il campo di variazione delle di-mensioni di tali corpuscoli solidi è moltoampio, compreso tra 0,1 µm e 10 µm, mada un’analisi delle emissioni solide dei mo-tori Diesel si è notato come buona partedel particolato carbonioso abbia diametroinferiore a 0,5 µm, e come la distribuzionedimensionale di esso sia strettamente di-pendente dalle condizioni di funzionamen-to del motore. Più questo opera a carichielevati e più la frazione fine è rilevante al-l’interno della distribuzione granulometri-ca delle emissioni di particolato7.Nei gas esausti dei motori Diesel un altroimportante prodotto inquinante è datodagli ossidi di azoto, generati in notevolequantità, poiché la combustione è realizza-ta in eccesso d’aria.

Struttura e caratteristichedell’atmosfera

Un’approfondita conoscenza dello statometeorologico (locale e generale) e deimoti dell’aria è basilare per studiare i feno-meni di inquinamento atmosferico.L’atmosfera agisce sugli inquinanti emessi,causandone la dispersione o l’accumulo

208 COMPLESSITÀ & SVILUPPO 2003

GABRIELE ZANINI, FABIO MONFORTI, ELISIA NARDINI

8 10 12 14 16 18 20 22

HC

CO

NOx

Potenza massimaMiscela stechiometrica

Area di miscela magra

Massima economica di combustibile

800

600

400

200

0

4000

3000

2000

1000

0

Nox (

ppm

)

A/F (rapporto aria/combustibile)

6

4

2

0

CO (m

ole %)

Figura 3Andamento di CO,HC, NOx nelle emis-sioni di un veicolo abenzina in funzionedel rapporto a =aria/combustibile

Fonte: UCCELLI R., LOMBARDI C.C., MAURO F., Impatto ambientale e sanitariodei carburanti per autotrazione, Energia, ambient e innovazione, 4-5/96,pag. 19.

secondo un insieme di meccanismi legatialla reattività chimica delle emissioni, allecondizioni meteorologiche ed alla configu-razione topografica del territorio in cuiesse hanno luogo.Le principali caratteristiche chimiche e fisi-che del sistema atmosfera presentano unadipendenza tipica dalla quota z che, al di làdi variazioni locali e stagionali, permettonodi descrivere l’atmosfera come una struttu-ra fortemente stratificata. In figura 4 è ri-portato ad esempio l’andamento della tem-peratura in funzione della quota verticalenei diversi strati. Nello studio dei fenomenidi inquinamento tipici dell’ambiente urba-no ci si focalizza solamente sui primissimichilometri di atmosfera: lo strato limite pla-netario (Planetary Boundary Layer).

Il Planetary Boundary Layer

La quasi totalità degli esseri viventi e unabuona parte della massa complessiva del-l’aria sono comprese all’interno dello stratoatmosferico più a contatto con la superficieterrestre, detto troposfera, che si estendefino a circa 10 km in altezza, con forti diffe-renze in funzione della latitudine e dellastagione.Questo strato, interessato da continui spo-stamenti di masse d’aria, per effetto delladistribuzione non uniforme, nello spazio enel tempo, dell’energia radiante solare as-sorbita dall’aria e dal suolo si suddivide ul-teriormente in due strati, in base all’influen-za della rugosità del suolo sui moti atmo-sferici: quello più vicino al suolo, maggior-mente interessato dalle azioni di attrito vi-scoso, è detto Planetary Boundary Layer(PBL). È in esso che hanno luogo la stra-grande parte delle emissioni di origine siaantropica sia naturale ed è in esso che av-vengono i fenomeni di trasporto, dispersio-ne, rimescolamento o accumulo degli in-quinanti13.Ai fini dell’inquinamento atmosferico urba-no, lo studio dell’atmosfera si riconducequindi sostanzialmente allo studio del PBL.L’altezza del PBL, che rappresenta in parte

l’altezza fino alla quale vanno a disperdersigli inquinanti emessi al suolo, prende ilnome di altezza di mescolamento, e variain funzione dello stato atmosferico.La diffusione degli inquinanti nel PBL è de-terminata principalmente da tre parametri:la stabilità dello strato, l’intensità della tur-bolenza e quella del vento, cui si può ag-giungere l’effetto di rimozione esplicatodalle precipitazioni14.

Stabilità del Planetary Boundary Layer

La stabilità di uno strato atmosferico dipen-de dall’importanza del rimescolamentodell’aria lungo la direzione verticale. Inun’atmosfera stabile i moti spontanei verti-cali delle masse d’aria tendono a smorzar-si, mentre in un’atmosfera instabile essi siamplificano. La stabilità atmosferica ha im-portanti effetti sui fenomeni di inquinamen-to: situazioni di stabilità in assenza di vento,in particolar modo fenomeni di inversione

209COMPLESSITÀ & SVILUPPO 2003

UNA MODELLISTICA DELL’INQUINAMENTO DA TRAFFICO VEICOLARE IN AREA URBANA

500

100

100 500 1000 1500 2000Temperatura (°K)

Stratosfera

MesosferaMesopausaStratopausa

Tropopausa

Thermosfera

Termopausa

Attivitàsolare forte

Attivitàsolare debole

Om

osfe

raE

tero

sfer

aE

sosf

era

Alti

tudi

ne (

km)

Fonte: WALLACE J. M., HOBBS P. V., Atmospheric science: an introductory sur-vey, Academic Press, California, 1977, pag. 25.

Figura 4Distribuzione verti-cale della tempera-tura in atmosfera

termica provocano il ristagno in prossimitàdella superficie di tutte le sostanze ivi im-messe. Al contrario, in caso di forte instabi-lità, di precipitazioni e di elevata turbolen-za atmosferica si hanno intense azioni di ri-mozione e dispersione degli inquinanti: inparticolare le piogge o le precipitazioninevose consentono un efficace abbatti-mento delle particelle in sospensione e disostanze gassose che si combinano con lemolecole dell’acqua.La stabilità dipende da numerosi fattori, inparticolare dall’andamento T(z) della tem-peratura al variare della quota z. Definito ilvalore del gradiente Γ=∂T/∂z all’equilibrio,in assenza di umidità, pari a circa –1/100°K/m, come gradiente adiabatico secco, sipossono verificare le seguenti situazioni15:

• equilibrio stabile, se la temperatura realedell’atmosfera diminuisce con l’altezza inmisura minore rispetto al caso adiabati-co: in particolare, in caso di inversionetermica la temperatura cresce con laquota;

• equilibrio indifferente, se il gradientereale e quello adiabatico coincidono;

• equilibrio instabile, quando si ha una di-

minuzione della temperatura reale mag-giore del gradiente adiabatico secco.

Nel primo caso una massa d’aria secca chesi sposta verticalmente verso l’alto subendouna trasformazione adiabatica viene a tro-varsi più fredda e quindi più densa dell’ariacircostante e tende perciò a ridiscendere.Al contrario, in casi di equilibrio instabile, lastessa massa d’aria si trova ad essere piùcalda, cioè meno densa, dell’atmosfera a leicircostante e tende quindi a proseguire nelsuo moto ascensionale.La stabilità dell’atmosfera dipende ancheda altri parametri, determinanti anche sullostato della turbolenza dell’aria: la velocitàorizzontale del vento u, le condizioni dellasuperficie del terreno (rugosità del suolo),il grado di insolazione, e così via. Per sinte-tizzare la stabilità atmosferica sono moltoutilizzate le 6 categorie di stabilità atmosfe-rica di Pasquill riassunte in tabella 2.

La velocità del vento e lo Urban BoundaryLayer

Il vento, movimento ordinato delle massed’aria, è responsabile del trasporto degliinquinanti, in particolare la sua componen-te orizzontale u16, solitamente maggiore didue o tre ordini di grandezza rispetto allacomponente verticale. I venti all’interno delPBL sono profondamente influenzati dalleasperità del suolo (rugosità) e nelle areeurbane la circolazione atmosferica risenteprofondamente dell’urbanizzazione delterritorio: gli edifici, nel loro insieme, con-feriscono all’area occupata la propria lun-ghezza di rugosità, usualmente denotatacon z0. Tale valore determina la forma delprofilo verticale del vento (l’intensità dellacomponente orizzontale del vento, in pros-simità del suolo è all’incirca proporzionalea log(z/z0)) ed è tanto maggiore quanto piùil suolo è irregolare.Sono state definite, per diverse densità abi-tative, le rispettive altezze di rugosità, co-me ad esempio nella tabella 3.Tali rugosità sintetizzano e mediano, pren-dendo come riferimento un’area urbana ti-

210 COMPLESSITÀ & SVILUPPO 2003

GABRIELE ZANINI, FABIO MONFORTI, ELISIA NARDINI

Classi di stabilità Gradiente reale

A Molto instabile γ > 1,9 °K/100 m

B Instabile 1,7 ≤ γ ≤ 1,9 °K/100 m

C Debolmente stabile 1,5 ≤ γ ≤ 1,7 °K/100 m

D Neutrale 0,5 ≤ γ ≤ 1,5 °K/100 m

E Debolmente stabile –1,5 ≤ γ ≤ 0,5 °K/100 m

F Stabile γ < –1,5 °K/100 m

Fonte: ZANNETTI P., Air pollution modelling, Computational MechanicsPublication, Gran Bretagna, pag. 148.

Tabella 2Classificazione delleclassi di stabilità at-mosferica secondoPasquill

Terreno z0 [m]

Con asperità isolate Alberi, colline, fattorie 0,2 ÷ 0,6

Suburbano A bassa densità 0,4 ÷ 1,2

Ad alta densità 0,8 ÷ 1,8

Urbano A densità molto alta 1,5 ÷ 2,5

Densità altissima 2,5 ÷ 10

Tabella 3Altezze di rugosità disuoli urbanizzati

Fonte: OKE T. R., Boundary Layer Climates, Methuen, pag. 298.

pica i fenomeni di induzione di turbolenzadovuti all’interazione del vento con gli edi-fici, interazione che causa il prodursi divortici.È utile osservare come l’atmosfera subiscaun profondo cambiamento del propriostato fisico nel passaggio dalle zone ruraliad aree maggiormente edificate e abitate.Per l’impatto provocato dalla presenzadella città, infatti, si crea a volte una vera epropria superficie di confine, che delimitalo strato atmosferico a contatto con l’areaurbana Urban Boundary Layer, e da essadirettamente influenzato, separandolo daglialtri strati atmosferici soprastanti, che inve-ce non risentono così profondamente dellealterazioni locali.All’interno di tale strato agiscono, a livellodi singole strade, ulteriori processi di scalaminore all’interno del volume d’aria com-preso tra due schiere di edifici paralleli(identificato con il nome di Canyon). Talegeometria costituisce l’unità che si ripeteall’interno del fenomeno urbano globaleUrban Canopy Layer, il cui studio dettaglia-to risulta molto complesso.

La turbolenza

Il moto di una massa d’aria costituente l’at-mosfera può, a grandi linee appartenere auna delle seguenti due tipologie:• moto laminare, se la massa d’aria coin-

volta si muove organizzata in filetti fluidi,che si spostano con moti paralleli lungole linee di flusso;

• moto turbolento, se la massa d’aria coin-volta è costituita da particelle che si spo-stano con moto disordinato e casuale,creando dei vortici rapidamente variabilinello spazio e nel tempo.

All’interno delle masse d’aria in moto lami-nare la dispersione degli inquinanti avvie-ne sostanzialmente per diffusione moleco-lare, causata cioè dagli urti delle molecoled’aria con le molecole di inquinante. Alcontrario, masse d’aria in moto turbolentodisperdono gli inquinanti con un’efficienzamaggiore di molti ordini di grandezza ri-

spetto alla diffusione molecolare. Lo studiodelle caratteristiche della turbolenza atmo-sferica, e del PBL in particolare, rivestequindi un’importanza cruciale nell’analisidell’inquinamento urbano.In una massa d’aria in moto turbolento siosserva una continua trasformazione dellaenergia interna in energia cinetica: i vortici,che si formano in aria, tendono poi a per-dere, o meglio, a dissipare questa energiadurante la stessa propagazione per feno-meni di attrito. Quindi, se non vengonocontinuamente riforniti di ulteriore energiadall’esterno, i vortici sono destinati a dis-solversi rapidamente15.La turbolenza atmosferica può avere dueorigini:

• meccanica, se è dovuta alle asperità delterreno (quindi a fenomeni di attrito) e alprofilo verticale del gradiente della velo-cità del vento;

• termica, se è indotta da condizioni di in-stabilità atmosferica e/o una distribuzio-ne dell’energia termica non uniforme al-l’interno dell’atmosfera.

I moti turbolenti, data la loro natura stocasti-ca, sono impossibili da descrivere analitica-mente, dato che le componenti della velo-cità e le traiettorie delle particelle varianocasualmente nel tempo e vengono solita-mente descritti per mezzo di grandezzestatistiche come i momenti della distribu-zione di probabilità della velocità del vento.

Approccio modellisticoall’inquinamento da traffico

Il complesso problema dell’inquinamentoatmosferico causato dal traffico veicolarepuò essere affrontato per mezzo di un mo-dello che, a partire dai dati caratterizzanti lesorgenti inquinanti considerate, presenti nel-l’area di indagine, e lo stato meteorologicodel periodo di studio, simulino l’andamentodella concentrazione degli inquinanti.Nel caso specifico dell’inquinamento in-dotto da sorgenti veicolari si può articolarelo studio in tre passi per mezzo di una suite

211COMPLESSITÀ & SVILUPPO 2003

UNA MODELLISTICA DELL’INQUINAMENTO DA TRAFFICO VEICOLARE IN AREA URBANA

modellistica del tipo mostrato in figura 5.Lo schema a blocchi riporta la tipologiagenerale di modelli e dati da impiegare. Lascelta degli specifici modelli da utilizzare èlegata alla scala temporale e spaziale in cuisi vuole operare, al tipo di risultati che sidesidera ottenere e a considerazioni prati-che di reperibilità e conoscenza dell’utiliz-zo dei modelli stessi.Nei prossimi paragrafi si descriverannobrevemente i principi su cui si basano i di-versi tipi di modelli, con particolare riferi-mento ai modelli effettivamente utilizzatiper lo studio dell’inquinamento da trafficonell’area bolognese.

I modelli di traffico

I modelli di traffico hanno come obiettivoquello di ottenere la distribuzione e la ca-ratterizzazione del traffico sulla rete strada-le oggetto di studio (o sulla rete logistica, ingenerale) a partire dai dati sulla richiestaed offerta di mobilità17. Nel caso specificodella simulazione del traffico veicolare al-l’interno di una rete urbana, i dati in uscitasono costituiti dal flusso veicolare [vei-coli/h] e la velocità media [km/h], definitiper ogni arco stradale.All’interno della suite, si è scelto un model-lo di assegnazione del traffico denominatoVISUM.VISUM è un programma di calcolo nato perconsentire una gestione ottimale del setto-re dei trasporti. Esso si basa sull’uso di unao più matrici OD (origine-destinazione) dispostamento, elaborate da specifici pro-grammi che vengono utilizzati in connes-sione con VISUM.

Le matrici OD sono valutate a partire da in-terviste effettuate a campione sulla popola-zione dell’area urbana e dei Comuni limi-trofi e quantifica i poli di origine e di desti-nazione degli spostamenti periodici dellapopolazione. Il modello ripartisce quindi iflussi veicolari all’interno della rete strada-le, a partire da nodi di origine verso i poliattrattivi di destinazione dei percorsi.In particolare, possono essere definite duetipi di matrici OD e di flussi, in base allamodalità di trasporto che si intende pianifi-care, distinguendo tra privato e pubblico.Il procedimento completo che permette digiungere al risultato si articola in tre passi:valutazione della generazione del traffico,elaborazione della sua distribuzione e ri-partizione degli spostamenti all’internodella rete studiata. La definizione dei per-corsi sistematici di spostamento è realizza-ta in base alla ricostruzione del comporta-mento dei gruppi omogenei individuati al-l’interno della popolazione censita e allalocalizzazione delle attività attrattive nell’a-rea di analisi unita a una serie di vincoli ecriteri, quali la scelta del percorso di mini-mo tempo e la conservazione della sommadei flussi entranti e uscenti nei nodi.

I modelli emissivi

Nel 1985, all’interno del progetto CORI-NAIR (vedi sopra “La classificazione delleemissioni veicolari”), è stato elaborato CO-PERT (Computer Programme for estima-ting Emissions from Road Transport), unprogramma software che stima le emissio-ni inquinanti da sorgenti mobili, diventato ilmodello standard europeo per le emissionistradali. Non mancano naturalmente altreattività di ricerca che hanno portato ad altrimodelli emissivi elaborati a livello delle sin-gole nazioni. Questi altri modelli si basanosu considerazioni e ipotesi diverse tra loroe da quelle del modello COPERT, renden-do i rispettivi risultati difficilmente confron-tabili. Gli Stati Uniti, d’altro canto, hannoadottato un loro specifico modello, diversoancora dai precedenti, denominato MOBI-

212 COMPLESSITÀ & SVILUPPO 2003

GABRIELE ZANINI, FABIO MONFORTI, ELISIA NARDINI

MODELLODI

TRAFFICO

MODELLODI

EMISSIONE

MODELLODI

DIFFUSIONE

Flussi

V medie Fattoriemissivi

PARCO VEICOLAREMATRICE O - DCONDIZIONI

METEOROLOGICHE

GRAFI STRADALI CONDIZIONIAMBIENTALI

CONCENTRAZIONIMEDIE

Figura 5Schema a blocchi diuna tipica suite mo-dellistica per lo stu-dio dell’inquinamen-to urbano da traffi-co. Sono indicati itipi di modelli impie-gati, i gruppi di datiin input e i gruppi didati forniti in cascatada ciascun modelloal successivo

LE, che tiene conto della specificità deicombustibili e del parco circolante USA.I modelli finora realizzati nei paesidell’Unione Europea sono suddivisibili in tregrandi categorie, che si distinguono princi-palmente per le differenti ipotesi adottateper il loro sviluppo.L’approccio modellistico europeo che hal’origine più lontana nel tempo si basa sullaconstatazione che le emissioni medie di unveicolo durante la marcia su un dato per-corso sono funzione della velocità media.In particolare le concentrazioni raggiungo-no i massimi valori in corrispondenza dicicli a bassa velocità caratterizzati da fre-quenti arresti e partenze.Questo tipo di modelli si basa su relazionifunzionali che legano velocità media e quan-titativo di sostanza emessa per chilometro,ricavate interpolando molti dati sperimentaliforniti da prove di emissione ripetute su unbanco a rulli o banco motori. Il modello piùdiffuso, appartenente a questo filone, è pro-prio il COPERT, nel quale le curve di emis-sione sono basate sull’ipotesi che il veicolopercorra un ciclo di guida standard, comedefinito nelle direttive EURO.Questo gruppo di modelli è però suscetti-bile di alcune critiche: in particolare il ciclodi guida descritto dalle norme EURO non èun ciclo rappresentativo delle reali condi-zioni di guida su strada, che possono varia-re notevolmente pur a parità di velocitàmedia. Quindi un metodo di calcolo chetenga conto solo di tale parametro può es-sere considerato limitato e soggetto a note-voli incertezze.Per una più realistica valutazione dei coeffi-cienti emissivi i modelli più recenti introdu-cono almeno un ulteriore parametro, da af-fiancare alla velocità media: in genereviene considerato l’andamento dell’accele-razione nel tempo, ovvero il prodotto velo-cità * accelerazione. I modelli emissivi diquesto tipo forniscono come risultati i valo-ri istantanei delle emissioni e non i valorimediati su un percorso, come accade per imodelli descritti in precedenza, inoltre ge-

neralmente sono basati su misurazioni ef-fettuate con riferimento a cicli di guida piùrealistici, costruiti a partire da dati raccoltidurante cicli di guida condotti su strada.Un ultimo gruppo di modelli, invece, assu-me come elemento di distinzione tra i varicicli di guida un parametro difficilmentequantificabile: la condizione del traffico.L’obiettivo principale è quello di fornire ilvalore medio delle emissioni veicolari su undato percorso. A ciascuna situazione definitaviene attribuito un gruppo di fattori di emis-sione, specifico a seconda del tipo inquinan-te e di veicolo presi in considerazione18.Qualunque sia il modello emissivo da ap-plicare, esso necessita in ingresso delle se-guenti informazioni:• condizioni climatiche e periodo della si-

mulazione;• inquinanti e sorgenti oggetto di studio;• descrizione delle sorgenti;• informazioni caratterizzanti le modalità di

emissione.Parallelamente in uscita si otterrà la quanti-ficazione delle emissioni e dei consumi dicombustibile in forma aggregata o in modospecifico per ciascuna categoria veicolaree per ciascun arco stradale.

Il modello emissivo TEE (Traffic Emissionsand Energetics)

TEE è un modello finalizzato alla stimadelle emissioni veicolari e dei consumi dicombustibile sia a livello microscopico(strade) sia macroscopico (città), realizzatodall’ENEA nel 1991, in continuo perfeziona-mento ed ampliamento.Esso eredita da COPERT (in accordo con leconvenzioni CORINAIR) la classificazionedelle categorie veicolari del parco circo-lante in Europa in microcategorie, in base acombustibile impiegato, cilindrata e nor-mativa CEE di riferimento, che possono es-sere incluse in macrocategorie definitedall’utente come ad esempio due ruote,auto, veicoli leggeri e pesanti.TEE utilizza curve di emissione provenientida due database, ottenute per veicolo e in-

213COMPLESSITÀ & SVILUPPO 2003

UNA MODELLISTICA DELL’INQUINAMENTO DA TRAFFICO VEICOLARE IN AREA URBANA

quinante nell’unità di tempo, in condizionistandard definite da CORINAIR; il primodatabase coincide con quello di COPERT,mentre il secondo è stato ricavato nell’am-bito del progetto europeo denominatoDrive-Modem.TEE si differenzia da altri prodotti perché èin grado di offrire all’utente tre opzioni dicalcolo delle emissioni. Il primo metodo èbasato sulla velocità media: le emissionisono funzioni polinomiali della velocitàmedia tenuta dal veicolo durante il tragittopercorso.Le altre due opzioni vogliono invece costi-tuire un superamento della trattazione clas-sica, fornendo degli approcci validi edavanzati allo studio dell’impatto dei veicoliin area urbana e portano alla precisazionedell’ampio margine di variabilità emissivaa parità di velocità media in differenti con-dizioni di traffico e di guida.L’opzione di maggior interesse offerta daTEE è sicuramente quella della “velocitàmedia corretta”, in cui le emissioni sonocalcolate a partire dall’usuale approccio invelocità media inserendo però alcuni fatto-ri correttivi:

KCF = KCF0 * d(D) * g(G) * l(L) * v(V)

I diversi fattori tengono conto di grandezzeche condizionano l’entità delle emissioni ef-fettive, i cui effetti non possono essere con-siderati attraverso la velocità media: densitàveicolare D [veicoli/km], lunghezza effettivadell’arco considerato L, e tempo del verdeV dei semafori eventualmente presenti(espresso come percentuale del totaletempo di un ciclo semaforico), in modo dapoter considerare le fermate e le partenzeindotte dalla presenza dei semafori.Per la densità veicolare TEE pone un limitemassimo, per strade a una corsia, di 200veicoli/km escludendo in questo modo si-tuazioni praticamente impossibili, ma chequalche volta i modelli di traffico erronea-mente prevedono.Nella versione attuale di TEE i fattori corret-tivi sono stati elaborati solo per alcuni in-

quinanti (CO, benzene e PM10) e per alcu-ne microcategorie veicolari (auto alimenta-te a benzina e a gasolio).La terza opzione si basa sulla conoscenzadella velocità istantanea dei veicoli e per-mette una fedele valutazione delle emissio-ni su percorsi abbastanza brevi e conosciu-ti. Questo metodo proposto si è rivelatomolto efficace per confrontare a livelloemissivo diverse soluzioni per la regola-mentazione degli incroci in ambito urbano(semafori, rotatorie ecc.).TEE persegue l’obiettivo di offrire all’uten-za un’alta flessibilità nei dati in ingresso.Nell’impostazione dello scenario della si-mulazione, infatti, si può assegnare a cia-scun arco stradale della rete in esame unacomposizione del flusso veicolare transi-tante a scelta fra 11 tipologie definibili dal-l’utente, superando in tal modo la tradizio-nale suddivisione dei flussi in urbano/ex-traurbano/autostradale. Inoltre è possibileintervenire sul parco veicolare introducen-do nuove microcategorie, purché ne sianonoti i fattori emissivi a priori, e aggiornan-do i parametri qualitativi medi del parcostesso (età media, peso, livello manutenti-vo, combustibile impiegato e così via) congrandezze specifiche del parco effettivodella rete studiata.Completano il quadro dei dati di ingresso,il periodo della simulazione, le temperatu-re medie ambientali (orarie), la pendenzadelle strade, l’altezza rispetto al livello delmare.Infine TEE permette di prendere in consi-derazione i flussi parcheggianti il cui ap-porto risulta essere molto rilevante, essen-do associato ai fenomeni di volatilizzazionedel combustibile, nella fase di raffredda-mento del motore, e alle partenze a freddo.

I modelli diffusivi

Lo studio della diffusione atmosferica dellesostanze liberate da fonti sia naturali sia an-tropiche si avvale dell’applicazione di mo-delli che possono essere o delle vere eproprie riproduzioni in scala del fenomeno

214 COMPLESSITÀ & SVILUPPO 2003

GABRIELE ZANINI, FABIO MONFORTI, ELISIA NARDINI

indagato (modelli fisici) o algoritmi che de-scrivono matematicamente gli aspetti fisicie chimici che caratterizzano il processo(modelli teorici).I modelli teorici si distinguono a loro voltain statistici e in deterministici.I modelli deterministici si basano su equa-zioni che descrivono il moto della sostanzain atmosfera: essi riproducono il destinodelle sostanze emesse in atmosfera e forni-scono una relazione fra sorgenti emissive econcentrazioni stimate. In base ai risultatiforniti, si può procedere ulteriormente conla stima dei danni da essi arrecati all’ecosi-stema. Inoltre i modelli deterministici con-sentono di valutare degli scenari di control-lo e riduzione delle emissioni dal punto divista dei reali benefici ottenuti, come nelcaso presentato nel successivo paragrafo.I modelli deterministici si raggruppano intre grandi classi, in cui poi sono stati svilup-pati vari filoni modellistici:• modelli euleriani: essi descrivono l’anda-

mento delle concentrazioni degli inqui-nanti assumendo una griglia spaziale diriferimento fissa. Utilizzano il sistema diequazioni differenziali derivanti dalla teo-ria della diffusione. La loro applicazionepermette in particolare lo studio dei fe-nomeni di trasferimento di massa e di ca-lore all’interno dell’atmosfera;

• modelli lagrangiani: assumono a prioriandamenti di tipo probabilistico dellegrandezze fisiche e descrivono la traiet-toria delle masse inquinanti in atmosferache si muovono in atmosfera;

• modelli gaussiani: sono i modelli analiticipiù semplice da applicare e da compren-dere. In essi si presume che la concentra-zione in aria dell’inquinante emesso dauna sorgente puntiforme e continuaabbia un andamento gaussiano con unalarghezza dipendente dalle condizioni diturbolenza dello strato limite planetario19.Con opportune modifiche possono esse-re applicati al caso di sorgenti lineari, ae-rali o volumetriche e sono oggetto di stu-dio e raffinamento ormai trentennale.

Il modello diffusivo ADMS-Urban(Atmospheric Dispersion ModellingSystem)

Il modello ADMS Urban permette la simu-lazione e lo studio dei fenomeni di inquina-mento associati a sorgenti industriali, do-mestiche e stradali situate all’interno di unaarea delle dimensioni tipiche di una città. Ilprogramma è stato elaborato dalla societàCERC (Cambridge Environmental Re-search Consultants) ed è in continua evolu-zione: la versione utilizzata sull’area bolo-gnese è la 1.6 del 2002.L’algoritmo alla base di ADMS è di tipogaussiano avanzato, con varianti sviluppateper permetterne l’applicazione a diversesorgenti nelle più differenti condizioni cli-matiche.Tale versione di ADMS permette di trattareCO, VOC, PM (ovvero PST), SO2 e NOx.Inoltre è prevista la possibilità di conside-rare nella simulazione le reazioni chimiche,qualora fossero rilevanti, tra gli ossidi diazoto e i VOC con l’ozono.Per quanto riguarda le sorgenti da trafficourbano, ADMS Urban tratta gli archi strada-li come sorgenti lineari, identificate dallecoordinate dei due estremi e caratterizzatedai seguenti dati21:• larghezza in [m];• altezza media degli edifici lungo la stra-

da in [m];• flusso veicolare in [n° veicoli/h] per cia-

scuna tipologia (light duty e heavy duty);• velocità media dei veicoli, distinguendo

tra le due tipologie, in [km/h].In questo ambito, è possibile affinare lamodellazione del fenomeno diffusivo utiliz-zando, nei casi opportuni, uno specifico al-goritmo di Street Canyon che considera lasituazione diffusiva particolare che si verifi-ca quando la strada ha una larghezza infe-riore all’altezza degli edifici ai suoi fianchi.In questo caso si crea un vortice internoalla via e una conseguente condizione diricircolo e di ristagno degli inquinantiemessi all’interno del canyon stesso.A differenza di altri programmi di simula-

215COMPLESSITÀ & SVILUPPO 2003

UNA MODELLISTICA DELL’INQUINAMENTO DA TRAFFICO VEICOLARE IN AREA URBANA

zione dei fenomeni diffusivi in atmosfera,ADMS Urban non fa ricorso alle classi distabilità di Pasquill-Gifford, che consentonouna descrizione solo approssimativa del-l’Urban Boundar Layer. Gli algoritmi di cal-colo si basano invece principalmente sudue grandezze: il reciproco della lunghez-za L di Monin Obukhov e l’altezza h dellostrato limite, che permettono una più rigo-rosa e realistica rappresentazione dellastruttura (figura 6).Il risultato del modello consiste nelle con-centrazioni degli inquinanti, concentrazioniche possono essere ottenute in singolipunti, alle quote desiderate, o su griglie bi-o tri-dimensionali.Il modello assume due scale temporali20: abreve termine (short term) calcolando leconcentrazioni medie sull’intervallo tem-porale di riferimento, normalmente di unao più ore, e a lungo termine (long term)per ottenere concentrazioni confrontabilicon i valori limite e i valori guida stabilitidalle leggi nazionali e dalle direttive euro-pee (come le medie orarie, giornaliere, an-nuali o i valori dei percentili).L’utilizzo di ADMS Urban è estremamente

efficace quando esso viene connesso conprogrammi di rappresentazione geograficadel territorio della famiglia dei GIS (Geo-graphical Information System).Grazie a questa estensione si possono tra-sferire informazioni da un programma al-l’altro in entrambe le direzioni. Arcview GISpermette la visualizzazione grafica dimappe cui possono essere associati varitematismi, quali il grafo stradale e i rispetti-vi carichi di traffico oppure le concentra-zioni al suolo degli inquinanti. Attraversoquesta correlazione è stato possibile intro-durre i dati relativi agli archi stradali dellamappa di Bologna da Arcview direttamentein ADMS Urban e, grazie all’interconnes-sione con Spatial Analist, visualizzare lemappe di concentrazione risultanti.

ConclusioniSi sono illustrati i principi alla base dellacostruzione di una suite modellistica fina-lizzata alla valutazione dell’impatto del traf-fico sulla qualità dell’aria di una zona urba-na. La catena modellistica è stata messa ef-fettivamente in funzione e ha fornito risulta-ti interessanti, sia per quanto riguarda lavalutazione di operatività del piano gene-rale del traffico urbano, elaborato dalComune di Bologna nel 200122, sia quandosi è utilizzata in raffronto coi dati delle cen-traline della rete urbana di Bologna in unagiornata invernale23.Vari raffinamenti sono possibili. Dal puntodi vista dell’efficienza sarà ad esempio op-portuno prevedere un metodo maggior-mente automatizzato per il passaggio deidati fra le varie componenti del modello,oggi realizzato mediante opportune tabel-le in formato Excel.Dal punto di vista delle applicazioni prati-che, è necessario reperire dati migliori suiflussi di traffico e sulla loro evoluzione nelcorso del tempo per migliorare il già purbuon accordo fra previsioni modellistiche emisure.

216 COMPLESSITÀ & SVILUPPO 2003

GABRIELE ZANINI, FABIO MONFORTI, ELISIA NARDINI

DB

CA E/F/G

Netro StabileInstabile

–100 –10 –1 –0,1 0,1 1 10M/LMO

LMO

z

> 1000

h ≈ 800 m

h, altezza dello strato limite

Turbolenza dovutaal riscaldamentodella superficie

Turbobolenzameccanica

generata da variazionidel vento sulla

superficie50

LMO

Turbolenza debolegenerata da localivariazioni del tempo

Fonte: CERC User Guide, ADMS Urban – Version 1.6, Cambridge, 2000,p. 177.

Figura 6Legame tra stabilitàatmosferica, rappor-to h/L e altezza hdell’UBL

Bibliografia1. MALOSTI D., ROMANAZZO M., Mobilità, trasporto,

traffico: come controllare l’entropia?, Energia,ambiente e innovazione, 1/98, pp. 31-46.

2. OKE T.R., Boundary Layer Climates, IIa ed.,Methuen, Cambridge, 1987.

3. MEET report: Calculating transport emissionsand energy consumption, dal sito internet:http://www.eea.eu.int, 1999.

4. WALLACE J.M., HOBBS P.V., Atmospheric science anintroductory survey, Academic Press, California,1977.

5. UCCELLI R., Fonti, livelli ed effetti dell’inquinamen-to atmosferico, Energia, ambiente e innovazione,1/97, pp. 58-70.

6. CORNETTI G., Macchine termiche, II° volume, ed. IlCapitello, Torino, 1996.

7. UCCELLI R., LOMBARDI C.C., MAURO F., Impatto am-bientale e sanitario dei carburanti per autotrazio-ne, Energia, ambiente e innovazione, 4-5/96, pp.19-32.

8. ORTOLANI C., Combustione, IIIa ed., Città StudiEdizioni, 1994.

9. GIACOSA D., Motori endotermici, XIVa ed., Hoepli,Milano, 1995.

10. MONTALI M., La risposta tecnologica IVECO ai pro-blemi ambientali, parte I, ATA Ingegneria auto-mobilistica, vol. 49, 1996, pp. 271-278.

11. MONTALI M., La risposta tecnologica IVECO ai pro-blemi ambientali, parte II, ATA Ingegneria auto-mobilistica, 50, 1997, pp. 11-23.

12. GAMBINO M., MIGLIACCIO M., Combustibili alternativiper l’autotrazione, Liguori editore, Napoli, 1993.

13. STULL R.B., An introduction to Boundary LayerMeteorology, Kluwer Academic Publisher, Belgio,1988.

14. EPA Report, tratto dal sito internet:http://www.epa.gov.

15. SANTODIMAURO L., Dinamica dell’inquinamento at-mosferico da impianti industriali, Calderini,Milano, 1975.

16. SEINFELD J.H., PANDIS S.N., Atmospheric chemistryand phisics, John Wiley & Sons, Canada, 1998.

17. SARTORE M., Rappresentazioni della mobilità.Costruzione di un osservatorio intra–irregionale,dal sito internet: http://www.mondogis.it.

18. MEET report: Calculating transport emissionsand energy consumption, dal sito internet:http://www.eea.eu.int, 1999.

19. AUTORI VARI, Handbook of applied meteorology,Wiley – Interscience, Canada, 1985.

20. CERC User Guide: ADMS Urban – Version 1.6,Cambridge, 2000.

21. MCHUGH C.A., CARRUTHERS D.J., EDMUNDS H.A.,ADMS Urban: an air quality management systemfor traffic, domestic and industrial pollution, dalsito internet: www.cerc.co.uk.

22. NARDINI E. Sviluppo ed applicazione in area urba-na di un modello integrato emissione-dispersionesui principali inquinanti da traffico, tesi di laurea,Università degli studi di Bologna, facoltà diIngegneria.

23. PIERSANTI A., Il particolato atmosferico in area ur-bana: strumenti modellistici per l’analisi di scena-rio, tesi di laurea, Università degli studi diBologna, facoltà di Ingegneria.

217COMPLESSITÀ & SVILUPPO 2003

UNA MODELLISTICA DELL’INQUINAMENTO DA TRAFFICO VEICOLARE IN AREA URBANA

&complessità sviluppo

218 COMPLESSITÀ & SVILUPPO 2003

&com

ple

ssità

svilu

ppo

Gli effetti del cambiamento tecnologico sullosviluppo economico sono indagati a partire dalle

importanti trasformazioni strutturali che hannointeressato le maggiori economie industrializzate nelcorso degli ultimi trenta anni. L'analisi, condotta subase econometrica, è tesa a catturare il ruolo della

componente tecnologica nei processi di sviluppoevidenziandone l'articolazione e la complessità

sempre più accentuate

DANIELA PALMAGAETANO COLETTA

ALESSANDRO ZINIENEA

Unità di Agenzia – Advisor

Effetti del cambiamento tecnologicosullo sviluppo economico: un’analisieconometrica “panel” sui sei maggioripaesi OCSE

2003 Tratto da: ENERGIA, AMBIENTE E INNOVAZIONE 6/03

Nell’ultimo scorcio di secolo il ruolo delcambiamento tecnologico sui processi disviluppo economico si è straordinariamen-te accentuato, rivelando al contempo dina-miche sempre più complesse.In un precedente studio1 è stato evidenzia-to, in particolare, come l’emergere di unabase sempre più diffusa e consistente diproduzioni ad elevato contenuto tecnologi-co nelle aree più industrializzate abbia tro-vato corrispondenza sia in un generale po-tenziamento degli investimenti in R&S, siain una progressiva concentrazione di taliinvestimenti proprio all’interno dei com-parti ad alta tecnologia, e come a ciò abbiafatto riscontro il consolidarsi di nuovi van-taggi competitivi ai quali il processo di glo-balizzazione economica ha fatto da cassadi risonanza. La rilevanza di questo scena-rio si è qualificata anche sulla base di pro-cessi innovativi sempre più differenziati alivello di paese, traducendo specificitàcompetitive sempre più significative a livel-lo internazionale. Sono stati riscontrati, infi-ne, fenomeni di tendenziale coerenza tra iprocessi innovativi dei diversi paesi, le con-seguenti dinamiche competitive e l’anda-mento del reddito pro capite, assunto qualemisura di sintesi dello sviluppo in accordocon alcune tra le più influenti valutazionidell’analisi economica2,3.Al fine di indagare come la dinamica delcambiamento tecnologico si sia riflessasulla dinamica di sviluppo delle economieindustrializzate, il presente studio, effettua-to nell’ambito delle attività dell’Osser-vatorio ENEA sull’Italia nella CompetizioneTecnologica Internazionale, propone unmodello interpretativo della dinamica delreddito pro capite in relazione alla dinami-ca di variabili macroenomiche rilevanti as-sociate al cambiamento tecnologico.L’analisi è stata condotta su base storica inun arco di tempo che va dalla secondametà degli anni 60 alla fine degli anni 90,un periodo sufficientemente lungo per co-gliere indicazioni sui cambiamenti struttu-rali oggetto dello studio.

È stata così impostata una stima econome-trica su dati panel relativi ai sei maggioripaesi industrializzati (Stati Uniti, Giappone,Francia, Germania, Regno Unito, Italia). Intal senso si è inteso non solo catturare le di-rezioni della dinamica strutturale dei siste-mi economici, ma anche effettuare una va-lutazione appropriata delle specifiche rela-zioni tra le variabili indagate. Pur ricono-scendo le difficoltà che nascono dal doverdisporre di un congruo numero di osserva-zioni ai fini della significatività della stimastatistica, è infatti evidente che analisi chesi avvalgono di osservazioni su sistemieconomici con caratteristiche strutturali ec-cessivamente diverse non possano chedare luogo a conclusioni poco più che ge-neriche se non addirittura distorte.La scelta sopra indicata dei sei maggioripaesi industrializzati intende, quindi, elimi-nare questi inconvenienti. Nonostante ciò,la tendenza ad intraprendere studi caratte-rizzati dall'aggregazione di soggetti-paesealquanto disomogenei si è, in varia misura,relativamente diffusa.Nel portare alla luce significative evidenzeper quanto riguarda il più forte rilievo as-sunto dal processo di cambiamento tecno-logico sulla dinamica dello sviluppo eco-nomico, questi studi hanno fatto così emer-gere approssimazioni importanti su aspettirelativi sia all'interazione tra variabili ma-croeconomiche e stato della tecnologia, siaal peso specifico, sempre più rilevante, as-sunto dalle diverse economie paese.Lungo queste linee di analisi, il presentestudio è strutturato come segue.Il paragrafo è dedicato alla presentazionedel modello e delle variabili di stima, nelquadro dei principali riferimenti analiticiche hanno caratterizzato l'indagine econo-mica dell'ultimo decennio sul tema oggettodi studio. Un ulteriore paragrafo presenta irisultati ottenuti da diverse specificazionidel modello in base agli obiettivi di studio.Infine, sono fornite alcune riflessioni con-clusive anche in relazione alle ricerche incorso sul tema.

219COMPLESSITÀ & SVILUPPO 2003

UNA MODELLISTICA DELL’INQUINAMENTO DA TRAFFICO VEICOLARE IN AREA URBANA

Il contesto d'analisi, il modello,i dati

Gli sviluppi dell’analisi economica che nelcorso degli ultimi venti anni hanno riguar-dato la teoria della crescita hanno datoanche luogo a numerosi studi di tipo empi-rico. In base alle maggiori indicazioni trattedal dibattito teorico, tali analisi si sono par-ticolarmente concentrate sulle questionidella convergenza dei sistemi economici esul ruolo giocato dal cambiamento tecno-logico di tipo endogeno4-6. Assegnando unruolo preminente alle dinamiche del cam-biamento tecnologico nella crescita dilungo periodo, tali studi hanno soprattuttosottolineato la complessità con cui questoprocesso si sviluppa. Le conclusioni emer-se da queste riflessioni sottopongono al-l’attenzione essenzialmente due punti:1. le dinamiche della convergenza econo-

mica sono fenomeni non univocamentedefiniti, ma ben caratterizzati a livello diperiodo storico e di paese;

2. le differenze riscontrabili tra paesi diver-si nei tassi di accumulazione di cono-scenza (nella maggior parte dei casirappresentata attraverso le proxy del“capitale umano”, delle spese in R&S odalle statistiche brevettuali) hanno unarelazione con le differenze tra perfor-mance economiche a livello nazionale.Nell'ambito di tali punti interessa in parti-colare evidenziare il ruolo assunto da al-cune componenti concettuali che tuttoracontinuano a rappresentare un riferi-mento di base dell'indagine.

Una posizione per così dire “preliminare” ècostituita dalla verifica dell'ipotesi di cat-ching up, in base alla quale il sentiero dicrescita dei sistemi economici è significati-vamente influenzato da quello dei paesicon maggiori tassi di sviluppo, tipicamenteleader nell'innovazione14. In secondo luogoappare rilevante il contributo dell'investi-mento knowledge-based valutato rispetto aquello relativo alla tradizionale variabile di“spesa di investimento”7. La specializza-

zione produttiva, in particolare in quei set-tori definibili “ad alto tasso di innovazionee/o di opportunità tecnologica”, costituisceinfine un terzo importante pilastro di rifles-sione e indagine che qualifica ulteriormen-te la componente di domanda aggregatadel sistema economico in linea con il con-cetto più classico di “divisione del lavoro”.In quest'ultimo caso le indicazioni sonoprevalentemente tratte dalle posizioni di“vantaggio comparato” del singolo paesenel commercio internazionale, quale con-testo in cui si traduce la forza competitivadella specializzazione produttiva.È inoltre importante osservare come, nelcomplesso di tali studi, non vi sia un riferi-mento univoco alla variabile reddito, ma siautilizzata, quasi in modo intercambiabile, lavariabile produttività. A dispetto dello stret-to legame presente tra le due variabili edel ruolo che questo riveste nella dinamicadella crescita, è infatti opportuno conside-rare gli elementi per cui emergono precisedistinzioni sia sotto il profilo concettualesia, contestualmente, sotto il profilo specifi-co dell'indagine sul cambiamento struttu-rale del sistema economico. È evidente, in-fatti, come il concetto di produttività si leghiad un particolare stato del sistema econo-mico che comprende anche un particolarestato della tecnologia.Per ogni dato stato del sistema, la produtti-vità è certamente indicativa dei cambia-menti strutturali che con il tempo si deli-neano ma non per questo traduce in modounivoco la misura di tale cambiamento.Poiché l'indagine risulta correttamente im-postata secondo i criteri dell'analisi dina-mica8,3, e non della statica comparata, valo-ri e variazioni della produttività incorpora-no non solo i contenuti specifici di diversemodalità produttive (che esprimono le al-ternative tra tecniche diverse) ma anche icontenuti, assai più complessi, del “muta-mento tecnologico” del sistema rispetto alquale sono pure rilevanti aspetti adattivi di“entrata a regime”. Non meraviglia, dun-que, che molte tra le analisi che hanno in-

220 COMPLESSITÀ & SVILUPPO 2003

GABRIELE ZANINI, FABIO MONFORTI, ELISIA NARDINI

dagato lo sviluppo attraverso le misure diproduttività non sempre abbiano datoluogo a risultati significativi o coerenti9.La capacità esplicativa della variabile red-dito non è invece soggetta a questo tipo dilimitazioni non apparendo, al contempo, ri-duttiva rispetto al concetto, più esteso, disviluppo economico. Relativamente alla os-servazione in cui si puntualizza la distinzio-ne tra crescita del reddito e dinamica dellosviluppo, è stato infatti replicato come unprocesso di crescita non possa aver luogose non nell'ambito di un processo, piùampio, di sviluppo2. Se a tale osservazionesi lega quella, più specifica, relativa al con-cetto di reddito pro capite e al corretto con-cetto di “ricchezza” che questo traduce, se-condo il fondamentale chiarimento intro-dotto da Adam Smith ne “La Ricchezzadelle Nazioni”, è possibile concludere cheil reddito pro capite può essere una variabi-le ben rappresentativa dell'analisi dello svi-luppo economico e delle sue determinanti.Alle osservazioni che riguardano la specifi-cazione della variabile reddito, quale proxydel processo di sviluppo, debbono essereinfine aggiunte quelle che ne qualificano il“potenziale” di crescita alla luce della di-sponibilità delle risorse complessive del si-stema e dell'influenza che su questa eser-cita la dipendenza dalle importazioni dal-l'estero. Il determinarsi di un “vincolo este-ro” alla crescita è fatto noto e consolidato inletteratura economica allorché si riconoscela sempre più elevata apertura dei sistemieconomici agli scambi internazionali.Questo aspetto ha in particolare sollecitatoil filone della economia postkeynesiana10,11

che, ponendo l'attenzione sulle caratteristi-che inerenti le diverse componenti di do-manda, ha evidenziato nell'ambito di que-sta l’esistenza di una componente di vinco-lo estero.La forte dinamica associata alla crescitadell'import penetration di prodotti ad altocontenuto tecnologico, determinato dalladinamica stessa dello sviluppo tecnologi-co, ha vieppiù accentuato il carattere di

questa componente “specializzandola”,per così dire, in funzione delle va-riazionidinamiche delle esportazioni di prodotti adalto contenuto tecnologico1. Sotto questopunto di vista l'ipotesi di esistenza di unvincolo estero alla dinamica di crescita delreddito sembra dunque assumere unaforte rilevanza suggerendo l'introduzionedi una componente di domanda più com-plessa di quella che, alla luce della rifor-mulazione “post-keynesiana” delle equa-zioni di crescita, risulta individuata attraver-so la “specializzazione” della domanda neisettori “giusti”12,13.Nel presente studio la specificazione gene-rica del modello di crescita da sottoporre astima assume la seguente forma:

= tasso di variazione percentualedel PIL pro capite del paese i-mo al tempot

= rapporto fra il PIL pro capite

del paese i-mo e il PIL pro capite del paeseleader (Stati Uniti) al tempo t

= media su due anni della varia-

zione percentuale del rapporto fra investi-menti fissi lordi e PIL del paese i-mo

= media su tre anni della va-

riazione percentuale del rapporto fra BERD(Business Enterprise Research of Develop-ment) e numero di occupati del paese i-mo

= variazione in punti percentuali

del saldo della bilancia commerciale inrapporto al PIL nel comparto j-mo delpaese i-mo

La prima delle variabili esplicative è rap-presentativa dell’effetto catching-up al qua-

∆BC

PILj

it

13

2

0 BERD

N itt

ˆ

=−∑

12

1

0 INV

PIL itt

ˆ

=−∑

PILpc

PILpcUS it

PILpcitˆ

221COMPLESSITÀ & SVILUPPO 2003

UNA MODELLISTICA DELL’INQUINAMENTO DA TRAFFICO VEICOLARE IN AREA URBANA

PILpc fPILpc

PILpcUS

INV

PILitit itt

ˆ ( ,ˆ

,==−∑1

2 1

0

BERD

N

BC

PILt it

j

it

, )=−∑1

3 2

0

le si è sopra accennato. Essa esprime lepotenzialità di crescita dovute al divario dalpaese alla “frontiera” tecnologico-econo-mica (gli Stati Uniti nel caso specifico cosìcome anche altrove specificato, es. in 14) ealla conseguente opportunità di implemen-tare nel proprio sistema socio-economicotecniche e modelli di produzione e di con-sumo già collaudati altrove. Il segno attesodi tale variabile è quindi negativo. È attesa,in altri termini, una relazione inversa fra iltasso di crescita di un paese e la prossimitàdel suo livello del reddito pro capite aquello del paese più sviluppato (ovvia-mente ciò si verifica solo in presenza dialtre condizioni, non solo economiche).La seconda variabile esplicativa, relativaalla spesa in investimenti fissi lordi, è statacostruita prendendo la media su due annidella variazione percentuale del rapportofra investimenti e PIL per tenere conto sia diaspetti interpretativi, sia di più specifici pro-blemi di stima. Come è largamente noto,quello degli investimenti è infatti l’aggrega-to macroeconomico del reddito nazionalepiù volatile ed è fortemente correlato allefluttuazioni del PIL. Le decisioni di investi-mento riflettono, tra l’altro, le aspettativedelle imprese circa l’evoluzione futura delladomanda e dell’economia; è pertanto plau-sibile che la loro influenza sul PIL si protrag-ga nel tempo. La considerazione di variabiliritardate degli investimenti accanto a quellacontemporanea al reddito osservato avreb-be provocato, però, una perdita di gradi dilibertà, un motivo, questo, che porta solita-mente ad escludere i ritardi nei modelli distima. La soluzione adottata nel presente la-voro è stata, quindi, quella di considerareuna media mobile delle variazioni percen-tuali dell'indicatore su un intervallo di dueanni. In questo modo, inoltre, si sono atte-nuati eventuali andamenti congiunturali.La terza variabile esplicativa, la BERD,ossia la spesa in ricerca e sviluppo delle

imprese, rapportata al numero di occupati,è specifica dell’”investimento knowledgebased”. Rispetto alla usuale spesa in inve-stimento, essa manifesta i suoi effetti in unperiodo più lungo mentre esibisce una piùforte e significativa volatilità nel breve pe-riodo. Per tali motivi in questo caso è statapresa in considerazione una media mobiledelle variazioni percentuali dell'indicatoresu tre anni.In definitiva, con la selezione della spesaper investimenti e della spesa in R&S delleimprese elaborate nella forma dei suddettiindicatori si è inteso introdurre una compo-nente composita di spesa che consentissedi valutare l’effetto articolato della “spesadi investimento” in ragione dell’importanzaassunta dal cambiamento tecnologico.L’ultima variabile esplicativa del modello,relativa al commercio internazionale, è rife-rita al saldo della bilancia commercialequale vincolo alle potenzialità di crescitadel paese, come più sopra discusso. A taleriguardo sono state prese in considerazio-ne tre diverse versioni del saldo commer-ciale, a seconda del suo riferirsi a) alla tota-lità dei beni e servizi scambiati, b) ai solibeni manufatti (con l’esclusione dei prodot-ti energetici), c) ai beni manufatti ad altatecnologia(1). L'inclusione di specifiche al-ternative del saldo commerciale è funzio-nale alla verifica dell'esistenza di un “vin-colo estero” sempre più collegato allacompetitività del paese nelle produzioni adalta tecnologia. Infine, affinché l'ipotesi divincolo abbia una sua propria consistenza,il segno atteso per i coefficienti di stima siassume negativo, dovendo esprimere, perogni dato valore del PIL, variazioni negati-ve del saldo commerciale, a sua volta de-terminate da una più elevata elasticità alleimportazioni.La standardizzazione delle diverse variabi-li, introdotta per limitare l’influenza della di-mensione del paese, è stata infine operata

222 COMPLESSITÀ & SVILUPPO 2003

GABRIELE ZANINI, FABIO MONFORTI, ELISIA NARDINI

1 Il comparto dei prodotti ad alta tecnologia è stato costruito sulla base della classificazione elaborata dall’Osservatorio ENEAsull’Italia nella Competizione Tecnologica Internazionale e da questo utilizzata per la redazione dei propri rapporti a cui si riman-da per una sua maggiore specificazione15-17.

in ragione del significato di ogni indicatore,ma anche della significatività statisticadelle variazioni prese in esame. Nel casodella BERD, in particolare, è stato utilizzatoil rapporto rispetto al numero di occupati,essendo quest'ultima una grandezza piùstabile e significativa dell'usuale rapportoBERD/PIL.Tutti i dati macroeconomici utilizzati nellacostruzione delle variabili sono stati trattidall’”Economic Outlook” del SourceoecdDatabase dell’OCSE e, per consentire va-lutazioni su base intertemporale depuratedagli effetti inflazionistici a livello generalee a livello paese, sono stati considerati aiprezzi costanti (1995) e in dollari alla paritàdel potere di acquisto.Nel caso dei dati relativi ai saldi commer-ciali le elaborazioni sono state effettuate apartire dalla specifica sezione dell’OCSEdedicata al commercio internazionale(ITCS) sulla base della classificazione delcommercio internazionale SITC Rev. 2(Standard International Trade Classifi-cation). La selezione delle serie storichedel commercio in base alla SITC Rev. 2, co-difica aggiornata nel 1988 attraverso laSITC Rev. 3, ha consentito infatti di elabora-re omogeneamente i dati per tutto il perio-do considerato. D’altra parte, l’obiettivo dieffettuare valutazioni intertemporali lungoun così lungo periodo comporta dei limitiquanto più l’aggregato di riferimento èspecifico ed ha una sua storicità. È questoil caso dell’aggregato di beni definito “adalta tecnologia”, rappresentato nello studiodal paniere elaborato nell’ambito del-l’Osservatorio ENEA sull'Italia nella com-petizione tecnologica internazionale, checaratterizza assai meglio il periodo che hainizio con gli anni 80. È tuttavia vero che di-verse valutazioni sull’importanza che leproduzioni ad alta tecnologia hanno acqui-sito nel tempo18,12, depongono a favore diuna rappresentatività dell’high-tech intrin-seca proprio a quest’ultima fase storica, aprescindere da scelte di paniere.Tutti i dati sono relativi ad una serie tempo-

rale di 30 anni, coprendo il periodo che vadal 1968 al 1997. Questo periodo è statopoi suddiviso in due sottoperiodi di 15 anniciascuno (1968-1982 e 1983-1997). Il primosottoperiodo cerca di catturare la fase finaledel boom economico degli anni 60 e i suc-cessivi shock petroliferi con la crisi dei mo-delli produttivi di massa e dell’organizza-zione fordista dell’impresa e della società; ilsecondo periodo intende comprendere laripresa dell’economia mondiale, pur carat-terizzata da una certa divergenza nella cre-scita delle economie industrializzate, il pro-gressivo affermarsi della rivoluzione elet-tronica e più recentemente delle telecomu-nicazioni, e, più in generale, il principio diuna “svolta tecnologica” nei processi di tra-sformazione delle economie avanzate.Sul piano della elaborazione statistica, leserie storiche disponibili hanno richiestoalcuni interventi nel caso della Germania.A partire dal 1991 i dati si riferiscono infattialla Germania unita, mentre, prima di quel-la data, risultano distinte Germania Fe-derale e Repubblica Democratica Tedesca.Poiché in via di principio il riferimento allasola Germania Federale anche negli anni90, o all’aggregazione dei dati della DDR aquelli della Germania Federale per gli anniprecedenti, sarebbe stata un’operazione discarsa utilità interpretativa, si è procedutonel trattare il dato tedesco del 1991 comeun outlier, sostituendolo con una sua stima.Altri valori anomali su cui si è intervenutisono infine quelli relativi alle variazioni delPIL pro capite registrate in corrispondenzadegli shock petroliferi.

I risultati della stimaPrima di procedere con la stima del mo-dello, è stata verificata la stazionarietà dellevariabili considerate. L’utilizzo di una serieavente radice unitaria in un modello chenon presenta cointegrazione fra le sue va-riabili causa infatti il problema della re-gressione spuria19,20.È possibile testare la stazionarietà di una

223COMPLESSITÀ & SVILUPPO 2003

UNA MODELLISTICA DELL’INQUINAMENTO DA TRAFFICO VEICOLARE IN AREA URBANA

serie di dati panel testando ciascuna serietemporale individuale che la compone, at-traverso l’impiego di test tradizionali qualilo standard Dickey-Fuller test. Questo testpresenta, però, una “bassa potenza”, ovve-ro può far commettere l’errore di accettarela presenza di radice unitaria anche se que-sta non è presente. In questo lavoro si èquindi ricorso ad un test per radici unitarieper dati panel sviluppato da Levin & Lin, iquali hanno mostrato come, raggruppandoi dati, la potenza del test cresca considere-volmente 21. L’ipotesi nulla del test di Levin& Lin è che ciascuna serie temporale indivi-duale contenga una radice unitaria. Sotto l’i-potesi alternativa la serie presa come panelè stazionaria. Per effettuare il test, in primoluogo i dati della serie panel devono esseretrasformati in modo da rimuovere gli effettispecifici legati al paese e al tempo:

dove

e

dove

Si procede quindi alla stima del “PanelDickey Fuller model” per vedere se è pos-sibile rifiutare l’ipotesi nulla:

Nel presente lavoro, essendo risultate sta-zionarie tutte le variabili del panel, si è pro-

x xit i t i t= +−ρ ε, ,1

yN

yt i ti

N

==∑1

1,x y yi t i t t, ,= −

YT

Yi i tt

T

==∑1

1,y Y Yi t i t i, ,= −

seguito con la stima del modello sui tre pe-riodi precedentemente specificati.Come si può notare dalle tabelle cheespongono i risultati della stima per l’interoperiodo osservato, il parametro della varia-bile che approssima l’effetto di catching upha il segno negativo atteso e risulta alta-mente significativo. Tale risultato è, però,da imputarsi prevalentemente al primo sot-toperiodo considerato. La fine degli anni 60e gli anni 70 erano, infatti, ancora caratteriz-zati da un forte processo di convergenzadel PIL pro capite fra i G6, mentre, a partiredagli anni 80, ma soprattutto nel corsodegli anni 90, tale processo sembra averinvertito il trend (figura 1).Questo fenomeno può essere un segnaledell’esaurimento graduale della forza pro-pulsiva dei modelli produttivi e di consumodi massa che avevano caratterizzato l’e-spansione degli anni 60 e della progressivaaffermazione dei nuovi modelli post-fordistiche si sono delineati nel contesto di scenaritecnologici sempre più complessi, a partiredalle ondate tecnologiche determinatedalla “rivoluzione” dell'elettronica e del-l'informatica. Seguendo questa interpreta-zione, è possibile che i paesi consideratiabbiano sperimentato una capacità di adat-tamento al nuovo contesto differenziata.Nello specifico delle stime relative ai duesottoperiodi i risultati mostrano la significa-tiva influenza esercitata dagli investimentiin R&S a partire dagli anni 80, mentre gli ef-fetti relativi alla consueta spesa in investi-mento del settore privato appaiono più de-boli e distribuiti nel tempo. Nel passaggiodal primo al secondo sottoperiodo si affer-ma, in altri termini, un nuovo modello dicrescita delle economie industrializzate inbase al quale da inseguitori tecnologici idiversi paesi si trasformano in competitoritecnologici di pari dignità e legano la pro-pria performance economica alla forza inquanto competitori tecnologici. Si afferma,quindi, un modello di crescita in cui nonesistono più “rendite” da inseguimento, mai risultati sono determinati dalla capacità di

224 COMPLESSITÀ & SVILUPPO 2003

GABRIELE ZANINI, FABIO MONFORTI, ELISIA NARDINI

0,2800

0,2600

0,2400

0,2200

0,2000

0,1800

0,1600

0,1400

0,1200

0,10001963 1968 1973 1978 1983 1988 1993 1998

Figura 1Coefficiente di va-riazione del PIL procapite (G6)

esprimere una competenza tecnologica22.Sotto questo profilo particolarmente signi-ficativo appare il parametro associato all’ef-fetto del vincolo estero in quanto si segnalaun aumento dello stesso nell’ambito delcomparto manifatturiero e nell’alta tecnolo-gia, mentre il saldo commerciale totale nel

secondo sottoperiodo perde addirittura disignificatività statistica. L'interesse per talerisultato deriva peraltro, indirettamente, daevidenze relative alle elasticità all'export eall’import in diversi “regimi” di crescita23. Insistemi economici con tassi di crescita rela-tivamente elevati è possibile infatti riscon-

225COMPLESSITÀ & SVILUPPO 2003

UNA MODELLISTICA DELL’INQUINAMENTO DA TRAFFICO VEICOLARE IN AREA URBANA

Variabile a b c

Catching-up -11.99326*** -13.08483*** -11.63043***Investimenti 23.45601*** 23.34188*** 25.24909***Spesa in R&S 8.50825*** 9.79278*** 10.82378***Saldo comm. totale -47.43699***Saldo comm. manif. -53.97832***Saldo comm. high-tech -61.61042

Effetti fissiFrancia 11.14839*** 11.89604*** 10.75189***Regno Unito 9.62562*** 10.21822*** 9.34053***Germania 12.16647*** 13.09103*** 11.83668***Italia 10.92747*** 11.72886*** 10.50427***USA 13.92101*** 14.95658*** 13.51774***Giappone 12.03909** 12.75794*** 11.57132**R2 corretto 0.5485 0.5392 0.5110F-value 25.02 24.28 21.79Significato della F (0.000) (0.000) (0.000)F test per l’assenza di effetti fissi (0.000) (0.000) (0.000)Significatività delle statistiche t: * al livello del 10%** al livello del 5%*** al livello dell’1%

Tabella 1Risultati della regres-sione del panel peril periodo completo1968-1997

Variabile a b c

Catching-up -25.52397*** -28.37686*** -25.24217***Investimenti 26.63857*** 26.75368*** 27.14653***Spesa in R&S -3.07681 -1.50869 1.77867Saldo comm. totale -79.35596***Saldo comm. manif. -88.93214***Saldo comm. high-tech -21.563

Effetti fissiFrancia 22.76605*** 24.86282*** 22.32688***Regno Unito 18.59296*** 20.08332*** 18.15640***Germania 24.96054*** 27.50938*** 24.50406***Italia 21.42158*** 23.24899*** 20.81789***USA 27.40340*** 30.15467*** 27.06666***Giappone 22.72212*** 24.56132*** 21.90772***R2 corretto 0.6763 0.6585 0.5922F-value 21.43 20.07 15.36Significato della F (0.000) (0.000) (0.000)F test per l’assenza di effetti fissi (0.000) (0.000) (0.000)Significatività delle statistiche t: * al livello del 10%** al livello del 5%*** al livello dell’1%

Tabella 2Risultati della regres-sione del panel per ilprimo periodo 1968-1982

trare elasticità all'export relativamente piùelevate ed elasticità all'import relativamen-te più ridotte.Gli esiti della stima non devono inoltremancare degli importanti riferimenti allacomplessiva qualità esplicativa del model-lo. L’adattamento del modello (test R2 cor-retto e test F) è infatti leggermente inferio-re nel secondo sottoperiodo.Particolarmente evidente è poi la diversità,specifica della stima panel, del cosiddetto“effetto paese”. Il confronto tra un modello“ad effetti fissi”, quale è quello che scaturi-sce dalla stima relativa al primo periodoosservato, ed un modello “ad effetti casua-li”, quale è quello indicato come significati-vo nell’ambito del secondo periodo inbase al test di Hausman costruito per que-sto tipo di verifica24,25, mette in luce infatti

la maggiore complessità relativa al modoin cui l’importanza della specificità a livellonazionale gioca il proprio particolareruolo. Tale complessità è attribuibile anchea fattori non spiegati nel modello, ivi inclusiquelli connessi alle diverse forme di spe-cializzazione tecnologica che, proprio perla natura delle nuove dinamiche innovativeed economiche, assumono un ruolo premi-nente26. A questo proposito e analogamen-te a quanto esplicitato per la dinamica delreddito pro capite in figura 1, un fenomenodi tendenziale divergenza interessa sul fini-re degli anni 90 anche il rapporto tra spesaBERD e numero di occupati (figura 2). A ciòsembra parallelamente accostarsi un feno-meno di tendenziale “polarizzazione tec-nologica” dei paesi – valutata in base allaquota di spesa BERD nei settori high-techeffettuata da ciascun paese rispetto al tota-le del G6 – dopo una lunga fase di conver-genza (figura 3). La dinamica relativa allamedia rispetto ai G6 delle quote BERD deisingoli settori high-tech rispetto al totaledella BERD del manifatturiero, risulta, inve-ce, rappresentativa di un processo di con-vergenza più accentuato rispetto a quelloregistrato lungo la dimensione dei paesi(figura 3) e, dunque, di una minore “pola-rizzazione”. Prevale così una dinamica diemersione di più fronti tecnologici (nonsolo le tecnologie ICT, ma anche quelledell'industria farmaceutica e degli stru-

226 COMPLESSITÀ & SVILUPPO 2003

GABRIELE ZANINI, FABIO MONFORTI, ELISIA NARDINI

Variabile a b c

Intercetta 1.46831* 1.56356* 1.51651*Catching-up 0.49600 0.35053 0.43856Investimenti 24.28984*** 24.02990*** 23.92335***Spesa in R&S 9.67812*** 9.82498*** 8.76358***Saldo comm. totale -20.75978Saldo comm. manif. -30.11291*Saldo comm. high-tech -42.8301*

R2 corretto 0.4824 0.4884 0.5030F-value 21.74 22.24 23.52Significato della F (0.000) (0.000) (0.000)Significatività delle statistiche t: * al livello del 10%** al livello del 5%*** al livello dell’1%

Tabella 3Risultati della regres-sione del panel peril secondo periodo1983-1997

0,9000

0,8000

0,7000

0,6000

0,5000

0,4000

0,30001965 1968 1971 1974 1977 1980 1983 1986 1989 1992 1995

Figura 2Coefficiente di va-riazione della spesaBERD per occupato(G6)

menti di precisione come mostrato già piùin dettaglio in1 e diversamente da quantoargomentato in27 e, quindi, scenari tecnolo-gici non solo più complessi di quelli chehanno dato avvio alla “parabola del cat-ching up”, ma anche di quelli di più recen-te origine.In definitiva la più debole risposta dell’adat-tamento complessivo del modello nel se-condo sottoperiodo, le indicazioni che pos-sono essere tratte dalla stima di effetti “ca-suali” per quanto riguarda la componentepaese e il forte rilievo delle componentitecnologiche nel secondo sottoperiodo,sembrano sottolineare la necessità di dovercomprendere ancora meglio nelle valuta-zioni di stima gli effetti della “componentetecnologica” (naturalmente, in senso lato)sulla dinamica dello sviluppo economico.

ConclusioniLa prima conclusione che può trarsi dal la-voro presentato è costituita dalla rilevazio-ne della profonda rottura, o meglio, dall’ac-centuato cambiamento strutturale che hacaratterizzato i modelli di crescita del red-dito pro capite e quindi di sviluppo dellesei maggiori economie mondiali negli ulti-mi trenta anni. Il secondo risultato che vaevidenziato è rappresentato dal crescenteruolo giocato nei nuovi modelli di sviluppodalla conoscenza e dall’innovazione, indicedella crescente sofisticazione raggiuntadalle soluzioni produttive adottate da tali si-stemi economici. Sotto questo punto divista il dato del cambiamento strutturaledeve intendersi non già come un sempliceaccentuarsi della componente tecnologicanel processo di sviluppo, ma come l'avviodi un processo nel quale caratteristiche delsistema produttivo e soluzioni tecnologicheentrano in una corrispondenza sempre piùarticolata e complessa mettendo in risalto,proprio per questo, il ruolo sempre più de-cisivo del sistema paese.I risultati del modello, insieme alla letturache proviene dalla rilevazione, nell’ultimo

decennio, di una tendenza alla divergenzanelle dinamiche di crescita del PIL pro ca-pite dei G6, sembrano indicare l’esauri-mento di una fase di “crescita facile”, basa-ta sull’inseguimento del paese innovatore,e la crescente rilevanza delle capacità in-novative su base nazionale ai fini del man-tenimento e miglioramento dei livelli relati-vi di reddito pro capite. Sebbene tali indi-cazioni si esauriscano sul piano di variabilirelativamente aggregate, la significativitàdei risultati, inclusi quelli che evidenzianouna maggiore problematicità del ruolo deisingoli paesi rispetto all'avvio di particolaritraiettorie di sviluppo, tende a sottolinearel'importanza di una adeguata competitivitàtecnologica diffusa, in mancanza dellaquale il gap fra le dinamiche di crescita nonpuò che ampliarsi.

Bibliografia01.PALMA D., COLETTA G., ZINI A., Sviluppo Tecnologico

e Dinamiche Economiche nei Paesi Industria-lizzati, Energia, Ambiente e Innovazione, n. 5,2003.

02.SYLOS LABINI P., Intervista in RONCAGLIA A.,Schumpeter – È Possibile una Teoria dello Svi-luppo Economico?, Banca Popolare dell’Etruria –Studi e Ricerche, 1987.

03.PASINETTI L., Dinamica Economica Strutturale –Un’Indagine Teorica sulle Conseguenze Econo-miche dell’Apprendimento Umano, Il Mulino,1993.

04.FAGERBERG J., Technology and International Diffe-rences in Growth Rates, Journal of EconomicLiterature, v. 32, 1994.

227COMPLESSITÀ & SVILUPPO 2003

UNA MODELLISTICA DELL’INQUINAMENTO DA TRAFFICO VEICOLARE IN AREA URBANA

1,6

1,5

1,4

1,3

1,2

1,1

1

0,7

0,65

0,6

0,55

0,5

0,45

0,4

0,35

0,3

0,25

0,2

73-74-7578-79-8083-84-8588-89-9093-94-9597-98-99

polarizzazionedei paesi(scala di sinistra)

polarizzazionetecnologie(scala di destra)

Figura 3Spesa BERD - Pola-rizzazione della spe-cializzazione a livellodi paese (gruppo G6)nell'aggregato high-tech e dei diversi“fronti tecnologici”in base alle quote(media G6) dei sin-goli comparti high-tech sulla spesaBERD manifatturiera

05.VERSPAGEN B., Convergence in the Global Eco-nomy. A Broad Historical Viewpoint, StructuralChange and Economic Dynamics, v. 6, 1995.

06.FAGERBERG J., VERSPAGEN B., Technology – Gaps,Innovation-Diffusion and Transformation: an Evo-lutionary Interpretation, Research Policy, v. 31, 2003.

07.MELICIANI V., SIMONETTI, R., Specialization in Areasof Strong Technological Opportunity and Eco-nomic Growth, in Eliasson, G. Green, C. andMcCann, C. (eds), Microfoundations of EconomicGrowth: A Schumpeterian Perspective, AnnArbor: University of Michigan Press, 1998.

08.PASINETTI L., Structural Change and EconomicGrowth – A Theoretical Essay on the Dynamics ofthe Wealth of Nations, Cambridge UniversityPress, 1981.

09.FAGERBERG J., Technological Progress, StructuralChange and Productivity Growth: a ComparativeStudy, Structural Change and Economic Dyna-mics, v. 11, 2000.

10.Thirwall A.P., The Balance of Payment Constraintas an Explanation of International Growth RateDifferences, Banca Nazionale del Lavoro Quar-terly Review, v. 128, 1979.

11.McCombie J.S.L., Economic Growth, Trade Inter-linkages, and the Balance-of-Payments Constraint,Journal of Post Keynesian Economics, v. 15, n. 4,1993.

12.FAGERBERG J., GUERRIERI P., VERSPAGEN B., The Eco-nomic Challenge for Europe. Adapting to Inno-vation Based Growth, Edward, Elgar Publishing,1999.

13.VERSPAGEN B., The Evolution of Productivity Gaps,ECIS Wp., 2000.

14.LAURSEN K., How Structural Change Differs andWhy it Matters (for Economic Growth), DRUIDWp. N. 25, 1998.

15.AMENDOLA G., PERRUCCI A. (a cura di), L’Italia nellaCompetizione Tecnologica Internazionale, FrancoAngeli, 1995.

16.FERRARI S., GUERRIERI P., MALERBA F., MARIOTTI S.,PALMA D. (a cura di), L’Italia nella CompetizioneTecnologica Internazionale. Secondo Rapporto,Franco Angeli, 1999.

17.FERRARI S., GUERRIERI P., MALERBA F., MARIOTTI S.,PALMA D. (a cura di), L’Italia nella CompetizioneTecnologica Internazionale. Terzo Rapporto, FrancoAngeli, 2002.

18.GUERRIERI P., MILANA C., L’Italia e il CommercioMondiale – Mutamenti e Tendenze nella DivisioneInternazionale del Lavoro, Il Mulino, 1990.

19.GRANGER C.W.J., Developments in the Study ofCointegrated Economic Variables, Oxford Bullet-tin of Economics and Statistics, v. 26, 1986.

20.GRANGER C.W.J., ENGLE, R.F., Co-Integration andError Correction: Representation, Estimation, andTesting, Econometrica, v. 55, 1987.

21.BERNHARDSEN T., The Relationship between InterestRate Differentials and Macroeconomic Variables:a Panel Data Study for European Countries,Journal of International Money and Finance, v.19,2000.

22.ANTONELLI C., Intervento al Convegno Una politicaindustriale contro il declino, Atti del Convegno,Roma, 2003.

23.Krugman P., Differences in Income Elasticities andTrends in Real Exchange Rates, European Econo-mic Review, v. 33, 1989.

24.HAUSMAN J.A., Specification Tests in Econometrics,Econometrica, v. 46, 1978.

25.HAUSMAN J.A., TAYLOR W.E., Panel Data and Un-observable Individual Effects, Econometrica, v.49, 1981.

26.DALUM B., LAURSEN K., VERSPAGEN B., Does Spe-cialization Matter for Growth?, Industrial andCorporate Change, v. 8, 1999.

27.VERSPAGEN B., Growth and Structural Change:Trends, Patterns and Policy Options, ECIS Wp.,2000.

228 COMPLESSITÀ & SVILUPPO 2003

GABRIELE ZANINI, FABIO MONFORTI, ELISIA NARDINI

&complessità sviluppo

ENEAUnità Comunicazione

Lungotevere Thaon di Revel 76 - 00196 Roma

Fabiano EditoreReg. San Giovanni 2/b - 14053 Canelli (AT)

Novembre 2003