: Bovino Silvanosilvanobovino.altervista.org/attachments/article/3/Tesina... · • Satelliti...

75
CLASSE : V A E.T.A. ALUNNO: Bovino Silvano Mappa concettuale:

Transcript of : Bovino Silvanosilvanobovino.altervista.org/attachments/article/3/Tesina... · • Satelliti...

CLASSE : VA E.T.A.

ALUNNO: Bovino Silvano

Mappa concettuale:

Percorso disciplinare

Percorso di Italiano e Storia:

Lo sviluppo sostenibile

• Le problematiche derivate dal consumismo:

o Problema demografico

o Inquinamento delle acque e del suolo

o Deforestazione

o Calamità naturali

• Le principali problematiche ambientali:

o Effetto serra

o Buco dell'ozono

• Le soluzioni al problema ambientale:

o L'orientamento verso lo sviluppo sostenibile

o La conferenza di Kyoto del 1997 e i numerosi vertici sulla questione ambientale

o La politica del risparmio energetico

Percorso di telecomunicazioni:

I satelliti

• Sistemi satellitari in orbita;

• Progetti Italiani nel campo satellitare;

• Bande di frequenza dei sistemi satellitari;

• Satelliti geostazionari;

• Strumenti di bordo dei satelliti:

o Pannelli fotovoltaici

o Sistema di alimentazione

o Trasponder

• Tecniche di multiplazione dei canali satellitari;

• Applicazioni dei satelliti:

o Sistema GPS

o Satelliti Meteorologici

Percorso di sistemi:

Sistemi di acquisizione dati(S.A.D)

• Definizione di sistema di acquisizione dati;

• Schema a blocchi di un sottosistema di misura;

• Circuito di rilevamento;

• Caratteristiche e classificazione dei trasduttori;

• Circuito di condizionamento;

• Circuito di Sample/Hold;

• Convertitore ADC;

• Sistemi multicanale.

Percorso di T.D.P. :

Sensori di temperatura

Termoresistenze e Termistori

• Cenni teorici sui sensori e i trasduttori;

• Termoresistenze;

• Termistori.

Percorso di Diritto:

L’attività economica e l’azienda

• Definizione di attività economica;

o Le fasi dell’attività economica;

o Obbiettivi e fasi dell’attività economica;

• Concetto di azienda;

o Elementi costitutivi di un azienda

CLASSE : VA E.T.A.

ALUNNO: Bovino Silvano

Indice:

1. Definizione di sviluppo sostenibile

2. Le problematiche derivate dal consumismo:

• Problema demografico

• Inquinamento delle acque e del suolo

• Deforestazione

• Calamità naturali

3. Le principali problematiche ambientali:

• Effetto serra

• Buco dell'ozono

4. Le soluzioni al problema ambientale:

• L'orientamento verso lo sviluppo sostenibile

• La conferenza di Kyoto e i numerosi vertici sulla questione ambientale

• La politica del risparmio energetico

Definizione:

Lo sviluppo sostenibile è una forma di sviluppo che non compromette la possibilità delle future generazioni di

perdurare nello sviluppo, preservando la qualità e la quantità del patrimonio e delle riserve naturali (che sono

esauribili, mentre le risorse sono considerabili come inesauribili). L'obiettivo è di mantenere uno sviluppo economico

compatibile con l'equità sociale e gli ecosistemi, operante quindi in regime di equilibrio ambientale.

Nell’ultimo secolo e in particolare in anni recenti l’attenzione per il problema ecologico si è intensificata. Questo

perché è cresciuto quello che viene definito l’impatto ambientale delle attività umane. Se nei secoli precedenti lo

sviluppo tecnologico e intellettivo dell’uomo aveva consentito un rapporto equilibrato uomo-natura che non

alterasse il mondo naturale, gli eventi dell’ultimo secolo hanno suscitato dei cambiamenti nella società e negli stili di

vita umani introducendo tecnologie e forme di sviluppo ad alto impatto ambientale.

Questo significa che negli ultimi anni lo stile di vita assunto dalla popolazione umana ha influenzato fortemente

l’ambiente naturale del pianeta influenzando sempre più i microequilibri naturali. Per questo motivo al contrario di

quanto avveniva nel passato l’uomo ha iniziato a imporsi sull’ambiente naturale e a modificarlo.

Le possibilità di dominare la natura e di alterarla si sono moltiplicate enormemente man mano che l’uomo ha

acquisito maggiori conoscenze tecniche ed è riuscito a realizzare armi e strumenti sempre più innovativi e potenti,

talvolta distruttivi. Tuttavia il problema ecologico non deriva dai mezzi di cui l’uomo ha potuto disporre ma al

contrario l’uso che l’uomo stesso ha fatto di questi ultimi.

Con l’avvento della odierna società basata sul sistema economico e commerciale gli stili di vita umani mirano sempre

più alla ricerca di uno sviluppo

obbiettato al profitto piuttosto che

alla sopravvivenza o soddisfazione

dei veri bisogni della società. La

società del consumismo che ne è

derivata ha promosso settori

industriali per ottenere maggiori

profitti trascurando quelli

socialmente più utili e meno

inquinanti. Soltanto dopo ci si è

accorti che le risorse naturali non

sono inesauribili, ma limitate e non

rinnovabili se non in tempi

lunghissimi.

Solo in tempi recenti inoltre ci si è

resi conto che la natura non è in

grado ad oggi di sopportare tale sfruttamento derivato dallo stile di vita consumistico.

Nonostante ciò il progresso di un paese e l’efficienza del suo sistema produttivo è ancora oggi valutato in base alla

sua capacità di imporsi sui mercati internazionali.

L’orientamento verso uno sviluppo in questo senso ha causato nel giro di pochi anni, la distruzione di ingenti

giacimenti di materie prime e un incremento esponenziale dei livelli di inquinamento.

L’insieme di tali fattori ha causato nel giro di pochi anni la morte di milioni di persone, il problema della

deforestazione, l’incremento dei disastri naturali e della loro distruttività, l’estinzione del 10% delle specie animali e

vegetali e tanti altri problemi che magari non sono stati ancora collegati al problema dell’inquinamento. Le maggiori

preoccupazioni che affliggono gli esponenti politici mondiali e della scienza e che evidenziano il difficile momento

attraversato dal nostro pianeta sono:

• Il problema demografico

• Degrado ambientale: Inquinamento delle acque e del suolo

• Deforestazione

• Calamità naturali

• Effetto serra

• Il buco nell’ozono

PROBLEMA DEMOGRAFICO:

Alla nascita di Cristo si contavano circa 350 milioni di unità umane sulla terra. Alla fine del XVIII secolo si contavano

invece 1 miliardo di esseri umani, 2 miliardi nel 1930, 5

a metà degli anni ’80, 6 nel 2000 e, secondo le stime

ONU ben presto si conteranno 8 miliardi di esseri umani.

Questa crescita esponenziale verificatasi negli ultimi

secoli si è tradotta in un aumento delle richieste di cibo

e dei bisogni con un conseguente incremento della

richiesta di risorse naturali e materie prime. E’ da

evidenziare però che l’incremento demografico si

diversifica a seconda delle aree geografiche del pianeta.

In generale però si nota come la crescita sia stata

enorme soprattutto nei paesi sottosviluppati mentre in

quelli sviluppati(o industrializzati) è quasi statica.

Nonostante ciò,sono proprio i paesi sviluppati ad essere i maggiori colpevoli del degrado delle risorse ambientali.

Alcuni dati pratici ci illuminano su quest’ultimo aspetto. Si consideri infatti che un cittadino europeo consuma in

media 400 litri d’acqua contro i soli 50 di un cittadino di un paese emergente. Negli stati uniti si stima che per ogni

cittadino siano necessari ben 800 litri d’acqua al giorno, distribuiti tra il fabbisogno personale e i consumi

civili(piscine, irrigazione pubblica etc….). I dati riguardanti il consumo d’acqua suggeriscono analoghe considerazioni

riguardo i consumi di petrolio, produzione di rifiuti e inquinamento e quindi emissioni di anidride carbonica, molto

più elevati come al solito, nei paesi industrializzati.

INQUINAMENTO DELLE ACQUE E DEL SUOLO

Il danno più considerevole arrecato dall’uomo alla natura è proprio quello dell’inquinamento. Tale problema si

traduce in vari aspetti e quindi tipologie di inquinamento. Uno di quelli che desta maggiori preoccupazioni è quello

che riguarda le acque del pianeta. I rifiuti cittadini, gli scarichi industriali, l’insensibilità per la questione del riciclaggio

hanno fatto si, che nel giro di pochi anni, si accumulassero enormi quantitativi di sostanze e materiali inquinanti nei

mari del nostro pianeta. Se le acque risultano inquinate ne deriva che lo sia anche il cibo e l’acqua che beviamo. Non

solo, il rischio più elevato riguarda anche gli esseri viventi che popolano le acque marine. La presenza elevata di

fosfati e nitrati, immessi attraverso gli scarichi industriali, nelle acque ha provocato il fenomeno dell’eutrofizzazione

ossia un eccessivo nutrimento di alghe e flora marina. La conseguenza di tale fenomeno è il consumo elevato di

ossigeno, che viene sottratto alla fauna marina e ai microorganismi, come il Plancton, necessari al sostentamento

della maggior parte della fauna acquatica. L’inquinamento delle acque inoltre costituisce una minaccia diretta per il

suolo, sempre più inquinato dai fertilizzanti e sostanze

chimiche usate nell’agricoltura e addirittura talvolta

soggetto alle radiazioni nucleari che ne compromettono la

produttività per lunghissimi periodi di tempo con seri

danni all’agricoltura e rischi per la salute. L’esempio più

eclatante fu quello della centrale di Chernobyl in Ucraina,

dove un danno ai reattori provoco la fuoriuscita di

sostanze radioattive. La nube radioattiva si diffuse su gran

parte dell’Europa, provocando decine di vittime e paurosi

effetti sulla salute dei neonati, generati con anomalie di

carattere genetico ricollegabili direttamente a tale evento.

Se il disastro di Chernobyl rappresenta l’esempio maggiore

dei pericoli del nucleare è anche vero che ad oggi si

contano nel mondo episodi analoghi di minore intensità e che hanno provocato in ogni caso l’inquinamento di interi

ettari di suolo.

Deforestazione:

La crescita delle richieste di materie prime si è tradotta in un aumento della richiesta di legname. Per questo motivo

la deforestazione, cioè l’abbattimento nel giro di un breve periodo di tempo di interi ettari di foreste, è cresciuta a

ritmi elevatissimi. Le stime in merito parlano di un ritmo di circa 11 milioni di ettari di foreste, abbattute in un anno.

E’ come se in un solo anno, una foresta che si estende su una superficie pari alla Grecia, venisse abbattuta. Il

fenomeno è accentuato soprattutto nelle zone tropicali ed in particolare in Amazzonia, dove l’omonima foresta

Amazzonica, rischia di scomparire entro i prossimi anni. Nell’immagine si nota il ritmo con il quale procede

l’abbattimento degli alberi in queste zone:

In questo modo viene meno l’azione fondamentale svolta dagli alberi nella protezione del suolo da frane e

straripamento delle acque. I disastri naturali collegati a tale fenomeno sono cresciuti negli ultimi anni in maniera

proporzionale ad esso. In Italia, ad esempio, si contano tantissimi casi di alluvioni e allagamenti che sarebbero potuti

essere evitati attraverso la conservazione dello scenario naturale e delle foreste, abbattute in maniera scriteriata per

dar spazio alle costruzioni, talvolta abusive. Casi come quello dei paesi di Quindici e Lauro, in provincia di Avellino e

Siano, Bracigliano e Sarno in provincia di Salerno sono una testimonianza della forza distruttiva delle acque, causata

dalla mancanza di un adeguata vegetazione. In secondo luogo la riduzione delle aree “verdi del pianeta” contribuisce

all’innalzamento dei livelli di anidride carbonica, in quanto una delle funzioni naturali svolte dagli alberi è proprio

quella di assorbire anidride carbonica per svolgere alcuni processi fondamentali come la fotosintesi.

Calamità naturali:

Sebbene inizialmente la maggior parte delle calamità vengano definite fenomeni naturali, spesso queste sono

direttamente collegate all’inquinamento. Difatti alcuni studi hanno dimostrato che l’alto tasso di inquinamento

insieme ai comportamenti irresponsabili dell’uomo ha contribuito negli ultimi anni ad aumentare la frequenza e

l’intensità di questi eventi catastrofici.

Un esempio è quello dei terremoti. Questi fenomeni sono

provocati dal continuo movimento delle placche terrestri. Nel

momento in cui le enormi masse terrestri vengono a contatto

tra loro o si verifica una fase di instabilità, il terremoto è la

conseguenza di tale situazione. L’intensità dei terremoti è

aumentata nell’ultimo periodo a causa di diversi motivi. In

primo luogo vi è la costruzione scriteriata di abitazioni in

luoghi sismici; in secondo luogo vi è l’inadeguatezza e la

scarsa qualità dei materiali di costruzione utilizzati per gli

edifici. In ultimo il continuo assorbimento di risorse dal

sottosuolo, come il petrolio, i gas, il metano, hanno provocato

situazioni di instabilità, tali che un piccolo terremoto

provocherebbe crolli ed effetti inimmaginabili.

Un altro problema legato alle azioni dell’uomo è quello delle piogge acide. Tale fenomeno è provocato nei paesi

industrializzati dall’emissione di sostanze come l’anidride solforosa e l’ossido di azoto. Il risultato è che tali sostanze,

combinandosi con la particelle di vapore acqueo nell’atmosfera, si riversano al suolo sottoforma di precipitazioni. Le

piogge acide sono responsabili dell’erosione dei monumenti artistici, degli edifici ed inoltre privano il terreno di

sostanze nutritive, provocando la morte di foreste, l’inquinamento dei laghi e la scomparsa di alcune forme di vita.

Ennesimo problema è rappresentato dagli tsunami, dirette conseguenze di terremoti con epicentro in mare. Lo

tsunami è un sistema complesso di onde che raggiunge gli 800Km di velocità con una lunghezza d’onda di 200Km.

Uno dei più violenti tsunami si abbatté nel 2004 sulle coste di alcuni paesi asiatici(Sri Lanka, Indonesia, India;

Thailandia) provocando migliaia di vittime e danni per milioni di dollari.

Anche nel caso degli Tsunami è riconosciuta la responsabilità dell’uomo. Infatti l’inquinamento delle acque insieme

all’aumento delle temperatura ha contribuito al degrado delle barriere coralline, strutture calcaree che hanno la

funzione di proteggere le coste.

Un ultimo fenomeno in cui è riconosciuta la non

estraneità dell’uomo è quello degli uragani, definiti

per eccellenza spettacolari ed alquanto distruttivi

fenomeni naturali. Anche in questo caso i

cambiamenti climatici provocati dall’inquinamento

hanno accresciuto l’intensità e la frequenza di tali

fenomeni. Gli uragani sono la conseguenza

dell’evaporazione-condensazione dell’aria umida in

corrispondenza delle zone dove si è registrato un

aumento della temperatura. Secondo alcuni

studiosi, l’aumento delle temperature medie del

pianeta ha accresciuto la frequenza degli uragani e

alcuni sostengono addirittura che la loro frequenza

è direttamente proporzionale alla quantità di gas serra presente nell’atmosfera.

Le problematiche maggiormente rilevanti:

Queste che abbiamo elencato sono solo alcune delle problematiche legate al comportamento

irresponsabile dell’uomo. Lo sviluppo legato al consumismo ha generato oltre a queste, 2 problematiche

maggiormente rilevanti. Alla loro risoluzione è legato il futuro del nostro pianeta:

Il primo grave problema è l’effetto serra. Questi è un fenomeno naturale che contribuisce alla regolazione

della temperatura del pianeta. L’anidride carbonica presente nell’atmosfera contribuisce

all’intrappolamento della giusta quantità del calore dei raggi solari. Se tale fenomeno non si verificasse la

temperatura della terra sarebbe più bassa di 30-40o e la vita non sarebbe possibile. Negli ultimi anni però si

sono registrate delle anomalie in questo processo naturale, causate in sostanza dalla presenza eccessiva di

anidride carbonica( e di altri gas ad effetto serra), nell’atmosfera, il che ha modificato gli equilibri termici

del pianeta. L'interferenza dei gas serra alla dissipazione della radiazione infrarossa comporta

l'innalzamento della temperatura superficiale fino al raggiungimento di un punto di equilibrio tra

radiazione solare in arrivo e infrarossa in uscita.

La presenza eccessiva di gas serra nell’atmosfera ha provocato un innalzamento delle temperature medie

del pianeta con effetti che potrebbero rivelarsi catastrofici se non saranno elaborate delle valide soluzioni.

Nell’immagine che segue si possono notare alcune delle cause dell’effetto serra ed in particolare

dell’aumento di gas serra.

Il secondo grave problema è la riduzione dello strato di ozono registrata negli ultimi anni dai laboratori

NASA. Come per i gas serra, l’ozono è un elemento

dell’atmosfera essenziale per la vita ma anch’esso

svolge il suo ruolo benefico solo in determinate

condizioni. Fino a qualche decennio fa lo strato di

ozono era presente nella nostra atmosfera in

quantità ideali e così è stato per milioni di anni.

Come si osserva nella figura seguente però negli

ultimi anni si è registrato un assottigliamento dello

strato di ozono che si manifesta ancor più in maniera

evidente in Antartide dove i venti polari accentuano

tale carenza.

Nella figura le rilevazioni effettuate a distanza di 6

anni l’una dall’altra, rivelano la diradazione graduale

dello strato di ozono.

Secondo gli scienziati, alcune sostanze chimiche sono le principali responsabili del problema. Queste

sostanze chimiche sono dette "sostanze che consumano l' ozono" ( ODS, Ozone Depleting Substancies) e

comprendono molti gas contenenti cloro o bromo, come : i clorofluorocarburi (CFC) , che contengono

cloro, fluoro e carbonio, usati nei frigoriferi e come agenti espandenti nelle schiume; gli "Halons", usati

come antifiamma; il bromuro di metile, usato in agricoltura.

Tali sostanze sono emesse quotidianamente nell’atmosfera in quanto l’attuale stile di vita umano ne

richiede l’utilizzo(Si veda il caso dei CFC emessi dai frigoriferi).Gli effetti che ne derivano sono tutt’altro che

ignorabili. Nella tabella seguente si può notare come le emissioni di C02 derivano dall’utilizzo di materiali

che vengono quotidianamente consumati dalla nostra società:

La riduzione dello strato di ozono causerà un incremento delle radiazioni UV a livello del suolo. Un eccesso

di raggi UV è stato associato a bruciature della pelle, cancro della pelle, cataratte, e danni ad alcune

tipologie di raccolti agricoli e agli organismi marini.

Un modo di vivere compatibile con l’ambiente: LO SVILUPPO SOSTENIBILE

Questi motivi abbastanza convincenti, hanno spinto alcuni esponenti della politica e dell’economia

mondiale ad orientarsi su un nuovo tipo di sviluppo, abbandonando difatti gli stili di vita consumistici e

dannosi effettuando una svolta sullo sviluppo sostenibile. Lo sviluppo sostenibile si basa sull’idea che non è

possibile ritornare indietro rinunciando agli standard di vita del nostro secolo, ma piuttosto è necessario

trovare un compromesso. Lo sviluppo sostenibile si basa dunque sull’idea di una produzione e una crescita

economica compatibile con l’ambiente, cioè un consumo delle risorse naturali disponibili senza

comprometterne l’uso alle future generazioni. Questo richiede d’altra parte una modifica delle logiche

industriali, con l’ideazione di produzioni mirate e programmate di beni senza danneggiare l’ambiente. Le

soluzioni più accreditate sono una maggiore politica di riciclaggio delle materie prime e dell’energia e

l’utilizzo delle fonti rinnovabili.

A questo proposito in anni recenti si sono svolte importanti manifestazioni e campagne di sensibilizzazione

al problema ambiente. L’ONU ha indetto la giornata internazionale dell’ambiente, che si tiene ogni 5

Giugno. Il 5 Giugno del 2007 fu varato lo slogan “Ghiaccio che si scioglie, terra che scotta”, volto a

sottolineare gli effetti disastrosi dei cambiamenti climatici. Un'altra campagna indetta il 5 Giugno è stata

“Una pianta per il pianeta” con la quale si incoraggiavano giovani e meno giovani a piantare alberi con

l’obbiettivo di far crescere almeno 1 miliardo di alberi nel 2007. Anche i governi hanno risposto

positivamente ed in particolare il comune di Roma si prefisse di raddoppiare il verde urbano nel giro di 5

anni.

Il protocollo di Kyoto

Dato che la risoluzione del problema è legata maggiormente a scelte politiche ed economiche e ad

interventi tecnici e finanziari che spettano solo ai governi, a partire dal 1989 la Comunità internazionale ha

indetto numerose conferenza per prendere delle decisioni per la risoluzione di tale problema ambientale.

Inizialmente nessuna di queste conferenze produsse alcun risultato, anzi si poté assistere a discussioni

furibonde tra i vertici dei vari paesi.

Uno scatto che riprende un vertice tra i rappresentanti delle nazioni mondiali

La conferenza tenutasi a Kyoto nel 1997 sortì i primi risultati positivi. A tale conferenza parteciparono i

vertici di 170 paesi e aveva come obbiettivo principale la riduzione dei gas serra prodotti dal’uso di

combustibili fossili. Anche in questo caso, non mancarono le polemiche e le discussioni in particolare tra i

paesi Europei e gli USA. Gli Stati Uniti, considerati i maggiori responsabili delle emissioni inquinanti,

rifiutavano di provvedere alla riduzione di gas serra in quanto ciò avrebbe provocato seri danni alla loro

economia.

Gli Europei invece proponevano una riduzione del 15% delle emissioni inquinanti. Alla fine si raggiunse un

compromesso:

I paesi industrializzati avrebbero provveduto a ridurre le emissioni di gas serra del 5,2% entro il 2012.

Inoltre fu deciso che tutti i paesi partecipanti alla conferenza avrebbero ratificato ufficialmente entro il

2002 e solo quando il 55% dei paesi rappresentanti il 55% delle emissioni avrebbe ratificato la loro

adesione , il protocollo sarebbe divenuto valido.

Moltissimi movimenti ambientalisti tra cui il WWF e Greenpeace sottolinearono a ragione che il 5,2% era

insufficiente per salvare il pianeta dal disastro annunciato.

Nonostante ciò, nelle successive conferenze sul clima molti paesi si coalizzarono manifestando la loro

decisione di non aderire o piuttosto far si che fossero soprattutto gli altri a risolvere il problema. Si

formarono quindi 2 schieramenti: da una parte i paesi Europei insieme ai meno industrializzati che avevano

deciso di aderire al protocollo di Kyoto in tutte le sue clausole, dall’altra gli Stati Uniti, il Canada, Nuova

Zelanda, lo stesso Giappone, Cina, Australia che si opponevano nel timore che l’adesione al protocollo

avrebbe provocato delle considerevoli perdite economiche.

In particolare gli Stati Uniti sostenevano che i tagli alla loro produzione di CO2 dovevano essere ridotti in

quanto essi erano pronti a finanziare progetti antinquinamento nei paesi in via di sviluppo. Inizialmente

l’Europa si oppose sottolineando che l’inquinamento dei paesi in via di sviluppo era molto minore di quello

Americano. Successivamente nel 2001 il presidente americano Bush manifestò la volontà di non aderire al

protocollo di Kyoto in nessuna delle sue parti.

Le intense polemiche portarono finalmente ad un compromesso, proposto dall’unione Europee. La

riduzione delle emissioni inquinanti sarebbe stata valutata sia attraverso la riduzione diretta dei gas serra

emessi nell’atmosfera sia indirettamente attraverso i finanziamenti verso i paesi sottosviluppati per la

costruzione di dispositivi antinquinamento. Aderirono in virtù di tale compromesso il Canada e il Giappone

mentre ancora una volta gli Stati Uniti si isolarono dal gruppo.

Nel 2002 a Johannesburg, un'altra conferenza sullo sviluppo sostenibile ebbe esiti negativi in merito

all’adesione degli USA che rifiutarono l’adesione a tutti gli argomenti di discussione tra cui la riduzione

dell’emissioni dei gas serra, i contributi per l’aumento della quantità di acqua potabile, per la riduzione

delle infezioni da HIV.

Stesso risultato fu sortito nel 2003 nella conferenza internazionale sul clima tenutasi a Milano tra l’1 e il 12

Dicembre, durante la quale gli Stati Uniti confermarono il loro pensiero in merito alla questione

ambientale.

Finalmente nel 2004, con l’adesione della Russia fu raggiunto il fatidico 55%, che rese a tutti gli effetti

operativo il protocollo di Kyoto, tanto che il 16 Febbraio 2006 esso divenne finalmente legge. Durante i

successivi vertici tenutisi tra il 2005 e il 2006 si discusse molto sul rendere vincolanti o volontarie le

riduzioni di gas serra. Ovviamente gli Stati Uniti optavano per la seconda possibilità e le discussioni furono

rinviate al 2008.

Per quanto concerne l’Italia, la risposta al protocollo fu più che positiva, tant’è che il ministro dell’ambiente

invitò le industrie Italiane, in particolar modo quelle del settore termoelettrico ad attuare una riduzione

del 10% delle emissioni inquinanti entro il 2008.

In totale, ben 141 paesi aderirono al protocollo in tutte le sue parti.

Il fondamentale vertice del 2007:

Nel 2007 durante il consiglio dei capi di stato e di governo dei 27 paesi membri della UE, presieduto dalla

cancelliera tedesca Angela Merkel sono stati raggiunti importanti accordi in merito alla questione

ambientale. Durante la riunione è stata confermata la volontà dell’Unione Europea di fare da guida

mondiale nella campagna contro l’inquinamento ed il surriscaldamento del pianeta. Sono stati inoltre

definiti i tetti massimi di emissioni inquinanti a seconda delle necessità e della situazione dei singoli paesi.

Inoltre finalmente durante l’incontro del G8 svoltosi a Giugno in Germania, gli Stati Uniti si sono dimostrati

favorevoli alla proposta di ridurre del 50% il totale delle emissioni inquinanti entro il 2050.

Il percorso per giungere a tale risultato è stato molto lungo. Difatti le tappe per l’adesione ad uno sviluppo

sostenibile sono state numerose. Di seguito sono elencati cronologicamente gli eventi principali che hanno

anteceduto la conferenza di Kyoto e che hanno permesso nel loro insieme di formare un consiglio di

nazioni unito per la risoluzione del problema ambientale:

• Nel 1972 si tenne “La conferenza di Stoccolma”. Questa città è stata la prima che ha toccato i temi

ambientali ed ha inoltre adottato una “dichiarazione” all’interno della quale si propone la salvaguardia

dell’ambiente.

• Nel 1979 a Ginevra viene firmata la convenzione sull’inquinamento atmosferico regionale per affrontare

problemi legati all’ acidificazione, eutrofizzazione e smog.

• 1987 protocollo di Montreal: coinvolge i paesi per diminuire lo sfruttamento dell’ozono stratosferico.

• 1989: Convenzione di Basilea sottoscritta per eliminare rifiuti dannosi.

• 1992 Rio de Janeiro: conferenza mondiale sull’ ambiente e lo sviluppo --> approvazione della dichiarazione di

Rio sull’ ambiente e lo sviluppo.

• Proprio nel XXl sec. Si e ritenuto opportuno creare un documento inerente le proposte e gli obbiettivi da

raggiungere per l’ambiente: L’agenda 21 delle nazioni unite è stata costituita da 170 Paesi di tutto il mondo e

provvede a stabilire i programmi e le attività per lo sviluppo sostenibile.

In Italia si è concretizzata nel 1994, in seguito alla conferenza di Aaalborg in Danimarca. Da qui nasce inoltre

la “CAMPAGNA EUROPEA: CITTA’ SOSTENIBILE”; le diverse città che hanno aderito a questa campagna ne

stanno promuovendo altre per attuare diverse strategie ecologiche nel proprio territorio.

• 1993: Convenzione sulla diversità biologica --> protezione di animali e vegetali.

• 1997: Conferenza di Kyoto.

• 2001: Convenzione di Stoccolma --> eliminazione di inquinanti organici non degradabili.

• 2002: Johannesburg --> Summit mondiale sullo sviluppo sostenibile: vengono messi a fuoco problemi sociali

ed economici.

• 2006: Entra in vigore il protocollo di Kyoto che diviene legge per i paesi aderenti

Lo sviluppo sostenibile si realizza con comportamenti responsabili e

con la ricerca e l'applicazione di TECNOLOGIE per L'AMBIENTE:

• la difesa delle risorse naturali;

• le fonti di energia rinnovabile;

• la riduzione dell’ inquinamento;

• il riciclaggio dei rifiuti.

Argomento di discussione delle ultime conferenze sull’ambiente ha riguardato anche l’introduzione della

politica sul risparmio energetico dove per risparmio energetico non si intende esclusivamente la riduzione

degli sprechi energetici ma si intende in maniera più accentuata la ricerca di tecnologie e sistemi in grado

di ridurre il consumo di energia a parità di produzione.

Questo implica la ricerca di tecnologie che permettano la produzione di energia in modo più efficiente ed

evoluto. In altre parole si vuole ottenere gli stessi risultati a parità di una produzione minore di energia.

Emblema di tale politica è l’esempio delle lampadine fluorescenti moderne che consentono un

illuminazione maggiore rispetto alle vecchie lampadine consumando inoltre meno energia. La seconda

soluzione è la ricerca di fonti rinnovabili in grado di sostituire quelle inquinanti e limitate per ottenere

energia in modo pulito e senza limiti nel tempo.

Tra i dispositivi in grado di fornire energia elettrica ottenuta da fonti rinnovabili vi sono:

• Impianti fotovoltaici • Impianti eolici • Impianti solari • Centrali a biomassa per produzione energia elettrica e/o termica • Centrali idroelettriche • Centrali di combustione biogas

Tra quelli citati i sistemi su cui si basa tuttora l’attenzione dei maggiori produttori di energia, sono i sistemi

fotovoltaici. Questi sistemi sono valorizzati in quanto sfruttano una energia naturale di tipo illimitato e

soprattutto maggiormente costante e subito disponibile rispetto alle altre.

CLASSE : VA E.T.A.

ALUNNO: Bovino Silvano

Progetto personale

• Definizione

• Funzionamento

• Caratteristiche I-V del generatore fotovoltaico

• Efficienza dei fotovoltaici e parametri:

1. Radiazione solare

2. Temperatura

3. Inclinazione

4. Orientamento

5. Fattore di albero

6. Ombreggiamento

7. Tipologia dei moduli fotovoltaici

8. Tipologia dell’installazione

• Costo di un impianto

Definizione:

Si definisce impianto fotovoltaico un sistema in grado di convertire l’energia solare in energia elettrica.

I vantaggi di tale impianto sono:

• Non inquinano

• minimo rapporto massa/energia

• Contributo in conto energia per 20 anni;

• Costi di esercizio e manutenzione dell’impianto molto contenuti;

• Alta affidabilità dell’impianto in quanto non esistono parti in movimento;

• Possibilità di accesso a strumenti di finanziamento;

• Possibilità di aumentare successivamente il numero dei moduli (modularità del sistema);

• Utilizzo di superfici marginali o altrimenti inutilizzabili;

Gli Svantaggi invece sono:

• Investimento iniziale molto elevato;

• Necessità di avere a disposizione un’elevata superficie rispetto alla potenza installata ( circa 10 m2

per ogni kWp installato);

• Variabilità ed aleatorietà della fonte energetica (irraggiamento solare).

Una persona che decide di investire nel fotovoltaico deve considerare tali elementi. Per prima cosa è

necessario considerare che tipo di applicazione progettare e verificare teoricamente la produttività

energetica dell’impianto. In base a quest’ultimo dato si può di conseguenza valutare il periodo di

ammortamento dell’investimento iniziale.

Sulla base di quanto detto è fondamentale quindi valutare la produttività di un impianto fotovoltaico e

considerare quelle che sono le sue applicazioni ideali. Prima di fare questo è necessario conoscere il

principio di funzionamento di un modulo fotovoltaico e comprendere quali elementi influiscono sulla sua

efficienza.

Come funziona il fotovoltaico?

Un impianto fotovoltaico è costituito essenzialmente da silicio. La produzione di energia deriva dal

fenomeno secondo il quale se una giunzione fra una piastrina di silicio drogato di tipo p e una drogata di

tipo n, viene esposta al sole e quindi alla radiazione solare, si crea una differenza di potenziale di tipo

continuo tra i 2 strati.

In particolare si viene a creare una differenza di potenziale di circa 0.5V che non dipende dalla superficie

delle celle del modulo fotovoltaico, mentre la corrente di corto circuito dipenderà principalmente dalla

quantità di radiazione solare che investe la cella e quindi dalla sua superficie. Tale fenomeno denominato

appunto “effetto fotovoltaico” deriva dal fatto che le onde elettromagnetiche della radiazione solare

conferiscono sufficiente energia alla cella composta dalla giunzione di silicio PN tale che gli elettroni situati

più esternamente siano eccitati abbastanza da abbandonare l’atomo, passando ad una banda di valenza

più esterna. Se l’energia della radiazione solare è abbastanza elevata da superare la barriera di potenziale

della giunzione si crea così un flusso continuo di fotoni. La maggioranza di

questi fotoni contribuirà alla produzione di corrente elettrica mentre una

parte di essi si ricombinerà lungo il suo cammino con altre lacune.

Gli impianti fotovoltaici moderni utilizzano come materiale principale il

Silicio poiché questi è largamente disponibile sulla terra ed inoltre è

facilmente reperibile come scarto dell’industria elettronica. I materiali più

utilizzati attualmente risultano:

• Silicio mono, policristallino e amorfo

• Arseniuro di Gallio(Ga-As),(utlizzato per le applicazioni spaziali)

• Seleniuro di Indio e rame(Cu-In-Se2), il solfuro di Cadmio e rame, etc…

Il flusso luminoso che investe la cella è costituito da

fotoni di diversa lunghezza d’onda. A seconda della

loro energia essi provocano la liberazione delle coppie

elettrone-lacuna. Da notare che tale effetto si verifica

sia in presenza di raggi diretti che diffusi e riflessi.

Questo è il motivo per cui i sistemi fotovoltaici sono in

grado di funzionare anche nei giorni di meteo

nuvoloso.

Caratteristiche I-V del generatore fotovoltaico

Nel momento in cui la cella fotovoltaica elementare è sottoposta all’irraggiamento solare, se si immagina

di collegare ai suoi morsetti di uscita un resistore di resistenza variabile da zero (corto circuito) fino a

infinito (corto aperto), si potranno misurare per ogni condizione di resistenza un valore di tensione e uno di

corrente.

Se si riportano tali valori in un piano cartesiano I-V si ottiene la “caratteristica I-V del generatore

fotovoltaico”

Caratteristica I-V del generatore fotovoltaico

Dall’esame di questa caratteristica si può notare che il generatore non può essere schematizzato né come

un generatore di tensione né di tensione né di corrente, né come un generatore di tensione con in serie

una resistenza interna ,poiché la caratteristica non è una retta.

La caratteristica può essere però suddivisa in tre parti:

• nella zona “vicina” alla condizione di corto circuito (Tratto AB) la corrente è quasi costante, ovvero si

comporta da generatore di corrente;

• nella zona “vicina” alla condizione di circuito aperto (Tratto CD) la tensione è quasi costante e in

questo tratto il comportamento è simile a quello del generatore di tensione;

• nella zona rimanente BC, chiamata anche “ginocchio” per la pronunciata curvatura, il generatore non è

schematizzabile in alcuno dei modi visti e per lo studio delle prestazioni farà uso dei metodi grafici.

Per quello che si è già visto, la potenza erogata in un punto della caratteristica è rappresentabile dall’area

che l’ascissa e l’ordinata del punto formano con gli assi cartesiani.

Si nota che il punto di massima potenza si trova nel ginocchio della caratteristica.

Le prestazioni di una cella fotovoltaica sono influenzate prevalentemente dalla temperatura e dalla

“quantità di luce” o “irraggiamento” che investe la cella.

Nella successiva Figura si evidenzia il comportamento di un generatore fotovoltaico alla temperatura

costante di 25° C e con irraggiamento variabile da 100 a 1000W/m2.

Caratteristiche I-V con temperatura di 25° e irraggiamento variabile

Si può notare come la corrente di corto circuito risulti proporzionale all’irraggiamento mentre la tensione a

vuoto varia di molto poco (da 0.5 a 0.6V quando l’irraggiamento aumenta di dieci volte, da 100 a

1000W/m2).

Da ciò consegue che risulta fattibile la misura dell’irraggiamento dalla misura della corrente di corto

circuito di una cella campione (per la quale sia nota cioè con molta precisione la corrente Icc0 relativa ad

una condizione di irraggiamento nota Irrag0); si avrà infatti:

Irragmis = Irrag0 •••• Iccmis/Icc0 (12)

Per esempio una cella al silicio monocristallino con area pari a 100 cm2 eroga all’irraggiamento di 1000

W/m2 una corrente di corto circuito di circa 3 A; pertanto se viene misurata una corrente Iccmis = 2.4 A la

condizione di irraggiamento sarà di 800 W/m2.

Di tutta l’energia che giunge su di un impianto fotovoltaico, le tecnologie odierne permettono di

convertirne il 44%. Questo perché l’efficienza di conversione di una cella è limitata da:

• non tutti i fotoni incidenti sulla cella penetrano al suo interno(alcuni sono riflessi dalla superficie

della cella, altri incidono sulla

griglia metallica dei contatti);

• fotoni che non hanno energia sufficiente per liberare una coppia

elettrone/lacuna;

• una parte degli elettroni “liberati” dai fotoni non arrivano al carico

esterno in quanto trovano lungo il percorso delle cariche di segno

opposto con cui ricombinarsi (effetto di “ricombinazione”);

• esistono le cosiddette “resistenze parassite”: i contatti metallici

posti sul fronte e sul retro della cella presentano una resistenza

che provoca dissipazioni di potenza.

Efficienza degli impianti fotovoltaici

L’efficienza del fotovoltaico è legata quindi a:

• Radiazione solare

• Temperatura dei moduli

• Orientamento dei moduli

• Inclinazione dei moduli

• Fattore di albero

• Ombreggiamento

• Tipologia dei moduli fotovoltaici

• Tipologia dell’installazione

Radiazione solare:

Per radiazione solare intendiamo l’energia elettromagnetica emessa dal sole a seguito dei processi di

fusione dell’idrogeno in esso contenuto, e si propaga con simmetria sferica nello spazio. L’unità di misura

della radiazione solare è dunque il Wh/m2.

Per irraggiamento solare invece intendiamo la potenza del campo elettromagnetico incidente sull’unità di

superficie.(W/m2).

Si consideri che un irraggiamento di 1000 W/m2 corrisponde a quello di mezzogiorno in una giornata

serena estiva, mentre quello di 100 W/m2

corrisponde a quello di mezzogiorno in una giornata con cielo

completamente coperto da nuvole bianche.

All’esterno dell’atmosfera tale irraggiamento ha un valore di 1.367 W/m2±3.3%(variazione della distanza

Terra-Sole). Tale valore rappresenta la COSTANTE SOLARE.

A livello internazionale sono stati definiti alcuni indici matematici che definiscono l’irraggiamento solare

terrestre ed extraterrestre:

Indice AM(air mass):funzione dell’angolo di elevazione del sole sull’orizzonte nell’istante considerato.

• AM0: Indice AM valido fuori dall’atmosfera

• AM1: Spessore di atmosfera standard attraversato dai raggi solari in direzione perpendicolare alla

superficie terrestre e misurato al livello del mare (1.000 W/m2)

• AM1,5:Standard di riferimento sulla superficie terrestre

Nella zona in cui è valido l’indice AM1,5 si notano attenuazioni e perdite della radiazione solare. Influiscono

su tale fenomeno diversi fattori:

• Assorbimento delle molecole aria, acqua e pulviscolo atmosferico

• Riflessione

Nell’immagine che segue si nota come l’irraggiamento sia influenzato da questo indice e che all’interno

dell’atmosfera questi risulta attenuato(area della zona m=1)

Al contrario di quanto avviene nello spazio quindi, i raggi

solari incontrano, una volta entrati nell’atmosfera terrestre,

diversi ostacoli. Alcuni di questi sono le particelle molecolari

di acqua e i diversi elementi che costituiscono l’atmosfera. Si

deduce quindi che dell’irraggiamento solare complessivo che

raggiunge la terra, solo una parte viene effettivamente a

contatto con la superficie terrestre.

Come si nota nella figura di fianco, l’irraggiamento solare

che raggiunge la superficie terrestre dipende

dall’irraggiamento DIRETTO e DIFFUSO:

Irraggiamento solare globale=Diretto+Diffuso

Il resto dei raggi solari subiscono riflessione e rifrazione atmosferica e in parte vengono assorbiti dalla

terra.

Gli strumenti a disposizione dei tecnici per effettuare misura

precise dell’energia della radiazione solare incidente nell’unità

di tempo(W/m2), sono il Piranometro e il Solarimetro. Tali

strumenti considerano misurazioni istantanee o sulla base di

medie giornaliere.

Dei 2 strumenti è preferito il Solarimetro, che offre un costo

contenuto, una buona precisione nelle misurazioni con un

errore massimo del 5% e una ridotta necessità di calibrazioni.

Nella foto, un esempio di solarimetro:

Temperatura dei moduli:

La temperatura è un parametro estremamente importante in quanto da esso dipende l’efficienza dei

singoli moduli e quindi dell’impianto fotovoltaico.

Se si considera il grafico I-V generato dalla cella fotovoltaica si nota come al variare della temperatura la

corrente I si mantiene quasi costante mentre la tensione V è fortemente influenzata da tale temperatura.

Come si può notare l’aumento di temperatura costituisce una diminuzione della tensione del modulo e di

conseguenza provoca una riduzione della potenza fornita dall’impianto. Per questo motivo in fase di

progettazione è necessario considerare quali saranno le temperature alle quali sarà sottoposto l’impianto.

Si deduce inoltre che a parità di irraggiamento solare, l’efficienza dei moduli subirà delle variazioni nel

corso dell’anno. La stagione in cui il fotovoltaico ha un rendimento più elevato è la primavera in quanto

durante tale periodo le giornate di sole sono caratterizzate da una temperatura ottimale. La giornata ideale

per un impianto, è invece quella del “sole d’inverno” ma come si può immaginare nella stagione invernale

la probabilità di giornate piovose o nuvolose è molto elevata e il rendimento dell’impianto risulta ridotto.

Per il silicio cristallino la tensione si riduce del 4 % per 10 °C di aumento della temperatura.

In definitiva la temperatura influenza la tensione mentre l’irraggiamento determina la corrente del

dispositivo fotovoltaico.

Per questo motivo, un altro aspetto da tener conto in fase di progettazione è la temperatura che caratterizzerebbe la

zona di montaggio dei moduli.

ORIENTAMENTO E INCLINAZIONE DEI MODULI:

Ai fini di una maggiore efficienza degli impianti risulta fondamentale scegliere un adatta inclinazione e

orientamento del modulo. Tali fattori sono dipendenti dal luogo di ubicazione cioè di installazione dei

moduli.

Per Angolo di inclinazione di tilt β intendiamo l’angolo di inclinazione del modulo rispetto al piano

orizzontale:

Rispettando le tabelle di inclinazione ottimale dei moduli si è in grado di massimizzare l’irraggiamento

solare diretto. L’angolo di inclinazione dipende anche dalla posizione del sole nel corso delle varie stagioni.

Nel caso di installazioni fisse però è necessario trovare un compromesso e scegliere un anglo di

inclinazione ottimale.

Per anglo di orientamento o di azimut α si intende l’angolo di orientazione del piano dei moduli rispetto al

meridiano 0o . Si misura quindi lo scostamento del piano rispetto all’orientazione verso sud(per i siti

nell’’emisfero settentrionale) e verso nord (per i siti nell’emisfero meridionale).

La seguente immagine ci chiarisce quindi quali sono i fattori che individuano il posizionamento del modulo:

A livello internazionale sono stati fissati i valori ottimali di inclinazione(angolo di tilt) e orientamento

(angolo di azimut). Nella tabella seguente si mostrano i valori ottimali di orientamento a seconda

dell’angolo di inclinazione e le conseguenti perdite di efficienza in caso di errata ottimizzazione:

Fattore di albero

Un terzo fattore importante nelle valutazioni pre -installazione è il fattore di ALBERO. Tale fattore fa

riferimento alla quantità di radiazioni riflesse che colpiscono il modulo aumentando di conseguenza la

produzione di energia. Tale fattore dipende moltissimo dal tipo di superficie che circonda il sito di

installazione. La tabella seguente mostra alcuni esempi di superfici e il relativo fattore di ALBERO:

La scelta di superfici circostanti dal colore prevalente vicino al bianco è ottimale per ottenere un buon

indice di albero.

Ombreggiamento:

Un ultimo fattore che influenza l’efficienza degli impianti fotovoltaici è l’ombreggiamento prodotto dalle

costruzioni che circondano l’impianto o dalle file di moduli vicine.

Per individuare gli ombreggiamenti si ricorre a:

• bussola,con la quale si individua l’angolo tra la direzione del sud e

l’ostacolo α;

• con il clinometro si determina l’angolo rispetto all’orizzontale con

cui l’osservatore vede l’ostacolo β.

Gli ombreggiamenti possono essere locali e non locali.

Si definiscono non locali, gli ombreggiamenti prodotti dalle costruzioni circostanti:

A questo proposito è necessario verificare, a seconda del percorso solare e dell’altezza dell’ostacolo, se nel

corso dell’anno questi produce ombra sull’impianto.

Nell’esempio è illustrato il percorso solare inerente alla città di Bari. Per calcolare se gli ostacoli che

circondano il nostro impianto producono ombreggiamento si disegna il seguente grafico:

Come si osserva, nel caso dell’ostacolo rosso, l’impianto non risente nel corso dell’anno di

ombreggiamenti. Nel caso dell’ostacolo blu invece, vi sono alcuni mesi dell’anno durante i quali l’impianto

subisce l’effetto delle ombre. Di conseguenza sarà necessario adattare l’impianto per una produzione

elettrica compatibile con questo inconveniente.

Si definiscono locali, gli ombreggiamenti provocato da moduli vicini.

Nell’immagine si può notare come, nel momento in cui viene superato l’angolo limite β, i moduli

fotovoltaici delle file vicine subiscono ombreggiamento locale. Per poter ovviare al problema degli

ombreggiamenti locali è necessario stabilire una distanza minima tra le file dei moduli. Questa distanza nel

sud Italia è pari a:

= 2 ∙

Tipologia dei moduli:

Per quanto riguarda i moduli, a seconda della natura dei materiali che li compongono, si ottengono diversi

valori di efficienza. Nel caso del Silicio, questo elemento può essere lavorato con tecniche diverse che

consentono di ottenere i seguenti tipi di Silicio:

Le tipologie di moduli maggiormente utilizzate, a seconda del tipo di Silicio utilizzato sono:

• Moduli monocristallini

• Moduli policristallini

• Moduli amorfi

I monocristallini, sono moduli realizzati con Silicio monocristallino, i cui cristalli sono orientati nella stessa

direzione. Questa tipologia di moduli vanta una efficienza maggiore a fronte di un costo più elevato

derivata dai complessi processi di lavorazione.

I policristallini, sono moduli che utilizzano il Silicio policristallino. Hanno rendimento leggermente inferiore

ai monocristallini ed un costo relativamente inferiore.

I moduli fotovoltaici realizzati con Silicio amorfo hanno un rendimento molto più basso ma sono ottimi nel

caso di installazioni in luoghi ombreggiati dove è presente in prevalenza un tipo di irraggiamento diffuso.

Le caratteristiche che distinguono le diverse tipologie di moduli sono riassunte nella seguente tabella:

Tipologie di installazione per gli impianti fotovoltaici:

• Integrato

• Parzialmente integrato

• Non integrato

Gli Impianti fotovoltaici integrati costituiscono una delle più promettenti applicazioni del fotovoltaico. Si tratta di sistemi che vengono installati su costruzioni civili o industriali per essere collegati alla rete elettrica di distribuzione in bassa tensione. I moduli fotovoltaici in questo tipo di installazione possono essere utilizzati come elementi di rivestimento degli edifici anche in sostituzione di componenti tradizionali come tettoie. L’impiego di tali moduli fotovoltaici può essere di grande utilità come schermi frangisole o per ombreggiare ampie zone nel caso delle coperture.

Gli impianti fotovoltaici sono completamente integrati quando:

• i moduli sostituiscono i materiali di rivestimento di tetti, coperture, facciate di edifici e fabbricati, avendo quindi la stessa inclinazione e funzionalità architettonica

• i moduli e i relativi sistemi di supporto costituiscono la struttura di copertura di pensiline, pergole e tettoie

• i moduli sostituiscono la parte trasparente o semi trasparente di facciate o lucernari, garantendo l’illuminazione naturale degli ambienti interni all’edificio

• i moduli sostituiscono parte dei pannelli fonoassorbenti delle barriere acustiche • i moduli e i relativi sistemi di supporto costituiscono dei frangi sole • i moduli sostituiscono o integrano i vetri di finestre • i moduli costituiscono gli elementi strutturali di persiane

Gli impianti fotovoltaici parzialmente integrati si hanno quando i

moduli fotovoltaici non sostituiscono i materiali che costituiscono la

superficie d'appoggio e vengono installati su tetti piani e terrazze, in

modo complanare ad esempio sul manto di copertura.

Possono essere considerati parzialmente integrati anche quei pannelli

installati ad esempio su terrazza la quale sia circondata da balaustra la

quale nasconda parzialmente i pannelli fotovoltaici. Generalmente gli

impianti fotovoltaici parzialmente integrati vengono utilizzati su

fabbricati o parti di questi che risultano già esistenti.

Gli impianti fotovoltaici non integrati sono cosiddetti perché

appunto non si integrano armoniosamente con le strutture o

superfici che li ospitano. Trattasi di impianti generalmente

realizzati a terra o anche su parti strutturali di edifici quali

terrazzi, falde, pensiline e/o elementi di arredo urbano e viario

(*).

I pannelli fotovoltaici sono installati in maniera non complanare

alle superfici su cui sono fissati. Generalmente hanno un impatto

maggiore dal punto di vista estetico e quindi non sono gradevoli

alla vista. Per questo genere di impianti le tariffe incentivanti

sono inferiori rispetto alle tipologie integrati e parzialmente

integrati.

Le differenze nell’utilizzo delle varie tipologie di impianti sta sia nel diverso impatto visivo che esse hanno,

sia nella diversità degli incentivi previsti. Infatti nella seguente tabella si nota come gli incentivi sono

maggiori se l’impianto è integrato con la struttura dove vengono installati:

Anche se in alcuni casi, preferire l’integrazione significa rinunciare ai livelli ottimali di inclinazione e

orientamento, spesso gli incentivi garantiscono un risparmio di lunga superiore alle perdite derivate da tali

fattori.

Tipologie di impianti:

Vi sono 2 importanti tipologie di impianti:

Grid connected

Gli impianti grid connected o connessi alla rete, lavoro in un regime di interscambio con la rete elettrica.

Quest’ultima svolge il ruolo di un immensa batteria inesauribile e affidabile nel tempo.

Di giorno, cioè nelle ore di luce in cui l’impianto produce energia il carico assorbe l’energia prodotta dai

moduli. Di notte invece, l’utenza preleva l’energia dalla rete.

Se nelle ore di produzione, l’impianto produce più di quanto l’utenza consuma, l’energia viene immessa

nella rete e il GSE paga le unità di energia immesse nella rete all’utente, convertendole in sconti sulle

future bollette. Negli impianti che prevedono la sola vendita dell’energia, cioè gli impianti di produzione, il

GSE, calcolata la quantità mensile di energia immessa nella rete, recapita il corrispettivo in denaro al

proprietario dell’impianto. Le tariffe nei 2 casi sono diverse e sono più remunerative per gli impianti di

vendita. Di conseguenza è consigliato il dimensionamento corretto dell’impianto, in quanto il guadagno nel

caso di impianti grid connected consiste nel prelevare meno possibile dalla rete più che vendere l’energia

in eccesso.

Stand alone

Prevedono l’alimentazione di utenze isolate dalla rete (Stand alone)come ad esempio stazioni di

pompaggio, Illuminazione pubblica, elettrificazione di villaggi o utenze isolate.

L’energia prodotto dai moduli viene accumulata attraverso la batteria, che rappresenta l’elemento critico

di tale applicazione in quanto richiede una costante manutenzione. Il più famoso esempio di applicazione

stand alone sono i satelliti per telecomunicazioni.

Costo degli impianti:

I fattori che influenzano il costo finale dell’impianto sono numerosi. Difatti bisogna tener

conto del costo dei moduli, dei supporti dei moduli, dei cavi, dell’inverter, del contatore, del

collegamento alla rete, della manodopera, del costo di permessi e degli atti amministrativi

ecc. A livello generale però è possibile effettuare una stima approssimativa del costo

dell’impianto a seconda del wattaggio che si desidera ottenere. Si tiene conto dunque dei

seguenti parametri:

• Generatore fotovoltaico: 5.9€/W

• Inverter: 0.8€/W

• Struttura di sostegno: 0.3€/W

• Quadro elettrico: 0.5€/W

• Cablaggio e installazione: 0.3€/W

• Totale: 7.8€/W

A questi costi si aggiunge una spesa fissa che tiene conto del costo del contatore di energia e di tutte quelle

spese indipendenti dalla potenza dell’impianto. Questo ammontare fisso equivale a 260€.

Esempio:

Progettazione di un impianto di potenza pari a 3000W, collegato alla rete pubblica di

distribuzione:

Calcolo dei costi:

= 7.8 ∙ 3000 + 260 ∙ 1.1 ∙ 1.15 ≈ 30000€

= ! + " #" + " "$

A questo totale parziale si aggiungono i costi per oneri professionali e amministrativi. Questi costi sono

variabili e vengono calcolati di volta in volta a seconda dei casi.

Esempio di modulo fotovoltaico al silicio policristallino

Nella scheda che segue, un esempio di modulo fotovoltaico policristallino, realizzato da

SHARP. Si riportano caratteristiche e parametri definiti dal costruttore:

CLASSE : VA E.T.A.

ALUNNO: Bovino Silvano

Indice:

• Introduzione

1. Sistemi satellitari in orbita

2. Progetti Italiani nel campo satellitare

3. Bande di frequenza dei sistemi satellitari

• Satelliti geostazionari

• Strumenti di bordo dei satelliti:

1. Pannelli fotovoltaici

2. Sistema di alimentazione

3. Trasponder

• Tecniche di multiplazione dei canali satellitari

• Applicazioni dei satelliti:

1. Sistema GPS

2. Satelliti Meteorologici

Introduzione:

Una delle prime fondamentali applicazioni del fotovoltaico si è avuta negli anni ’60, con la costruzione dei primi

satelliti. I satelliti sono stati creati inizialmente per gestire tramite ponte radio, le comunicazioni per scopi militari o

per la raccolta di dati meteorologici e scientifici. I primi satelliti lanciati nello spazio furono costruiti attraverso un

progetto che vedeva riuniti 11 paesi (tra cui anche l’Italia). Questo consorzio venne denominato International

Telecommunications consorsum INTELSAT. Il primo satellite lanciato in orbita attraverso tale progetto, venne

denominati Intelsat 101. Col passare del tempo gli scienziati si resero conto dell’enorme potenziale e contributo che i

satelliti avevano da offrire sia in merito alla raccolta dati ma anche per quanto riguarda la gestione delle

telecomunicazioni del pianeta. Per questo motivo furono finanziati diversi progetti che miravano a migliorare le

potenzialità dei satelliti cercando di aumentare la loro vita media, le loro prestazioni e i loro consumi.

La serie più recente di satelliti lanciati in orbita tramite il consorzio INTELSAT sono della serie VIII e sono stati per

questo denominati INTELSAT 801 , 802 e 803, lanciati rispettivamente nel Marzo, Giugno e Settembre del 1997.

Successivamente nuove organizzazioni e consorzi locali e mondiali progettarono la messa in orbita di altri satelliti

deputati allo svolgimento di nuovi obbiettivi. Alcuni di questi sono:

• Sistema satellitare INMARSAT (International Maritime Satellite Organizzation): avvalendosi di 4 satelliti

geostazionari, questo sistema consente le comunicazioni telefoniche e dati tra stazioni marittime o

aeronautiche con la terra ferma. Su questo sistema si basano anche le comunicazioni di emergenza per i

servizi di soccorso e salvataggio.

• Sistema GPS: Tale sistema è costituito da una ventina di satelliti(attualmente ne sono operativi 13) situati in

orbita bassa con distanza di 20000Km dalla terra. Questo sistema consente agli apparecchi portatili di

conoscere in maniera sempre più precisa la propria posizione, con un margine di errore di pochi metri. In

particolare si tratta di sistemi di posizionamento in grado di fornire all’utente longitudine, latitudine e

quota in base alla propria posizione e in alcuni casi anche la velocità dell’utente o del mezzo mobile.

Questo è possibile poiché il satellite invia un segnale da cui è possibile ricavare la propria esatta posizione e

le relative coordinate attraverso un dispositivo capace di decodificare il segnale satellitare.

• Sistema satellitare EUTELSAT: Tale sistema è costituito da una decina di satelliti lanciati a partire dal 1983

capaci di gestire il traffico telefonico e radiotelevisivo dei paesi EUROPEI.

Il miglioramento delle potenzialità dei satelliti, verificatosi negli ultimi anni, ha accresciuto l’attenzione dei maggiori

gestori delle telecomunicazioni (telefoniche, radiotelevisive, dati etc…) e ha fatto si che il numero di satelliti e di

progetti per il loro lancio in orbita stia crescendo in maniera esponenziale.

I progetti Italiani:

Per quanto riguarda il programma satellitare Italiano, la nostra nazione oltre ad essere coinvolta nel progetto

INTELSAT, è riuscita a lanciare in orbita 2 satelliti attraverso il progetto nazionale ITALSAT. I 2 satelliti denominati

ITALSAT F1 e ITALSAT F2 operano per la gestione delle comunicazioni telefoniche. Difatti ITALSAT F2 è dotato di un

sistema di bordo paragonabile ad una vera e propria centrale telefonica in grado di multiplare 12000 comunicazioni,

lavorando nella banda compresa tra 20GHz e 30GHz. Tale satellite collega tra loro le centrali di Bari, Torino, Milano,

Roma, Palermo, Milano, Verona e Fucino.

Oltre a gestire le comunicazioni telefoniche per la società italiana TELECOM, tale satellite è in grado di fornire servizi

aggiuntivi in merito alla videotelefonia, videoconferenze e trasmissione di dati.

BANDE DI FREQUENZA DEI SISTEMI SATELLITARI:

Le bande utilizzate dai satelliti per gli scopi commerciali, quindi per la gestione delle normali comunicazioni sono

distribuite in questo modo:

• banda L compresa tra 1GHz – 2 GHz

• banda C compresa tra 4GHz – 8 GHz

• banda Ku compresa tra 12GHz – 18GHz

• banda Ka compresa tra 27GHz – 40GHz

Per le comunicazioni di tipo militare invece si utilizzano apparecchiature più sofisticati in modo tale che queste

ultime non siano facilmente intercettabili. Per questo motivo si lavora con le seguenti bande di frequenza:

• UHF compresa tra 225 MHz – 400 MHz

• SHF compresa tra 5 GHz – 8 GHz

• EHF compresa tra 20 GHz – 40 GHz

Le bande di frequenza attualmente più utilizzate sono la C e la Ku che difatti è la usata anche dai satelliti INTELSAT,

ARABAT, PANAMSAT, ASIASAT, ecc…

Satelliti Geostazionari:

Come abbiamo visto, la maggior parte dei satelliti svolge operazioni deputate alla gestione di servizi di

telecomunicazioni per aree geografiche più o meno estese. Affinché questo sia possibile, è necessario che durante la

rotazione della terra , il satellite rimanga 24 ore su 24 nello stesso punto rispetto all’area geografica coperta.

I satelliti che soddisfano questo requisito sono detti geostazionari. Questi si trovano su orbite equatoriali a distanze

opportunamente calcolate, in modo tale che il periodo di rivoluzione del satellite che percorre tale orbita, coincida

con il periodo di rivoluzione della terra. Tale orbita viene definita geostazionaria in quanto per un osservatore a

terra, il satellite appare fermo in cielo, sospeso sempre al di sopra del medesimo punto dell'equatore.

Nel caso della terra la velocità di rotazione è tale da permettere orbite situate a distanze ideali dal centro terrestre in

modo tale da coprire e gestire vaste aree.

Affinché, il satellite conservi la sua orbita è necessario che la forza centrifuga a cui è sottoposto sia uguale alla forza

di attrazione che la terra esercita su di esso. Se non venisse verificata tale condizione, nell’arco di un certo periodo di

tempo, il satellite devierebbe dall’orbita prestabilita disperdendosi nello spazio o, avvicinandosi troppo alla terra,

verrebbe attratto in maniera sempre più violenta verso l’atmosfera terrestre.

Per questo motivo definendo M la massa della terra e m la massa del satellite deve valere la seguente relazione:

% ∙ ∙ &

' = ∙ ('

Da cui:

∙ (' = % ∙ &

In questo formula G è la costante di Gravitazione Universale ed è costante in natura a prescindere dalle proprietà dei

corpi che interagiscono(in questo caso la terra ed il satellite).

Il valore di tale costante è:

% = 6.67 ∙ 10)** + ∙ '

,-'

La massa della terra invece è:

& = 5.98 ∙ 10'/,-

Il fattore “r” invece definisce la distanza tra il centro della terra e il satellite ed è calcolato sommando la distanza

della terra dal suo centro(RT) e la distanza tra la terra ed il satellite(h). Di conseguenza si ottiene:

= 01 + ℎ

Per far si che il satellite percorra la sua orbita in un tempo T pari al periodo di rotazione terrestre deve verificarsi che:

3 = 24 ∙ 3600 = 86.4 ∙ 105!"

Il satellite deve essere in grado di percorrere l’orbita intorno alla terra in un tempo di 86400 secondi. Di conseguenza

la velocità di rotazione vale:

( =26 ∙

3

Da questa formula siamo in grado di determinare che la velocità di rotazione è pari a 3070m/sec. Infatti dalle

relazioni precedenti si ottiene che:

≅ 422008

Questa è la distanza complessiva tra il satellite ed il centro della terra. Se vogliamo conoscere la distanza tra la terra

ed il satellite basta eseguire il seguente calcolo tenendo conto che il raggio della terra è di 6370km:

ℎ = − 01 = 42200 − 6.37 ∙ 105 ≅ 358308

Da tale distanza, il satellite è in grado di

ricoprire teoricamente un angolo di 17030’

che definisce l’IMPRONTA (FOOTPRINT)

che copre un area di circa 17000km2 cioè il

40% della superficie del globo. In questo

caso sarebbe possibile attraverso 3 soli

satelliti disposti in maniera equidistante, la

copertura di un area equivalente all’intera

superficie terrestre.

Fig.1 Orbita Geostazionaria

Attualmente vi sono numerosi satelliti geostazionari operativi. Tra i più famosi citiamo l’INTELSAT701, Superbird B2,

i satelliti Hotbird della EUTELSAT e tanti altri, dei quali alcuni risultano non più operativi per via di malfunzionamenti

o addirittura a causa di presunte collisioni con detriti spaziali.

In casi diversi da quello dell’orbita circolare geostazionaria, i satelliti possono ruotare intorno a orbite di tipo ellittico

dove la terra rappresenta uno dei 2 fuochi. Il punto più distante del satellite dalla terra viene denominato apogeo

mentre quello più distante è detto perigeo. Queste orbite sono ottenute modificando la velocità di rotazione del

satellite.

Affinché il satellite conservi l’orbita devono essere rispettate le leggi delle gravitazione a cui abbiamo accennato. Di

conseguenza la velocità di rotazione del satellite sarà compresa tra 2 valori Vmin e Vmax tali che entro tale intervallo

sia garantito l’equilibrio tra la forza centrifuga e la forza di attrazione gravitazionale che la terra esercita sul satellite.

Orbite diverse da quelle geostazionarie sono utilizzate per le rilevazione di dati meteorologici e scientifici o in ambito

militare.

Quanto appena detto è valido se la terra fosse caratterizzata da una superficie regolare intorno a tutto il globo.

L’esistenza delle catene montuose e di perturbazioni che interessano i criteri della gravitazione del satellite quali

l’attrazione della luna, la diversa distribuzione delle acque del nostro pianeta fanno si che il satellite sia sottoposto a

forze inattese che se non bilanciate potrebbero modificare l’orbita del satellite. Inoltre, tenendo conto che da tali

fattori è influenzata anche la velocità di rotazione del satellite, ne consegue che è necessario equipaggiare ogni

sistema satellitare di una opportuna strumentazione di bordo affinché sia possibile gestirne da terra il corretto

funzionamento e posizionamento.

Per questo motivo consideriamo quali sono le caratteristiche dei tipici strumenti di bordo di un comune satellite.

STRUMENTAZIONE DI BORDO:

I satelliti utilizzati per le telecomunicazioni sono a tutti gli effetti dei ponti radio, in quanto il loro ruolo è quello di

una stazione ripetitrice che consente il collegamento tra una stazione terrestre, marittima o aerea con una seconda

o più stazioni situate nelle diverse aree del globo sotto la copertura del satellite. Il collegamento che si realizza

pertanto si definisce:

• Punto - punto: in questo caso, il satellite collega tra loro una stazione trasmittente ed una ricevente.

Utilizzano questo tipo di collegamento le centrali telefoniche. La figura seguente mostra un esempio di

questo caso:

Fig.2 Esempio di collegamento punto-punto via satellite

• Punto - multipunto: in questo caso una stazione trasmittente viene connessa a più stazioni riceventi, come

nel caso delle trasmissioni radiotelevisive.

• Multipunto - punto: si realizza nel caso dei sistemi di rilevazione dati meteorologici quando più stazioni

trasmittenti(ad esempio i sistemi di acquisizione dati), inviano i loro dati ad una sola stazione ricevente

deputata all’elaborazione simultanea dei dati raccolti.

Per questo motivo, un primo blocco fondamentale di un satellite è il TRASPONDER, cioè l’insieme di tutti i dispositivi

che consentono le operazioni di ricetrasmissione dei segnali, utilizzando le opportune tecniche di modulazione dati

utilizzando 2 diverse frequenze di portante, una per l’up-link e l’altra per il down-link. In questo modo si evitano le

possibili interferenze tra i segnali in ricezione e i segnali in trasmissione.

Fig.3 Schema a blocchi della strumentazione di un satellite

Come si osserva nello schema a blocchi, vi sono diversi strumenti che garantiscono le funzionalità del satellite:

• Pannelli solari: I pannelli solari o meglio fotovoltaici, come sappiamo sono quei dispositivi in grado di

convertire l’energie solare del sole in energia elettrica sfruttando il fenomeno dell’effetto “fotovoltaico”

ottenuto dall’esposizione diretta alla radiazione solare di materiali semiconduttori come il silicio. Sfruttando

tali dispositivi è possibile provvedere al sostentamento energetico del satellite. Questi pannelli infatti

vengono orientati automaticamente verso il sole ed è possibile ricavare una potenza di circa 2 o 3 KW.

Durante la rotazione però il satellite viene spesso a trovarsi in condizioni di ombra. Per questo motivo,

trattandosi di una applicazione stand-alone è necessario implementare un sistema di alimentazione.

• Sistema di alimentazione: Questo sistema svolge la funzione fondamentale di immagazzinare l’energia

prodotta dai fotovoltaici, nel periodo in cui il satellite è esposto alla radiazione solare. Nel momento in cui la

terra si interpone tra il satellite ed il sole, gli accumulatori rendono disponibile l’energia accumulata agli

strumenti di bordo. Per poter garantire il funzionamento duraturo nel tempo gli accumulatori devono

soddisfare alcuni requisiti:

1. Elevata durata di esercizio in modo da garantire una vita minima del satellite di 15 anni.

2. Elevate energie specifiche in modo da ottenere un buon rapporto energia/massa (wh/Kg)

tenendo conto che in genere gli accumulatori costituiscono il 15-20% della massa del

satellite e, come abbiamo visto, il calcolo della massa dell’intero corpo satellitare è

indispensabili per la definizione dei criteri della sua orbita.

3. Nessuna richiesta di manutenzione. A volte però nei casi di satelliti particolarmente costosi

ed indispensabili, vengono disposte missioni spaziali per la loro manutenzione che hanno

proprio l’obbiettivo di eseguire la manutenzione del sistema di alimentazione o addirittura la

sostituzione di alcuni dei suo componenti. In ogni caso è richiesta una tecnologia

particolarmente sofisticata e costosa.

Gli accumulatori maggiormente utilizzati sono quelli al Nichel/Cadmio o quelli al Nichel/Ioduri - metallici. Il

rapporto energia/massa in questi casi è elevato e si attesta rispettivamente per il primo e il secondo tipo

intorno ai 25 e 35 Wh/Kg. Data la natura ferromagnetica del Nichel questi accumulatori devono essere

schermati affinché il satellite non sia soggetto a tali campi. Il problema può essere eliminato utilizzando le

batterie agli ioni di litio di recente scoperta che generano una tensione di 3V per elemento con un ottimo

rapporto energia (50Wh/Kg) e garantendo una quasi totale immunità ai campi magnetici.

• Trasponder: Come abbiamo accennato, il trasponder comprende tutti i dispositivi per la gestione dei canali

di trasmissione. Alcuni satelliti ne montano più di uno in modo tale da aumentare le capacità di

multiplazione dell’intero ponte radio satellitare. Le principali funzioni svolte dai blocchi che compongono il

trasponder riguardano la conversione di frequenza del segnale ricevuto in modo tale che, ricevuto il segnale

di frequenza portante di up-link, il segnale sia poi trasmesso con portante di frequenza di down-link. Le 2

frequenze, di up-link e down-link sono assegnate in modo tale che quella di up-link sia la maggiore delle 2. In

questo modo viene semplificata la tecnologia di bordo. I valori delle frequenze di up e down link sono stati

fissati a livello internazionale dall’ITU-T e sono suddivisi a seconda delle varie aree geografiche:

1. REGIONE 1: Europa, Africa, Medio Oriente, Nord Asia.

2. REGIONE 2: Le Americhe e il Giappone.

3. REGIONE 3: India, Cina, Australia.

Di seguito troviamo elencate le principali frequenze utilizzate dai trasponder dei satelliti Europei:

Bande di frequenza Frequenza f1 di

up-link

Tratta Terra - Spazio

Frequenza f2 di

down-link

tratta Spazio - Terra

Larghezza di banda

(MHz) GHz Banda

2 S 2.665-2.690 2.500-2.535 35

4/6 C 4.4-4.7

5.925-6.425

3.4-3.7

3.7-4.2

500

500

7/8 X 7.9-8.4 7.250-7.750 500

12/14 Ku 14.0-14.5 10.950-11.200

11.450-11.700

11.700-12.200

500

500

500

20/30 Ka 17.700-21.200 27.500-31.000 3500

40/50 Q 42.5-43.5

47.2-50.2

50.4-51.4

37.5-40.5 3000

3000

3000

• Antenne: Per quanto concerne le antenne situate a bordo dei satelliti e che consentono la ricezione e la

trasmissione, queste sono di tipo parabolico e il loro numero è proporzionale al numero dei trasponder che

si trovano a bordo del satellite. E’ proprio dalle antenne, che dipende la copertura radioelettrica, che il

satellite garantisce sull’area terrestre. Si distinguono a questo proposito due tipologie di satelliti:

1. Satelliti a copertura globale: I satelliti a copertura globale coprono l’angolo massimo di 17030’ per cui

consentono di garantire la copertura radioelettrica di un area pari al 40% della superficie terrestre.

2. Satelliti multifascio: Questo tipo di satelliti monta delle antenne realizzate in modo tale da ricoprire

con fasci radio direzionali(spot) una regione geografica ben definita.

In questo caso la potenza del segnale non è costante su tutta l’area geografica ma decresce man

mano che ci si avvicina ai limiti dell’area interessata dal fascio direttivo. Si evince quindi che l’EIRP

del segnale è massimo nel centro e decresce allontanandosi da tale punto. Alcuni grafici forniscono il

footprint del satellite che fa riferimento proprio al fattore EIRP del segnale a seconda del punto della

zona geografica interessata dalla copertura satellitare. Di seguito si riporta un esempio di footprint di

un satellite:

Fig.4 Esempio di footprint di un satellite

Per poter aumentare la qualità del segnale nelle zone ai limiti dei grafici di footprint satellitare, è necessario

aumentare il diametro delle antenne paraboliche. Dal grafico inoltre si evince che affinché non vi siano interferenze

tra i segnali degli spot adiacenti, è necessario suddividere la banda totale in sottobande eseguendo la suddivisione in

celle, una tecnica utilizzata anche nella telefonia cellulare. In questo modo gli spot adiacenti lavorano sempre con

frequenze diverse ed inoltre è possibile introdurre il riuso delle frequenze.

Fig.5 Esempio di suddivisione a celle del territorio

Come si nota nella figura in alto, se il fascio direttivo del satellite è suddiviso in tanti piccoli fasci di diversa frequenza,

si può riutilizzare la frequenza di un determinato sottofascio, facendo si che un altro fascio direttivo situato ad un

opportuna distanza usi la medesima frequenza del primo fascio.

Il riuso delle frequenze è una tecnica che può essere ulteriormente potenziata attraversa l’implementazione della

tecnica della polarizzazione delle onde elettromagnetiche. Con il termine polarizzazione elettromagnetica si intende

la direzione del piano di oscillazione del campo elettrico associato all’onda elettromagnetica. Di conseguenza, se la

componente del campo elettrico, oscilla in un piano parallelo alla terra si dice che la polarizzazione è del tipo

orizzontale (H); se invece oscilla in un piano perpendicolare alla terra si dice che la polarizzazione è verticale(V).

La potenzialità di questa tecnica si evince dal fatto che sfruttando tali concetti è possibile trasmettere dei segnali con

medesime frequenze, nella stessa area geografica e senza il rischio di interferenze.

Concludendo, le antenne che montano sul satellite devono quindi essere in grado di sfruttare tali tecniche ed inoltre

devono garantire una sufficiente potenza di trasmissione affinché il fattore di attenuazione dello spazio libero (ASL)

non comprometta l’intelligibilità delle trasmissioni. Tale parametro deve essere considerato in fase di progettazione

attraverso la seguente relazione:

:;< = 10 ∙ log 46 ∙ 0'

λ

Dove con R indichiamo ovviamente la distanza tra il satellite e la stazione a terra. Questa distanza può essere

calcolata dalla seguente formula:

0 = A01' + ' − 20 ∙ 01 ∙ cos D ∙ cos ∆

RT vale come abbiamo visto circa 6370km essendo il raggio della terra e la distanza del satellite tra la terra è invece

r=42200km. L invece fa riferimento alla latitudine del luogo di ricezione ed in ultimo il parametro Δl si definisce

come:

∆ = FG − HI1

Il parametro L fa quindi riferimento alla differenza tra la longitudine del satellite e quella del luogo di ricezione,

assumendo come positive, le longitudini est e negative quelle riferite a ovest.

Tecniche di multiplazione per la gestione dei canali satellitari:

Come abbiamo accennato, i satelliti rappresentano uno degli esempi più comuni di ponte radio. Questi sistemi

consentono di ripetere i segnali proveniente dalle stazioni trasmittenti, amplificarli e ritrasmetterli alla stazione

ricevente, utilizzando 2 frequenze portanti diverse, una per l’up-link e l’altra per il down link. Per poter gestire un

gran numero di canali si intuisce che i satelliti siano in grado di adoperare le tecniche di multiplazione. Queste sono

possibili grazie a particolari e sofisticati dispositivi, situati all’interno dei trasponder e che effettuano i seguenti tipi di

multiplazione:

• FDMA (Frequency Division Multiple Access)

• TDMA (Time Division Multiple Access)

• SDMA (Space Division Multiple Access)

• CDMA (Code Division Multiple Access)

Queste tecniche non sono altro che versioni più sofisticate delle convenzionali tecniche di multiplazione utilizzate nei

normali collegamenti per le telecomunicazioni. Per questo motivo queste tecniche si basano inevitabilmente sui

principi quali:

• FDM: LA FDM è la multiplazione in frequenza. Essa sfrutta la modulazione di ampiezza per traslare in alta

frequenza un numero definito di canali utilizzando portanti a frequenza diversa di 4KHz l’una dall’altra. In

questo modo la banda assegnata ai singoli canali telefonici sarebbe di 4KHz. Ogni canale occuperebbe una

banda di 4KHz. Nel caso della Telecom si utilizza un sistema di tipo gerarchico. Nel primo livello sono

multiplati 12 canali nel range di frequenze che va da 60 a 108KHz.(48/4=12 canali telefonici). Nel secondo

livello viene effettuata la traslazione in frequenze dei singoli gruppi gerarchici di primo livello. In questo

modo, arrivando alle gerarchie di quinto livello si giunge a multiplare nello stesso canale migliaia di utenti

telefonici. L’utilizzo di schede realizzate seguendo le gerarchie di vario livello garantisce una migliore

manutenzione dell’impianto in caso di guasti delle singolo schede. In questo modo non viene compromesso

l’intero sistema ma i possibili guasti sono localizzati e facilmente individuabili.

• TDM: La tecnica TDM invece consente la multiplazione nel tempo. Sfruttando la modulazione PCM i segnali

fonici degli utenti vengono convertiti in veri e propri dati digitali. Nell’eseguire la conversione

Analogico/Digitali dei segnali fonici, viene considerata la formula di Shannon che definisce qual è la minima

frequenza di campionamento per poter eseguire una corretta conversione:

#! = 2# J

Dalla formula indicata deduciamo che la conversione avviene, nel caso dei segnali fonici con una frequenza di

campionamento pari a :

#! = 2 ∗ 4,L = 8000L

Essendo la banda fonica lorda di 4KHz si ottiene una fc di 8KHz. Da ciò si evince che del nostro segnale

preleviamo 8000 campioni al secondo e più precisamente preleviamo un campione da convertire in digitale,

ad intervalli regolari di 125us. La conversione effettiva dura invece poco più di qualche microsecondo. Il

tempo restante dei 125us complessivi viene inutilizzato e come possiamo immaginare per i sistemi di

elaborazione questo è un grande spreco in quanto in 125us è possibile eseguire diverse operazioni.

Sulla base di queste affermazioni gli scienziati elaborarono la tecnica TDM che consente di affasciare durante

i 125us più canali utente. In questo modo il canale di comunicazione è pienamente utilizzato e il sistema di

elaborazione lavora continuamente e, riducendo i tempi, si aumentano le velocità di trasmissione. Sono state

elaborate varie gerarchie PCM. La più semplice, cioè quella di 1o livello consente di affasciare 30 canali

utente e 2 canali per la segnalazioni , nell’arco de 125us complessivi. Il sistema di primo livello gerarchico

quindi è progettato secondo i seguenti criteri:

Il tempo in cui viene inviato ogni singolo canale è di:

3!" =125

32= 3.9

Tenendo conto che i segnali PCM sono costituiti da 8bit, la velocità Tbit è pari a:

3M =3.9

8= 488"

La velocità del sistema PCM di primo livello è quindi:

( =1

3M= 2.048&M/!

Tale velocità si definisce velocità di ripetizione e aumenta al crescere della gerarchia PCM considerata. Le

moderne centrali utilizzano gerarchie PCM che consentono di affasciare e multiplare nel tempo di 125us più di

7680 utenti telefonici. Il traffico PCM da trasmettere via ponte radio è modulato tramite modulazioni di tipo

digitale PSK o QAM, in modo tale da poter trasmettere le informazioni e i dati vocali al satellite, che a sua volta

ritrasmetterà le informazioni ricevute alla stazione di terra ricevente.

• Le multiplazioni SDM, alla base della SDMA satellitare, consiste in una divisione di spazio in modo tale da

trasmettere più canali alla stessa frequenze, usando antenne direttive multifascio in grado di produrre spot

di stessa frequenza diretti in diverse e separate zone della terra. Questa tecnica si avvale inoltre della tecnica

della divisione in celle del territorio, di cui abbiamo parlato precedentemente.

• La multiplazione CDM, alla base della CDMA consiste invece nell’assegnare ad ogni canale, una determinata

frequenza entro un determinato intervallo di tempo. In questo modo ad ogni canale è assegnato una sorta di

codice informativo dal quale dedurne la posizione sia nel tempo che in frequenza garantendo inoltre la

segretezza delle informazioni, in quanto il ricevitore deve essere impostato in modo da essere in grado di

ricevere quel codice(frequenza-tempo) del canale satellitare.

SISTEMA GPS

Il sistema GPS, acronimo di Global Positioning System è un sistema satellitare di posizionamento di proprietà degli

Stati Uniti d’America. Questo sistema ebbe origine nel 1991 quando iniziò il programma spaziale per il lancio di 24

satelliti più altri allo scopo di fornire supporto oppure per intervenire in caso di guasti. I 24 satelliti principali sono

distribuiti su 6 piani orbitali paralleli con orbite circolari ed inclinate di 550 rispetto all’equatore. Inoltre ogni satellite

ha un periodo di rivoluzione tale che, in un giorno, passi 2 volte dallo stesso punto.

Il funzionamento del sistema è reso possibile dal fatto che i 24 satelliti, distanti dalla terra 20000Km circa, siano

disposti in modo tale che, in ogni istante del giorno, ogni punto della terra sia coperto dal segnale di almeno 4

satelliti. I segnali ricevuti a terra vengono di conseguenza controllati da apposite stazioni e decodificati dai ricevitori

GPS. Dunque i componenti fondamentali di un sistema GPS sono i seguenti:

• 24 Satelliti orbitanti, disposti in modo che ogni punto della terra, ne veda un minimo di 4

• 4 Stazioni di controllo a terra, che svolgono il ruolo fondamentale di verificare il corretto posizionamento dei

satelliti e verificare di continuo la presenza di errori per intervenire di conseguenza, attivando gli strumenti a

bordo dei satelliti o aggiornando il loro sistema di elaborazione. Tale compito è fondamentale, in quanto si

calcola che nel caso in cui il sistema fosse lasciato a se stesso, diverrebbe obsoleto e non funzionante nel giro

di pochi giorni.

• Ricevitore Gps: Il ricevitore Gps svolge le seguenti funzioni:

1. Rileva il segnale provenienti dai 4 satelliti che in quel momento coprono la sua area

2. Calcola le loro distanze

3. Calcola le coordinate della propria posizione in base ai dati ricevuti attraverso un procedimento

definito trilaterazione.

Per spiegare in cosa consiste questo calcolo complesso basato sulla trilaterazione possiamo fare un semplice

esempio chiarificatore. Il ragionamento che segue tiene conto dello spazio bidimensionale anche se nella

realtà si dovrebbe considerare quello tridimensionale ma il metodo teorico vale per entrambi:

Immaginiamo di voler conoscere la nostra posizione trovandoci in un luogo dove non siamo in grado di

orientarci. Per capire esattamente dove ci troviamo ci vengono fornite 3 informazioni: La prima informazione

ci dice che siamo distanti 215 Km da una città,come ad esempio Napoli.

Ne deduciamo che ci troviamo in un punto della

circonferenza con raggio 215Km che ha il suo centro a

Napoli.

Una seconda informazione ci dice inoltre che distiamo 271Km da Firenze. Facendo il medesimo

ragionamento valido per la prima informazione si ottiene il grafico seguente:

Secondo questo grafico saremmo in

grado di affermare con certezza che ci

troviamo in uno dei 2 punti

evidenziati in blu. Questo perché solo

questi 2 punti corrispondono alle

informazioni forniteci in base alle

quali distiamo 271Km da Firenze e

215Km da Napoli.

Per stabilire qual è dei 2 il punto

esatto che raffigura la nostra

posizione abbiamo bisogno di un

ulteriore dato.

Mediante la terza informazione infatti, veniamo a conoscenza che ci troviamo alla distanza di 80Km da

Roma. Il nostro grafico si arricchisce e assume la seguente configurazione:

In base al grafico ottenuto siamo in

grado di stabilire la nostra esatta

posizione, che è quella evidenziata

dal punto Blu. Nella situazione reale

del GPS lo spazio considerato è

tridimensionale ed infatti una quarta

informazione ricevuta dal quarto

satellite orbitante fornisce i dati

necessari al calcolo della

trilaterazione nello spazio 3D.

Il ragionamento che abbiamo fatto è comunque valido in quanto basterebbe immaginare che nella realtà le

circonferenze illustrate siano invece delle sfere tridimensionali che si intersecano tra loro.

Il GPS riesce a comunicare con i satelliti analizzando le alte frequenze con cui essi trasmettono segnali a terra (le

bande usate sono 1575.42 Mhz e 1227.60 Mhz). Per capire la distanza tra il receiver ed il satellite viene misurato il

tempo che un segnale impiega per arrivare a terra.

Nella realtà bisogna però considerare che il sistema diviene molto più complesso che nella teoria in quanto sia i

trasmettitori GPS, cioè i satelliti, che i ricevitori devono essere perfettamente sincronizzati tra di loro, in modo tale

che il ricevitore GPS, ricevuto il segnale del satellite, sia in grado di calcolare con esattezza il tempo impiegato da tale

segnale per giungere a destinazione, conoscendo con assoluta precisione l’istante in cui il segnale è “partito dal

satellite”. Per rispondere a tale necessità, i satelliti montano orologi atomici sofisticati e molto costosi(si parla di

160000 euro per orologio) che hanno un errore di 1 secondo ogni 30000 anni fornendo così un assoluta precisione

nel calcolo dei tempi e delle sincronizzazioni. I ricevitori di terra, anche se non sono dotati di sistemi a cosi alta

precisione sono programmati in modo tale da aggiornare e correggere i loro orologi interni attraverso i segnali inviati

direttamente dai satelliti.

Un ultimo importante aspetto da considerare è che il sistema GPS è disponibile in 2 versioni. La prima detta

PPS(Precision Positioning System) è quella che sfrutta al massimo le potenzialità dei satelliti vantando errori di

calcolo di pochissimi metri. Questa è la versione disponibile alle forze militari Statunitensi. La seconda versione

invece, definita SPS(Standard Positioning System), è destinata all’uso civile e si caratterizza della disponibilità

selettiva. La disponibile selettiva è un provvedimento emanato dal ministero della difesa degli USA per indurre un

errore intenzionale nei calcoli del posizionamento che eleva il margine di errore a 30m. Nonostante molti paesi

abbiano contestato a lungo questo provvedimento, gli Stati Uniti hanno chiarito che il motivo di tale limitazione è

legato alla sicurezza militare.

Attualmente, molti centri spaziali del mondo sono intenzionati a studiare ed avviare progetti per un proprio sistema

GPS. Difatti, essendo l’attuale sistema, di proprietà USA, esso è soggetto non solo alle restrizioni imposte dal governo

Statunitense ma inoltre la disponibilità dei servizi derivanti dal GPS dipende dalla volontà degli Stati Uniti di rendere

disponibile alla comunità mondiale, il loro servizio. Per questi motivi il centro spaziale Europeo ha avviato un

progetto simile a quello del GPS. Il sistema è stato chiamato “GALILEO” e la sua entrata in servizio è prevista per il

2013 e conterà su 30 satelliti orbitanti su 3 piani inclinati rispetto al piano equatoriale terrestre e ad una quota di

circa 24.000 km. Si ipotizza che questo sistema, oltre a fornire una valida alternativa al GPS Americano, garantirà una

precisione nei calcoli ancora maggiore e chissà se queste sue complete potenzialità saranno garantite in futuro a

tutta la popolazione Europea.

SATELLITI METEOROLOGICI:

Un altra applicazione fondamentale dei satelliti è quella della meteorologia, cioè quella branca della scienza che

studia i fenomeni fisici responsabili dei cambiamenti del tempo atmosferico. Le moderne rilevazioni meteorologiche

si basano sulla elaborazione dei numerosi dati ottenuti attraverso la strumentazione di misura, dislocata in maniera

omogenea sul territorio. Esistono numerosi strumenti che sono deputati alla rilevazione di grandezze fisiche

responsabili del tempo atmosferico o premonitrici di fenomeni atmosferici come le precipitazioni, i temporali ecc…

Tra gli strumenti che intervengono nel complesso sistema meteorologico vi sono:

• barometri (per la misurazione della pressione atmosferica)

• termometri (per la misurazione della temperatura)

• igrometri (per la misurazione dell’umidità)

• termoigrografi (per la registrazione della temperatura e dell’umidità)

• pluviometri (per la misurazione delle quantità di pioggia)

• anemometri (per la misurazione della forza e della direzione dei venti)

• radiosondaggi (mediante palloni sonda )

• boe galleggianti e navi meteorologiche (per l’osservazione delle condizioni meteorologiche in mare aperto)

I seguenti strumenti sono stati approvati dal W.M.O. (World Meteorological Organization) e vengono utilizzati in ogni

stazione meteorologica mondiale:

Termometro a mercurio - Termometri di minima e di massima - Termoigrografo - Anemometro - Anemografo -

Barometro - Barografo - Pluviografo - Radiometro - Psicrometro

In ultimo lo strumento essenziale per le rilevazioni meteorologiche è costituito proprio dall’insieme di satelliti

meteorologici situati su orbite geostazionarie o polari. Questi tipo di satelliti sono dotati a bordo di una specifica

strumentazione che permette di fotografare la terra dallo spazio ottenendo immagini nello spettro del visibile,

dell’infrarosso e del vapor acqueo. Queste immagini in alta risoluzione sono inviate mediante trasmissioni criptate

alle stazioni meteorologiche di terra.

Successivamente i centri di elaborazione elaborano queste

immagini per renderle disponibili alle utenze civili, in un formato

di risoluzione minore per motivi di sicurezza (la precisione delle

rilevazioni satellitari e delle immagini ottenute via satellite è

spesso soggetta al controllo degli organi militari che, per ovvii

motivi di sicurezza, consente un accesso civile ai sistemi

satellitari ma con minore risoluzione e precisione dei dati).

I dati raccolti a intervalli regolari, attraverso la strumentazione di

terra e attraverso i satelliti, vengono trasmessi a centri nazionali

ed internazionali, che attraverso elaborazioni computerizzate o

in certi casi di tipo manuale consente di stilare rapporti sulle

condizioni meteo di elevata qualità. I satelliti più importanti nel

campo meteorologico sono diversi.

Queste applicazioni dei satelliti rappresentano dei veri e propri modelli di Sistemi di Acquisizione Dati(SAD) in

quanto i satelliti Meteorologici sono dotati di sensori, trasduttori e i relativi circuiti di condizionamento e i relativi

circuiti per le conversioni e l’adattamento ai sistemi di elaborazione.

Nelle pagine seguenti sono raffigurati alcuni esempi di satelliti lanciati in orbita da diverse agenzie spaziali. Tutti e 4

gli esempi raffigurati e descritti sono utilizzati nel campo della meteorologia.

Operatore: EUMETSAT

Nome: Meteosat 8 Data del lancio: 03/1991 (Meteosat 5), 08/2002 (Meteosat 8 MSG-1) Tipo di orbita: Geostazionario Questo satellite, oltre alla possibilità di scattare foto dallo spazio, consente di effettuare diverse rilevazioni tramite strumenti come il radiometro attraverso il quale esplora la superficie della Terra, linea per linea. Ogni linea consiste di una serie di immagini elementari o pixel. Per ogni pixel, il radiometro misura l'energia radiativa delle differenti fasce spettrali. Questa misura è digitalizzata, quindi trasmessa ad una stazione di terra dove viene trattata, prima di essere inviato alla comunità degli utenti. Le rilevazioni sono

eseguite a intervalli di 15 minuti.

Operatore: Agenzia Meteorologica del Giappone.

Nome: MTSAT Data del lancio: 02/2005 (MTSAT-1R), 02/2006 (MTSAT-2) Tipo di orbita: Geostazionario

Questo satellite, di proprietà del Giappone è munito della medesima strumentazione del Meteosat.

Operatore:SRC PLANETA

Nome: METEOR

Data del lancio:

Tipo di orbita: Sole-sincrono, il satellite passa sempre sopra lo stesso punto alla stessa ora del giorno. altezza: 1200 km Inclinazione dell'orbita: 82 gradi rispetto al piano equatoriale Strumento: MR-900 Il MR-900 è un radiometro. Questo strumento esplora una falciata larga circa 2600 chilometri. La risoluzione è di 2 chilometri.

Operatore: NASA Data del lancio: 19 giugno 1999 Tipo di orbita: Sole-sincrono, il satellite passa sempre sopra lo stesso punto alla stessa ora del giorno. altezza: 800 km Inclinazione dell'orbita: 98,6 gradi rispetto al piano equatoriale Questo satellite, ruota intorno alla terra ad una velocità tale da ritornare in linea con l’equatore per ben 14 volte al giorni. Dotato di diffusometro, consente le rilevazioni dell’intensità e della velocità dei venti.

CLASSE : VA E.T.A.

ALUNNO: Bovino Silvano

Indice:

• Definizione;

• Schema a blocchi di un sottosistema di misura;

• Circuito di rilevamento;

• Caratteristiche e classificazione dei trasduttori;

• Circuito di condizionamento;

• Circuito di Sample/Hold;

• Convertitore ADC;

• Sistemi multicanale.

Definizione:

Un sistema di acquisizione dati è un sistema di misura elettronico realizzato per monitorare, registrare ed

eventualmente post-elaborare le misure di una o più grandezze fisiche.

Un sistema di acquisizione e distribuzione dati tradizionale è costituito da 3 blocchi fondamentali:

• Sottosistema di misura(SAD)

• Sottosistema di elaborazione

• Sottosistema di uscita

I 3 blocchi sono interfacciati tra di loro in modo da ottimizzare al meglio i collegamenti. Il sottosistema di misura

rappresenta effettivamente il sistema di acquisizione dati in quanto è il blocco a diretto a contatto con il mondo

fisico. Si distinguono dunque 2 fasi fondamentali:

• ACQUISIZIONE:Per sistema di acquisizione dati, si deve intendere qualsiasi sistema in grado di rilevare e

memorizzare grandezze analogiche e/o digitali.

• DISTRIBUZIONE:Consiste nell’inviare segnali analogici o digitali ad attuatori come motori,dispositivi riscaldati,

relè, teleruttori.

La fase che consideriamo è quella dell’acquisizione, svolta dal sottosistema di misura.

Schema a blocchi di un sottosistema di misura:

Il sottosistema di misura è costituito generalmente dai seguenti blocchi:

• circuito di rilevamento

• circuito di condizionamento

• convertitore analogico/digitale

Circuito di rilevamento:

Il blocco rilevatore trasforma una grandezza fisica di ingresso in una grandezza elettrica ad essa proporzionale. il

rilevamento avviene tramite dei trasduttori.

Circuito di condizionamento:

Il circuito di condizionamento adatta il segnale in uscita dal rilevatore per il convertitore. Ha quindi la funzione di

adattare il segnale elettrico proveniente dal rilevatore all'ingresso del convertitore che rappresenta il blocco

successivo a quello di condizionamento. Il circuito di condizionamento viene suddiviso in due blocchi:

• circuito di condizionamento primario

• circuito di condizionamento secondario

Convertitore Analogico/Digitale:

Questo dispositivo ha la funzione di convertire il segnale analogico proveniente dai circuiti di condizionamento in un

segnale digitale adatto ad essere acquisito, memorizzato ed elaborato dal sottosistema di controllo.

Circuito di Rilevamento:

Il circuito di rilevamento è costituito da due blocchi fondamentali, il sensore e il circuito di conversione. Questi due

blocchi costituiscono il trasduttore cioè quel dispositivo in grado di convertire una grandezza fisica in una grandezza

elettrica.

Si definisce sensore un dispositivo in grado di rilevare variazioni di una grandezza fisica e fornire in uscita ancora una

grandezza fisica diversa e proporzionale alla precedente. Un esempio che definisce questo dispositivo è il

termometro che, a variazioni di temperatura corporea, fa corrispondere variazioni di altezza della colonnina di

mercurio.

Il circuito di conversione, invece, svolge il ruolo di convertire la grandezza fisica in uscita dal sensore, in una

grandezza elettrica(solitamente una tensione). Generalmente, sia il sensore, che il circuito di conversione, sono

integrati nello stesso circuito e non divisi.

Caratteristiche e classificazione dei trasduttori

Il trasduttore, per poter garantire una corretta acquisizione dei dati informativi deve rispettare alcuni

criteri basilari. Le caratteristiche fondamentali dei trasduttori utilizzati nella pratica sono le seguenti:

• linearità

• sensibilità

• campo di funzionamento

• tempo di risposta

• risoluzione

• caratteristica di trasferimento

• La linearità si riferisce ad una proprietà di un sistema che indica come le sue uscite (risposte)

possano mettersi in relazione lineare con i suoi ingressi. E’ uno dei parametri fondamentali del

trasduttore, dalle cui caratteristiche è possibile definire l'errore massimo. Si può ovviare all'errore

di linearità operando in un campo più ristretto dove la caratteristica è lineare. In caso contrario

bisogna linearizzare la caratteristica del traduttore mediante appositi circuiti di linearizzazione.

• La sensibilità di un trasduttore è il rapporto tra la variazione della grandezza di uscita e quella di

ingresso:

O =∆∆P

• Il campo di funzionamento è la differenza tra il valore massimo e quello minimo che può assumere

la grandezza di ingresso, in corrispondenza della quale l'uscita è lineare.

• Si definisce tempo di risposta, il tempo che impiega il traduttore a raggiungere un valore di uscita

conforme a quello della grandezza di ingresso quando questa subisce una variazione improvvisa.

• La risoluzione di i un trasduttore invece, è la minima variazione della grandezza di ingresso

percepibile in uscita. Si esprime in percentuale.

Generalmente esistono diversi tipi di trasduttori e diversi modi per classificarli. Le classificazioni moderne

avvengono in base a 3 diversi fattori caratteristici:

• Tipo di segnale di uscita del trasduttore;

• Tipo di grandezza fisica in ingresso al trasduttore;

• Fonte di energia esterna

La classificazione in base al tipo di segnale di ingresso permette di distinguere 2 tipologie di trasduttori:

1. Analogici

2. Digitali

La classificazione in base alla fonte di energia esterna consente di distinguerli invece in:

1. Attivi(Non richiedono energia esterna ma forniscono direttamente una grandezza elettrica in

uscita, ES:PANNELLI FOTOVOLTAICI,SOLARI…)

2. Passivi(Necessitano di energia esterna per effettuare la conversione della grandezza fisica, in

elettrica)

Se invece, si utilizza la classificazione in base al tipo di grandezza fisica di uscita(la più utilizzata nella

pratica), si ottiene la seguente classificazione:

• TRASDUTTORI DI TEMPERATURA

• TRASDUTTORI DI UMIDITA’

• TRASDUTTORI DI PRESSIONE

• TRASDUTTORI DI LUMINOSITA’

• TRASDUTTORI DI POSIZIONE

• TRASDUTTORI DI VELOCITA’

I trasduttori che risultano più utilizzati nella pratica, sono quelli di temperatura. Infatti i sistemi

meteorologici ad esempio si basano prevalentemente sull’acquisizione regolare di dati sulle temperature

medie delle varie zone geografiche, che insieme ai dati sulla pressione e quelli relativi alla nuvolosità

consentono le previsioni per i giorni successivi. Un esempio di trasduttore di temperatura è il PT100, una

termo resistenza al platino dalla caratteristica lineare.

Attraverso i trasduttori, siamo quindi in grado di ottenere il segnale elettrico che dobbiamo elaborare.

Dall’esigenza di dover trasmettere i segnali ottenuti a dei veri e propri centri di elaborazione, nasce il

bisogno di progettare dispositivi che possano adattare questi segnali ai sistemi di elaborazione. Un primo

circuito, deputato a questo ruolo è il CIRCUITO DI CONDIZIONAMENTO.

CIRCUITI DI CONDIZIONAMENTO

Il circuito di condizionamento svolge la funzione fondamentale di adattare il segnale elettrico proveniente dai

sensori, ai blocchi successivi della catena di acquisizione dati. A questo scopo, tale circuito svolge le seguenti

funzioni:

• Conversione corrente/tensione

• Amplificazione e traslazione di livello

• Filtraggio

• Isolamento

• Linearizzazione

Conversione corrente/tensione:

Questa operazione si rende indispensabile a causa del fatto che molti trasduttori restituiscono in uscita una corrente

e non direttamente una tensione. Affinché il segnale possa essere “lavorato” dal successivo ADC(Analogic to Digital

converter), è necessario utilizzare un circuito di condizionamento costituito da un operazionale che svolge la

funzione di convertitore corrente tensione. Nell’immagine che segue, un esempio di convertitore I/V:

L’utilizzo di tale circuito inoltre, produce isolamento tra i blocchi, in quanto in caso di guasti o corto circuiti,

l’operazionale funge da buffer e protegge i circuiti che seguono.

Amplificazione e traslazione di livello:

La maggior parte dei trasduttori esistenti e che sono reperibili in commercio, restituisce in uscita un segnale di

tensione di ampiezza molto bassa. Per questo motivo, si utilizzano operazionali in grado di effettuare sia

l’amplificazione e traslazione di livello in un range di tensione compreso tra 0 e 5mv.

Filtraggio:

Un importante funzione dei circuiti di condizionamento è quella di far ottenere in uscita un segnale privo di

distorsioni o rumore, in quanto un segnale ben filtrato consente una buona conversione ed elaborazione dei dati. Si

utilizzano a questo scopo i filtri passa – basso, che consentono inoltre l’eliminazione del fenomeno di aliasing

durante la fase di campionamento, che causerebbe la sovrapposizione delle bande nello spettro in frequenza.

Isolamento:

Come abbiamo accennato in precedenza, l’isolamento dei circuiti è essenziale per garantire la protezione del

sistema. Soprattutto per le applicazione elettromedicali, l’isolamento è indispensabile per salvaguardare sia le

apparecchiature che le persone.

Linearizzazione:

Un ulteriore funzione svolta da questi circuiti è la linearizzazione analogica delle curve di risposta che un trasduttore

fornisce secondo una caratteristica non lineare. Nella figura in basso, segue un esempio di linearizzazione della

caratteristica di uscita di un trasduttore di temperatura:

Esempio di linearizzazione della curva di risposta

La linearizzazione si rende indispensabile, per le successive fasi di conversione analogico/digitale in quanto una

caratteristica lineare consente di ottenere segnali digitali corrispondenti e proporzionali alla grandezza fisica

misurata.

Sample/Hold

Un altro componente fondamentale per i SAD, è il sample/Hold. Questo circuito va inserito a monte

dell’ADC e permette di campionare il segnale proveniente dal circuito di condizionamento. Questa

operazione si rende necessaria in quanto, spesso, il segnale emesso in uscita dal trasduttore, varia molto

velocemente e non rimane costante per tutto il tempo della conversione.

Circuito di Sample and Hold

Il circuito sample/hold è costituito da 2 buffer tra i quali è posto un interruttore comandato da un segnale

di tipo impulsivo, proveniente dalla logica di controllo del sistema che provvede all’invio dei tempi di

sincronismo tra i vari circuiti. Quando l’interruttore è chiuso, (fase di sample, cioè di acquisizione), il

condensatore C si carica sino al valore di ampiezza del segnale Vi, che viene contemporaneamente

trasferito all’uscita. Nel momento in cui arriva un impulso dalla logica di controllo, l’interruttore si chiude e

contemporaneamente inizia la fase di conversione nel blocco ADC. Durante questo intervallo di tempo(fase

di Hold), il condensatore conserva l’ultimo valore di tensione acquisito e trasferisce tale tensione all’uscita

mantenendola costante per tutta la fase di hold. Si ottiene di conseguenza il seguente grafico:

L’intervallo di tempo che intercorre tra l’apertura dell’interruttore e la disponibilità del dato in uscita

equivale a:

3H/Q = + ! + +

Dove ta rappresenta il ritardo di apertura dell’interruttore. Tac è il tempo di acquisizione, cioè il tempo che

impiega l’ingresso per essere trasferito in uscita. Tu è il tempo di incertezza di apertura; tset invece

rappresenta il tempo di assestamento del modo di hold, cioè il tempo che impiega l’uscita per

l’assestamento.

Dato che ta è un tempo molto più elevato rispetto agli altri valori, insieme al tempo tac, si considera che:

3H/Q ≅ + !

Da queste considerazioni, è possibile ottenere la massima frequenza del segnale campionabile:

La frequenza di campionamento è la misura espressa in Hertz del numero di volte al secondo in cui un segnale

analogico viene misurato e memorizzato in forma digitale(da "digit" che in inglese significa numero).

Frequenza di campionamento con

S/H

Frequenza di campionamento con

ADC

Frequenza di campionamento con

ADC e S/H

# J ≤1

2S ∙ 6 ∙

Dove con n si indica il numero di bit

dell’ADC

# J ≤1

2S ∙ 6 ∙ !

Dove tc è il tempo di conversione

#! J ≤1

+ ! + !

Secondo il teorema di Shannon si

ottiene:

#! J ≥ 2# J

Di conseguenza:

# J ≤1

2 ∙ + ! + !

Convertitore ADC:

Il convertitore A/D ha il compito di trasformare il segnale analogico presente al suo ingresso in un segnale digitale a

N bit. Ad un convertitore viene applicata una corrente continua particolarmente stabile detta tensione di riferimento

(Vref), questa tensione viene anche detta tensione di fondo scala (Vfs). Il rapporto tra Vfs e il modulo 2n,

rappresenta

la risoluzione del convertitore, ovvero la più piccola tensione che applicata all’ingresso produce un cambiamento del

dato digitale in uscita. Il segnale ottenuto in uscita dal convertitore ADC è inviato successivamente al

microprocessore tramite cavo seriale .

Un esempio di convertitore Analogico/Digitale è il convertitore A/D C ad approssimazione successiva:

Questo circuito, basato sull’integrato ADC0804 svolge le seguenti operazioni:

Al 1o impulso di clock, la rete logica SAR pone a 1 l’MSB mentre i restanti bit rimangono a 0. La VDAC che si ottiene

all’uscita del convertitore digitale/analogico, viene confrontata con la Vi. In questo modo il bit viene “pesato” e solo

se Vi<VDAC esso rimane a 1. Se invece Vi>VDAC, l’MSB viene posto nuovamente a 0. Al successivo impulso di clock, il bit

successivo viene posto a 1, indipendentemente dal valore che il bit precedente ha assunto in base al confronto con

Vi. Questa operazione viene svolta per ogni bit ed infine, una volta che anche l’ultimo bit è stato pesato, il valore dei

singoli bit è trasferito in modo parallelo in uscita. L’inizio e la fine della conversione sono segnalati dai segnali SC e

EOC rispettivamente di START ed END of conversion. La conversione avviene entro un tempo Tc che dipende dal

numero di bit del convertitore. Se il numero di bit è 4, occorreranno 5 impulsi di clock per eseguire la conversione(il

primo impulso è quello che pone l’MSB a 1, mentre l’ultimo rende i dati disponibili in uscita). Se il numero di bit è

elevato, occorrerà maggiore tempo per la conversione, ma in compenso la risoluzione del convertitore migliora, dato

che il valore del QUANTO Q=VFS/M, consente di apprezzare valori molto piccoli di tensione, convertibili in digitale.

Una volta che il dato digitale è trasferito in modo seriale al microprocessore, questi viene elaborato e

successivamente l’elaboratore invierà un segnale che attiva i circuiti del sottosistema di uscita, dove un DAC

provvederà a fornire i segnali necessari ad attivare gli attuatori.

Quanto abbiamo detto, si applica a quei sistemi in grado di elaborare una sola grandezza fisica di ingresso. Lo

schema dettagliato per i sistemi monocanale è dunque il seguente:

Schema a blocchi SAD monocanale

La quasi totalità dei sistemi d'acquisizione è progettata per registrare contemporaneamente più misure.

Ciò nasce dall'esigenza degli utilizzatori di mettere in relazione tra loro div

ricavare le relazioni esistenti tra gli elementi che compongono l'oggetto dell'analisi.

Questi sistemi vengono realizzati creando diverse

strumento di registrazione (l'acquisitore)

linee di registrazione indipendenti chiamate

multicanale.

Nel momento in cui è necessario elaborare un numero maggiore di grandezze

MULTIPLEXER ANALOGICO. Questo circuito, schematizzabile come un commutatore elettronico a più ingressi e uscita

comune, permette di elaborare sequenzialmente le grandezze fisiche ed eseguire la loro conversione.

SISTEMI MULTICANALE

Quanto abbiamo detto, si applica a quei sistemi in grado di elaborare una sola grandezza fisica di ingresso. Lo

temi monocanale è dunque il seguente:

Schema a blocchi SAD monocanale

La quasi totalità dei sistemi d'acquisizione è progettata per registrare contemporaneamente più misure.

Ciò nasce dall'esigenza degli utilizzatori di mettere in relazione tra loro diverse grandezze, in modo da

ricavare le relazioni esistenti tra gli elementi che compongono l'oggetto dell'analisi.

Questi sistemi vengono realizzati creando diverse catene di misura che hanno in comune il medesimo

strumento di registrazione (l'acquisitore). Quest'ultimo è in grado di ricevere i vari segnali e collegarli a

linee di registrazione indipendenti chiamate canali; pertanto questi sistemi sono definiti

Nel momento in cui è necessario elaborare un numero maggiore di grandezze fisiche si deve implementare un

MULTIPLEXER ANALOGICO. Questo circuito, schematizzabile come un commutatore elettronico a più ingressi e uscita

comune, permette di elaborare sequenzialmente le grandezze fisiche ed eseguire la loro conversione.

Schema a blocchi SAD multicanale

Quanto abbiamo detto, si applica a quei sistemi in grado di elaborare una sola grandezza fisica di ingresso. Lo

La quasi totalità dei sistemi d'acquisizione è progettata per registrare contemporaneamente più misure.

erse grandezze, in modo da

ricavare le relazioni esistenti tra gli elementi che compongono l'oggetto dell'analisi.

che hanno in comune il medesimo

. Quest'ultimo è in grado di ricevere i vari segnali e collegarli a

; pertanto questi sistemi sono definiti sistemi

fisiche si deve implementare un

MULTIPLEXER ANALOGICO. Questo circuito, schematizzabile come un commutatore elettronico a più ingressi e uscita

comune, permette di elaborare sequenzialmente le grandezze fisiche ed eseguire la loro conversione.

Con una logica programmata, i segnali provenienti dai trasduttori vengono elaborati, ad uno ad uno, a intervalli

regolari. I tempi di conversione nei sistemi multicanale tengono conto del tempo TMUX:

3UVG = 3H + 3WX

Dove Ts è il tempo di setting, cioè l’intervallo di tempo che intercorre tra l’istante in cui l’interruttore è chiuso e

l’istante in cui l’uscita raggiunge il valore finale. TON invece rappresenta il tempo richiesto per convertire / connettere

l’ingresso all’uscita del MUX. Per un numero N di canali, si ottiene una frequenza di campionamento:

#3! J = +#! + # J

Dove fc rappresenta la frequenza di campionamento per un singolo canale, che è pari a:

#! J ≤1

+ ! + !

La configurazione illustrata nella figura precedente, prevede l’utilizzo di un circuito di condizionamento per ogni

sensore. Quando il sistema di acquisizione dati è progettato per l’elaborazione di grandezze fisiche simili, è possibile

d’altronde implementare un unico circuito di condizionamento, in quanto le operazioni di adattamento svolte da tale

circuito, divengono uguali per ogni uscita dei trasduttori. In questo modo, è possibile risparmiare sui costi.

CLASSE : VA E.T.A.

ALUNNO: Bovino Silvano

Indice:

• Cenni teorici sui sensori e i trasduttori;

• Termoresistenze:

o Descrizione

o Tipologie

• Termistori:

o Descrizione dei PTC

o Descrizione degli NTC

Cenni teorici sui sensori:

Si definiscono sensori quei circuiti in grado di convertire una grandezza fisica in ingresso, in un'altra grandezza

facilmente convertibile ed elaborabile dai sistemi di elaborazione dati. Il sensore, è l’elemento di un circuito

maggiormente a contatto con il mondo naturale esterno. L’utilizzo dei sensori, consentiva in passato la lettura

immediata delle grandezze fisiche, convertendole in grandezze di altra natura facilmente misurabili. Il termometro al

mercurio, infatti ha la funzione di convertire le variazioni di temperatura in una variazione del livello di altezza della

colonnina di mercurio. L’esempio del termometro al mercurio(nella foto un esempio), illustra come è fondamentale

lì utilizzo di materiali adatti, che modificano le loro

caratteristiche a seconda della temperatura o comunque

della grandezza fisica che si apprestano a misurare.

Fig.1 Esempio di termometro al mercurio

Con l’avvento dell’elettronica è nata la necessità di

progettare dei sensori che si adattassero alle nuove

tecnologie e consentissero la misurazione in maniera

elettronica, della grandezza fisica misurata.

Un altro dei motivi che ha provocato l’avvento dei sensori

elettronici è stata la messa al bando di alcuni sensori ritenuti

prericolosi per i materiali che li costituivano. Il termometro al mercurio difatti, sarà ritenuto fuorilegge a partire dal 3

OTTOBRE 2009, proprio perché ritenuto pericoloso per il suo contenuto. Si sa infatti che il mercurio è una sostanza

potenzialmente nociva, in quanto un suo errato utilizzo può provocare danni alla salute e alla natura. Questi effetti

dannosi possono essere riassunti nei seguenti:

- Distruzione del sistema nervoso

- Danneggiamento delle funzioni cerebrali

- Danni al DNA e danni cromosomici

- Reazioni allergiche, che risultano in

chiazze cutanee, stanchezza ed emicranie

- Effetti riproduttivi negativi, quali danni

allo sperma, i difetti di nascita ed aborti

Il danneggiamento delle funzioni cerebrali

può causare la degradazione della

capacità di apprendimento, cambiamenti

di personalità, tremore, cambiamenti di

visione, sordità, scoordinamento

muscolare e perdita di memoria. Danni

cromosomici sono noti causare il

mongolismo.

I motivi che abbiamo citato rivelano

quanto la ricerca di trasduttori e quindi

sensori utilizzabili nel campo

dell’elettronica, sia quanto mai

indispensabile per garantire una sicurezza

migliore ma anche una precisione

maggiore nel campo degli utilizzi

professionali.

Fig.2 Il mercurio che fuoriesce da un comune termometro, costituisce un pericolo per la salute in quanto se ingerito o smaltito in

modo errato costituisce un pericolo per l’uomo e la natura.

Attualmente in commercio, vi sono moltissimi tipi di trasduttori di temperatura. Quelli che ci apprestiamo ad

analizzare sono tra i più conosciuti:

• Termoresistenze

• Termistori

Descrizione delle termoresistenze:

Un esempio di trasduttori molto conosciuti in campo pratico, è quello delle termoresistenze. Le termoresistenze si

costituiscono di materiale metallico, che ha la caratteristica di alterare il suo valore resistivo al variare della

temperatura secondo una precisa legge matematica:

0 = 0W ∙ 1 + 3

Dove

RO: E’ la resistenza a 0 oC;

α :è il coefficiente di temperatura (oC

-1);

T :E’ la temperatura in oC.

Le termoresistenze maggiormente utilizzate, sono costituite da metalli come il Platino, il Rame ed il Nichel che

consentono di operare in un campo di temperatura che va da -2000C ad alcune centinaia di

0C.

Come possiamo osservare dalla formula, la presenza del coefficiente α, che è positivo, indica che la resistenza di

questi materiali è direttamente proporzionale all’aumento della temperatura. Per cui se la temperatura aumenta,

cresce anche il valore resistivo del materiali che costituisce la termo resistenza.

Nella pratica, il Platino viene utilizzato per applicazioni che richiedono elevata precisione. Difatti, le termoresistenze

che sfruttano il rame o il nichel, presentano lo svantaggio di avere un basso rapporto massa/resistività nel primo

caso, e scarsa linearità nel secondo.

Il Platino, invece ha una caratteristica più lineare entro un range di temperature abbastanza ampio. Questo

materiale costituisce la termo resistenza PT100 le cui iniziali fanno riferimento proprio all’utilizzo di tale materiale e

alla sua temperatura a 0oC che equivale a 100Ω(nel caso del PT1000 infatti a 0

oC si ha una resistenza di 1000Ω..

Esistono due categorie di termoresistenze al platino:

• termoresistenze a film sottile • termoresistenze a filo

Le termoresistenze a film si realizzano deponendo, sotto vuoto, un sottilissimo strato di platino su un substrato di ceramica (tipicamente di forma rettangolare di 2 mm x 5 mm). Dopo aver fissato i terminali per il collegamento elettrico esterno, tipicamente si effettua una taratura del dispositivo al laser.

Secondo la norma IEC 751 (1995) le Pt100 sono classificate a seconda della tolleranza nella misura fornita:

• Pt100 Classe A ±0,15 °C [0 °C] ±0,06 Ω [0 °C] • Pt100 Classe B ±0,30 °C [0 °C] ±0,12 Ω [0 °C]

Descrizione dei termistori:

Si definiscono termistori, quei trasduttori di temperatura realizzati attraverso materiale semiconduttore, per i quali il

legame tra resistenza e temperatura è di tipo esponenziale. Ad una piccola variazione di temperatura, corrisponde

quindi una elevata variazione di resistenza del componente.

I termistori si dividono in 2 categorie principali:

• PTC

• NTC

I PTC hanno un coefficiente di temperatura positivo, il che equivale a dire che se la temperatura aumenta, vi è un

aumento della resistenza. I materiali che rispondono a queste caratteristiche sono il titanato di bario, di stronzio e il

silicio policristallino.

La legge esponenziale che caratterizza i termistori è la seguente:

01 = : + ∙ Y∙1

Tenendo conto che A,B e C sono delle costanti si nota subito come l’aumento di resistenza è di tipo esponenziale ed

è proporzionale all’aumento della temperatura. La curva di risposta tipica di un termistore, ottenuta da tale

relazione è illustrata nella figura in basso:

Come si può notare il campo di funzionamento, di tale componente è limitato ad un range di temperature entro il

quale la curva di risposta è conforme alla legge matematica citata in precedenza. I parametri tipici per un termistore

commerciale sono i seguenti:

Tolleranza 5%

Resistenza di riferimento R1=100Ω

Temperatura di riferimento T1=80oC

Resistenza finale a 125 o

C R2=50kΩ

Temperatura finale T2=125 o

C

Tensione di esercizio Vmax=30V

Per quanto concerne gli NTC invece, il coefficiente di temperatura, essendo negativo fa si che il valore della

resistenza di tale componente, diminuisca con l’aumentare della temperatura. In questo caso i materiali utilizzati

sono l’ossido di ferro, di cobalto, di cromo, di manganese e di nichel. L’utilizzo di tali componenti permette di

ottenere valori di resistenza regolati dalla seguente legge matematica:

01 = 0Z ∙ Y∙*

1) *1[

Dove:

T = temperatura espressa in gradi kelvin

RT = resistenza alla temperatura T

R0 = resistenza alla temperatura di riferimento T0

B = costante indipendente (ha valore compreso tra 2500 e 5700K)

Il vantaggio di utilizzare gli NTC deriva dal fatto che la relazione matematica che li caratterizza permette un campo di

funzionamento molto più ampio dei PTC, caratterizzato da temperature di lavoro anche al di sotto dello zero. I

parametri caratteristici di un NTC commerciale sono quelli elencati in tabella:

Resistenza a 25 o

C 47kΩ

Coefficiente B 3300K

Dissipazione di potenza 0,6W a 25 o

C

Tolleranza 20%

Fattore di dissipazione 5mW/ o

C

Costante termica di tempo 30s

Temperatura di funzionamento:

-Alla dissipazione massima

-Alla dissipazione zero

Da 0 o

C a 55 o

C

Da -25 o

C a 155 o

C

Nell’immagine seguente possiamo notare la diversa curva di risposta degli NTC e i PTC:

Si nota inoltre come la caratteristica di un NTC sia lineare in un intervallo di temperature più ampio rispetto ai PTC.

I trasduttori di temperatura sono utilizzati moltissimo sia nei SAD e nei sistemi satellitari sia per utilizzi industriali o

domestici all’interno di apparati elettrodomestici. La loro funzione dunque è fondamentale per garantire il corretto

funzionamento delle macchine automatiche che svolgono delle specifiche funzioni in base alla temperatura presente

nell’ambiente o nel luogo di misurazione.

CLASSE : VA E.T.A.

ALUNNO: Bovino Silvano

Indice:

Definizione di attività economica;

• Le fasi dell’attività economica;

• Obbiettivi dell’attività economica;

Concetto di azienda;

• Elementi costitutivi di un azienda

• L’azienda intesa come sistema

• Il rapporto azienda-ambiente

• Classificazione delle aziende

o In base al fine

o In base al luogo di ubicazione

o In base alla natura giuridica del soggetto

o In base alle dimensioni dell’azienda

Definizione di attività economica:

Si definisce attività economica, l’insieme delle attività svolte dall’uomo per ottenere beni e servizi per il

soddisfacimento dei propri bisogni.

Nel corso della vita, ogni uomo avverte una serie di bisogni. Questi possono essere distinti in 2 categorie principali:

• Bisogni primari: Sono quei bisogni il cui soddisfacimento è necessario alla vita. Fanno parte di questa

categoria, il bisogno di mangiare, bere, coprirsi e dormire, essenziali per la sopravvivenza umana.

• Bisogni secondari: Sono quei bisogni marginali, il cui mancato soddisfacimento non mette a repentaglio la

sopravvivenza umana. Esempio di bisogni primari sono: bisogno di studiare, svagarsi, vacanze ecc…

Per poter soddisfare tali bisogni, l’uomo necessità di procurarsi beni(o servizi) che possano essere utilizzati per

eliminare il corrispondente bisogno. I beni che rispondono a tale necessità si definiscono beni economici in quanto

limitati e non sempre immediatamente disponibili.

I processi che consentono, di ottenere beni utilizzabili a questo scopo, costituiscono l’attività economica. Nell’attività

economica è possibile distinguere 4 fasi principali:

• Produzione: si riferisce all’insieme di operazioni e attività svolte dall’uomo che partendo da una risorsa

naturale(grezza e inutilizzabile), consente di ottenere come prodotto finito, un bene consumabile. Per

ottenere il prodotto finito(il bene), l’uomo può avvalersi di una produzione diretta o indiretta. In entrambi i

casi, la combinazione sapiente di mezzi e lavoro consente l’ottenimento di nuovi beni o l’accrescimento della

loro utilità.

• Scambio: consiste nella cessione di un bene contro un altro bene.

• Consumo: consiste nell’utilizzo dei beni prodotti e porta al soddisfacimento dei bisogni.

• Risparmio: attraverso il risparmio, si sottraggono alcuni beni dal consumo immediato, per destinarli o

preservarli per un consumo futuro.

Generalmente, il concetto di bene fa riferimento ad un qualcosa di tangibile(cioè che possiamo toccare). Difatti

anche se esistono beni immateriali(software informatici), spesso l’idea di bene economico fa riferimento ad un

qualcosa che si può osservare e toccare.

Il concetto di servizio invece, fa riferimento ad una prestazione(come ad esempio quella offerta da un medico) e di

conseguenza può essere definito come un prodotto intangibile cioè privo di consistenza fisica.

Sia i beni che i servizi, nel loro insieme sono in grado di produrre utilità, cioè quella capacità di soddisfare i bisogni

dei soggetti che li richiedono.

L’obbiettivo principale dell’attività di produzione è proprio quello di accrescere l’utilità delle risorse disponibili in un

dato momento. Essa si caratterizza principalmente di 3 sottofasi che riguardano la produzione diretta e indiretta:

• Produzione fisica di beni e prestazione di servizi: Consente, partendo da una risorsa iniziale, di ottenerne

altre di tipo diverso attraverso la trasformazione fisica dei beni(come ad esempio avviene nel caso delle

materie prime che, attraverso una serie di processi, consentono di ottenere un prodotto finale, cioè il bene

utile).

• Trasferimento di beni nello spazio: questa operazione consiste nello spostamento di beni da luoghi dove vi è

un eccedenza, in luoghi dove vi è scarsità di risorse o dove vi è uno squilibrio tra produzione e consumo. E’ il

caso del petrolio o della frutta esotica. Nel luogo di destinazione si ottiene, in questo modo, una produzione

indiretta di beni.

• Trasferimento di beni nel tempo: Consiste nella conservazione dei beni per renderli disponibili in un

momento futuro. Nel momento in cui sono messi a disposizione, si ha una produzione indiretta di beni in

quanto si accresce, anche in questo caso, la disponibilità di risorse.

L’intera attività di produzione necessità dei fattori produttivi che sono distinti in risorse naturali, lavoro umano e

capitale, dove per capitale intendiamo l’insieme di tutti quei fattori che consentono di ottenere beni e generare

reddito e che includono la natura, gli essere umani e le risorse prodotte dall’uomo.

Nell’economia moderna, la produzione di beni e servizi utili per il soddisfacimento dei bisogni, è affidata ad istituti

economici produttivi e organizzati denominati aziende.

L’azienda:

Si definisce azienda un istituto economico destinato a durare nel tempo che, mediante l’impiego di un complesso

differenziato di risorse, produce beni e servizi per il soddisfacimento dei bisogni umani.

All’interno delle aziende, la combinazione di lavoro e capitale, consente di ottenere un sistema di operazioni che

costituisce l’attività economica.

Gli elementi che costituiscono un azienda sono:

• Organizzazione stabile, creata in modo tale da compiere operazioni durature e garantire di conseguenza,

l’esistenza duratura dell’organismo aziendale.

• Insieme di persone, che a vario titolo svolge diverse operazioni contribuendo allo svolgimento dell’attività

aziendale(si distinguono a questo proposito le diverse figure professionali come i dirigenti, gli impiegati, gli

operai ecc).

• Complesso di beni economici, che vengono destinato allo scambio sul mercato o utilizzati all’interno

dell’azienda sia come beni di consumo che come fattori produttivi. L’insieme dei beni economici costituisce il

patrimonio aziendale.

• Fine da raggiungere, che si concreta con il soddisfacimento dei bisogni umani attraverso la produzione e il

consumo di beni economici. Il soddisfacimento può essere:

o Diretto, se l’azienda mira direttamente a soddisfare i bisogni attraverso il consumo della

ricchezza(cioè dei beni economici e i prodotti finiti).

o Indiretto, se invece l’obbiettivo principale dell’azienda è quello del lucro cioè del guadagno

attraverso al produzione e distribuzione di beni e servizi. Il conseguimento degli obbiettivi aziendali

in questo caso, produce comunque indirettamente il soddisfacimento dei bisogni.

• Insieme ordinato e sistematico di operazioni, svolte dalle figure professionali dell’azienda che consentono

di raggiungere il fine aziendale.

L’azienda intesa come sistema

Il modo in cui è organizzata un azienda fa si che essa possa essere intesa come un sistema costituito da uomini e

mezzi, cioè da blocchi interdipendenti tra loro ma combinati in modo tale da raggiungere uno scopo specifico

interagendo con l’ambiente circostante.

Il sistema azienda, dunque, è considerato un:

• sistema aperto

• sistema socio-tecnico

• sistema finalizzato

• sistema dinamico

• sistema autoregolato

• sistema economico.

o L’azienda viene considerata un sistema aperto in quanto per poter sussistere nel tempo, deve

continuamente intraprendere rapporti di scambio con l’ambiente esterno in cui è operativa. Come sistema

aperto è caratterizzata da input, cioè le materie e le risorse necessarie allo svolgimento dell’attività

economica aziendale, e di output cioè i prodotti finiti (beni e servizi) che vengono ceduti a terzi.

o L’azienda è considerata un sistema socio-tecnico in quanto si avvale di persone(elemento sociale) da una

parte e di macchine e attrezzature tecnologiche dall’altra(elemento tecnico).

o L’azienda è un sistema finalizzato in quanto, indipendentemente dai precisi obbiettivi aziendali, tende ad

uno scopo generale: il soddisfacimento dei bisogni umani.

o L’azienda è un sistema dinamico poiché, per poter perdurare nel tempo, necessità di mutare i suoi equilibri

adeguandosi alle esigenze dei consumatori, in modo tale da ottenere un vantaggio competitivo rispetto alle

aziende concorrenti.

o L’azienda è un sistema autoregolato in quanto tutte le operazioni svolte nel corso della storia dell’azienda

vengono registrato in modo tale da regolare l’attività economica futura evitando di commettere

ripetutamente gli stessi errori. Le informazioni registrate si definiscono di feed-back in quanto ritornano utili

nel futuro.

o L’azienda inoltre è considerata un sistema economico poiché per poter soddisfare i bisogni illimitati e

risorgenti(che si ripresentano continuamente nel tempo) ricorre all’utilizzo di risorse limitate che producano

beni limitati(beni economici).

Il rapporto azienda-ambiente

L’azienda che opera in un determinato luogo è soggetta ad una serie di input. Per questo motivo l’azienda deve

essere in grado di elaborare questi input in modo tale da tradurli in eventuali possibilità di sviluppo e sopravvivenza.

Gli input che l’azienda riceve provengono non solo dagli specifici ambienti di operatività(mercati), ma anche

dall’ambiente generale o macroambiente. Si individua di conseguenza un vero e proprio sistema ambiente che

interagisce con l’azienda. Il sistema ambiente è caratterizzato da diversi sottoblocchi strutturati nel modo seguente:

Come possiamo osservare l’ambiente generale(o macroambiente) si divide in:

o Ambiente fisico naturale: fa riferimento alla geografia e demografia del luogo di ubicazione dell’azienda.

Questo ambiente tiene conto della rete di trasporti e della reperibilità delle materie prime, fattori rilevanti

per l’azienda.

o Ambiente Culturale: tiene conto del grado di istruzione, della cultura, ideologia e religioni di un determinato

luogo e di tutti i fattori che fanno riferimento alla conoscenza e ai comportamenti delle persone che vi

abitano.

o Ambiente tecnologico: tiene conto del livello di conoscenze in campo scientifico e tecnologico. Da queste

conoscenze, l’azienda è stimolata al progresso tecnologico e all’adozione di moderne tecniche di produzione.

o Ambiente sociale: fa riferimento alla sussistenza o meno di classi o caste sociali che influenzano la mobilità

sociale, cioè al possibilità all’interno di un gruppo sociale, di passare da una determinata condizione ad

un'altra, migliore e superiore. Di conseguenza si riferisce alle condizioni di vita della comunità sociale.

o Ambiente economico: tiene conto dei vari fattori che caratterizzano l’economia locale, come l’inflazione,

scambi commerciali con l’estero, importazioni e tutti quegli elementi che influiscono sul PIL(prodotto interno

lordo).

o Ambiente politico legislativo: tiene conto della tipologia di governo che caratterizza il paese di ubicazione

dell’azienda. Da tale ambiente è condizionata l’attività economica a seconda delle norme vigenti che

regolano il mercato e gli scambi commerciali e il fisco.

L’azienda a seconda dei rapporti di scambio commerciali che opererà, ritaglia all’interno del macroambiente, un

ambiente specifico (microambiente). Gli scambi commerciali riguardano sia l’acquisizione di risorse, sia la cessione

dei beni e servizi prodotti.

Si individuano dunque 2 tipi di mercato:

• Mercato di acquisizione dei fattori produttivi

• Mercato di vendita dei beni e servizi prodotti

Per quanto concerne il primo tipo di mercato, cioè quello per l’acquisizione dei fattori produttivi, si individuano i

seguenti mercati:

• Mercato del lavoro

• Mercato delle materie prime

• Mercato delle tecnologie

• Mercato delle fonti di energia

• Mercato dei capitali.

Classificazione delle aziende

Le aziende sono classificabili seguendo diversi punti di vista. I principali metodi di classificazione tengono conto di:

• Fine dell’azienda

• Luogo di ubicazione o operatività

• Natura giuridica del soggetto che assume i diritti e gli obblighi derivanti dall’attività aziendale

• Dimensioni dell’azienda

Classificazione in base al fine aziendale:

A seconda del fine aziendale si individuano 3 tipi di aziende:

• Aziende di produzione

• Aziende di erogazione

• Aziende composte.

Le aziende di produzione comunemente chiamate imprese, sono aziende che producono beni e servizi al fine di

rivenderli per ottenere un utile, cioè una differenza positiva tra guadagni provenienti dalla cessione a terzi dei beni e

i servizi prodotti, e i costi di produzione. Esse si dividono in:

o imprese di produzione diretta di beni: sono quelle imprese, che attraverso una serie di operazioni e processi di

trasformazione, manipolazione e trattamento delle materie prime, svolgono l’attività di produzione dei beni economici.

Esempio di questa tipologia di azienda sono le imprese industriali che ricevono come input le materie prime e

attraverso la combinazione di lavoro umano e meccanico, ottengono un prodotto finito.

o Imprese di produzione indiretta di beni: sono imprese che operano il trasporto nel tempo e nello spazio delle risorse. Di

conseguenza non eseguono le operazioni di trasformazione e manipolazione. Esempio di tale azienda sono le imprese di

trasporto che acquistano beni da un luogo e li trasportano in un altro luogo per rivenderle. La loro attività è dunque

prevalentemente commerciale.

o Imprese di servizi: sono imprese che svolgono attività di supporto per le imprese o le persone. Esempio di tali aziende

sono le imprese bancarie e di assicurazione. Esse hanno l’obbiettivo di agevolare le attività aziendali o individuali.

Le aziende di erogazione invece svolgono un attività diretta al consumo della ricchezza per il soddisfacimento dei

beni. La ricchezza dunque diviene il mezzo per svolgere l’attività di gestione.

Le aziende di erogazione con soggetto giuridico privato sono gestite da cittadini o organizzazioni private che non

hanno il fine del lucro ma il diretto obbiettivo di erogare servizi di utilità collettiva. Esempi di tali aziende sono:

• associazioni e fondazioni i cui mezzi provengono dalle donazioni dei soci

• comitati organizzati da persone che raccolgono fondi per promuovere iniziative volte, direttamente o

indirettamente a soddisfare dei bisogni umani.

• Cooperative sociali

• Organizzazioni di volontariato

Le aziende di erogazione con soggetto giuridico pubblico sono invece:

• Stato

• Enti locali

• IPAB(istituti pubblici di assistenza e beneficenza)

• Aziende degli enti istituzionali(camera di commercio, INPS, INAIL).

Le aziende composte o miste sono quelle aziende nelle quali, oltre ad un attività di consumo della ricchezza, viene

svolta anche un attività di produzione intesa in senso ampio. Esempi di questo tipo di attività sono i Bar, ristoranti

ecc…

Classificazione in base all’ubicazione:

A seconda del luogo di operatività delle aziende, si individuano:

• aziende indivise

• aziende divise

Le aziende indivise operano in una sede unica, dove sono localizzati uffici e stabilimenti dell’azienda stessa.

Le aziende divise invece, dispongono di diversi uffici e stabilimenti, dislocati sul territorio (le banche ad esempio

hanno una sede centrale e diverse filiali distribuite sul territorio).

Classificazione in base alla natura dei soggetti giuridici:

A seconda del tipo di soggetto giuridico che fa capo ad una azienda si riconoscono i diritti e gli obblighi a cui di

conseguenza è sottoposta l’attività aziendale. In base alla natura del soggetto giuridico si distinguono:

• aziende private, soggette alle norme di diritto privato, divise in:

o individuali (singolo soggetto giuridico).

o Collettive (soggetto giuridico composto da una pluralità di persone fisiche).

• aziende pubbliche, soggette alle norme di diritto pubblico.

Nel nostro ordinamento si distinguono 2 tipologie di società:

Società di persone:

o prive di personalità giuridica

o prive di organi della società

o responsabilità personale, solidale ed illimitata dei soci.

Si individuano a questo propositi 3 tipi di società di persone: società semplice(S.S.), società a nome collettivo(S.n.c.) e

la società in accomandita semplice(S.A.S.).

Società di capitali:

o provviste di personalità giuridica

o provviste di organi deliberativi, di gestione e di controllo

o rispondono delle obbligazioni sociali con il proprio patrimonio

Sono società di capitali le società per azioni(S.p.A.), le società a responsabilità limitata(S.r.l.) e le società in

accomandita per azioni(S.A.P.A.).

Classificazione in base alle dimensioni dell’azienda:

La classificazione delle aziende in base alle loro dimensioni è fondamentale in quanto in base alla grandezza

dimensionale sono previste delle relative leggi e regolamenti specifici a cui verrà sottoposta l’azienda. Le aziende

vengono perciò classificate in piccole, medie, grandi.

• Per poterle classificare si tiene conto dei seguenti parametri:

• fatturato annuo

• numero dei lavoratori

• capitale investito

• valore aggiunto(utile creato)

• capacità di produzione degli impianti