PARTE I SEGNALI E SISTEMI - uniroma1.it...PARTE I . SEGNALI E SISTEMI. 1. Alcuni esempi introduttivi...
Transcript of PARTE I SEGNALI E SISTEMI - uniroma1.it...PARTE I . SEGNALI E SISTEMI. 1. Alcuni esempi introduttivi...
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
1
PARTE I
SEGNALI E SISTEMI
1. Alcuni esempi introduttivi
Gli schemi illustrati nella figura rappresentano quattro tipici sistemi elettronici, che
discuteremo brevemente allo scopo di fornire una introduzione esemplificativa ai sistemi, ai segnali
e ai problemi di interesse nel campo dell'elettronica.
Il primo esempio riguarda un sistema di acquisizione. Il trasduttore1 T fornisce il segnale
1 Per trasduttore s'intende un dispositivo che trasferisce un segnale da una grandezza fisica di supporto a un'altra, di
natura differente; per esempio da una grandezza non elettrica a una elettrica e in tal caso chiamato anche sensore.
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
2
x(t), che contiene sia l'informazione relativa all'andamento temporale della grandezza non elettrica
misurata sia un disturbo (rumore additivo). Si tratta di un segnale a basso livello, che l'amplificatore
A amplifica riproducendolo fedelmente e che il filtro F provvede a filtrare per migliorare il rapporto
segnale/rumore. Il convertitore A/D (analogico/digitale) trasforma infine il segnale analogico in
forma digitale permettendone l’acquisizione da parte di un calcolatore.
Il secondo esempio riguarda un sistema di trasmissione di dati. Qui il segnale x(t) ha natura
binaria, cioè consiste di una sequenza di impulsi a due livelli, che vengono trasmessi a distanza
attraverso un canale (per esempio una linea telefonica). All'uscita dal canale, il segnale y(t) è
deformato, rispetto a quello d'ingresso, sia dal rumore che dall'effetto della risposta del canale.
L'equalizzatore E (un particolare tipo di filtro) provvede a compensare gli effetti della risposta del
canale e a ridurre il rumore. Il rigeneratore RI (un discriminatore di segno) ritrasforma infine il
segnale nella forma iniziale di impulsi a due livelli.
Il terzo esempio riguarda il sistema di controllo del processo P (che consiste, per esempio,
nell'azionamento di un asse da parte di un motore). Qui si utilizza il principio della reazione
negativa in modo che l'uscita del processo (la posizione angolare dell'asse) segua fedelmente il
riferimento x(t), in particolare nel caso in cui questo subisca una variazione a gradino. A questo
provvedono il blocco di reazione H e il blocco di compensazione W, generando il segnale di
comando m(t).
L'ultimo esempio riguarda un sistema di alimentazione in continua. La corrente alternata
della rete viene prima rettificata dal raddrizzatore RA, poi filtrata e infine applicata al regolatore RE
che ne stabilizza il valore della tensione. Quest'ultimo dispositivo funziona in base al principio della
reazione negativa, cioè in modo simile a quello del sistema di controllo, ma utilizzando un
riferimento interno costante per produrre un'uscita costante.
Qui richiamiamo l'attenzione sulla natura dei segnali in gioco e soprattutto sulle funzioni di
elaborazione dei segnali che i vari blocchi sono chiamati a compiere (amplificare fedelmente un
segnale, trasmettere solo certe frequenze e non altre, rettificare un'onda sinusoidale, ecc.) negli
esempi precedenti.
Accenniamo ora brevemente al progetto dei sistemi elettronici. Il progetto di un sistema, in
generale, ha inizio attraverso la stesura delle specifiche, che ne stabiliscono le prestazioni essenziali
in relazioni agli obiettivi prefissati (un sistema di alimentazione, per esempio, deve fornire corrente
al carico collegato all'uscita mantenendo costante la tensione d'uscita entro limiti prefissati e con un
residuo di alternata inferiore a un valore prefissato, per variazioni date della tensione alternata
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
3
d'ingresso, del carico e della temperatura).
Sulla base delle specifiche, che riguardano generalmente anche l'affidabilità (cioè la
probabilità che il sistema funzioni correttamente su un tempo prefissato in condizioni ambientali
prefissate Appendice C) e la spesa ammissibile, viene scelta la struttura generale del sistema,
tenendo conto delle tecnologie disponibili anche in relazione ai costi e al numero di apparati che si
intendono realizzare.
Si procede quindi al progetto di massima delle varie parti del sistema e poi al progetto
dettagliato dei circuiti che le costituiscono, sempre tenendo conto della componentistica disponibile
e dei costi relativi. In questa fase ci si avvale a volte di procedimenti basati su criteri di sintesi, ma
più spesso si procede invece per tentativi, cioè analizzando le prestazioni ottenibili con una data
struttura per verificare se sono accettabili, altrimenti esaminando altre soluzioni.
Notiamo, per concludere, che nella progettazione giocano tre fattori essenziali: la
conoscenza delle tecnologie realizzative disponibili, la conoscenza delle metodologie di progetto, in
particolare di analisi e di calcolo, e l'esperienza.
I SEGNALI
Come mostrano gli esempi fatti prima, la funzione essenziale dei sistemi, in elettronica, è
quella di elaborare segnali, intesi come grandezze fisiche variabili nel tempo che costituiscono
generalmente il supporto di informazioni. In quanto segue esamineremo prima alcune caratteristiche
generali dei segnali e poi alcune famiglie di segnali che si usano più di frequente.
2. Segnali analogici e digitali
Una distinzione fondamentale fra i segnali è quella che li suddivide in analogici e digitali. I
primi possono assumere qualsiasi valore in un intervallo prefissato, chiamato "gamma dinamica"
(per esempio è un segnale analogico una tensione variabile fra -15 e +15 volt). I segnali analogici
sono dunque grandezze reali. I segnali digitali (o numerici), invece, possono assumere solo valori
discreti appartenenti a un insieme finito; spesso si tratta di grandezze a due valori, cioè binarie.
La teoria dell'informazione stabilisce che l'informazione associata a un campione di un
segnale, misurata in bit, è data dal logaritmo in base due del numero dei diversi valori possibili che
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
4
il segnale stesso può assumere (se sono tutti equiprobabili). L'informazione, a un dato istante,
relativa a un segnale digitale binario è dunque 1 bit (3,322 bit nel caso di un segnale digitale
decimale). L'informazione associata a un segnale analogico non è invece infinita, come potrebbe
sembrare. Il fatto è che gli infiniti valori che un segnale analogico può assumere non sono, in realtà,
tutti distinguibili fra loro a causa dei disturbi che sono sempre presenti in un sistema fisico reale (fra
cui, inevitabile, il rumore di fondo, che discende da proprietà fondamentali della materia, come
l'agitazione termica e la quantizzazione della carica elettrica Parte IX). Si conclude pertanto che
l'informazione associata a un segnale analogico, a un dato istante, è log2 N, dove N è il numero di
livelli effettivamente distinguibili, esprimibile come V/V, dove V è la gamma dinamica e V è
la fascia d'incertezza dovuta al rumore.
3. Segnali a tempo continuo e a tempo discreto
Un'altra distinzione fondamentale riguarda gli istanti di tempo a cui i segnali sono definiti. I
segnali a tempo continuo sono rappresentati da funzioni il cui dominio è costituito da tutti gli istanti
contenuti in un intervallo di tempo (o su tutto l'asse dei tempi): qui il tempo è una grandezza reale.
Il dominio dei segnali a tempo discreto è invece costituito da un insieme discreto di istanti, che nella
maggior parte dei casi sono fra loro equispaziati di un intervallo Tc detto passo di campionamento.
La tabella seguente raccoglie le denominazioni usate per designare i segnali in relazione alle due
suddivisioni che abbiamo considerato.
tempo reale discreto
ampiezza
reale segnali analogici (a tempo continuo) segnali campionati
discreta (non usati) segnali digitali
Per chiarire quanto è stato esposto, facciamo un esempio considerando il sistema mostrato
nella figura a pagina seguente, che provvede alla conversione di un segnale dalla forma analogica a
quella digitale (convertitore A/D).
Nel campionatore CA il segnale analogico d'ingresso x(t) viene campionato periodicamente,
cioè quantizzato secondo l'asse dei tempi agli istanti definiti dagli impulsi forniti dall'orologio O
con periodo Tc (il campionatore può essere immaginato, per semplicità, come un moltiplicatore che
fornisce in uscita il prodotto fra il segnale x(t) e gli impulsi di campionamento, intesi di durata
brevissima e di area unitaria). Si ottiene così il segnale campionato y(kTc), costituito da una
sequenza di impulsi (di ampiezza reale) agli istanti discreti di tempo kTc. Questo viene applicato al
quantizzatore Q, che produce in uscita il segnale discretizzato z(kTc) associando ad ogni
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
5
determinato intervallo di valori di y il corrispondente valore di z (per esempio, z è uguale alla parte
intera di y). Il segnale z(kTc) viene poi rappresentato mediante un codice opportuno, usando più
sequenze di impulsi binari zi(kTc) in parallelo, ciascuna delle quali rappresenta un bit della parola di
codice. A quest'ultima operazione provvede il codificatore CO.
E' importante notare che l'operazione di quantizzazione di ampiezza non è reversibile (non
esiste, cioè, una corrispondente operazione inversa che permetta di ricostruire il segnale di
partenza); essa conduce pertanto a perdita d'informazione. L'operazione di quantizzazione
temporale, cioè il campionamento, può, invece, essere resa reversibile scegliendo il passo di
campionamento opportunamente piccolo rispetto alla velocità di variazione del segnale. Il teorema
del campionamento stabilisce, più precisamente, che un segnale x(t) a banda limitata, cioè il cui
contenuto spettrale svanisce al di sopra di una data frequenza fM, può essere ricostruito esattamente
quando si conoscano i suoi campioni, se questi sono equispaziati con passo:
(1) Tc 1/2fM
cioè se la frequenza di campionamento 1/Tc è maggiore o uguale della frequenza 2fM, detta
frequenza di Nyquist. La formula di ricostruzione è la seguente:
(2) sin( ( ))
( ) ( )( )
M cc
k M c
t kTx t x kT
t kT
Spesso, nella pratica, il segnale viene campionato a una frequenza maggiore di 2fM e diventa
possibile usare formule di ricostruzione approssimata più semplici della (2). Si usano, per esempio,
tecniche di interpolazione, la più semplice delle quali è quella di ordine zero (campionamento e
tenuta, sample and hold): in tal caso il segnale analogico ricostruito ha valore costante, pari a quello
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
6
dell'ultimo campione, durante ciascun intervallo Tc.
Le tensioni, le correnti e tutte le altre grandezze fisiche variabili sono segnali analogici, in quanto funzioni reali
della variabile reale tempo. Notiamo che di solito anche le grandezze che costituiscono il supporto dei segnali digitali
sono, in realtà analogiche anch'esse (per convincersi di questo, basta osservare all'oscilloscopio l'andamento temporale
della forma d'onda di un segnale in un circuito logico). Si parla, però, di segnali campionati se si considera significativo
il valore della grandezza fisica di supporto (che può essere una sequenza di impulsi più o meno stretti) solo a
determinati valori discreti del tempo; si parla poi di segnali digitali solo se, oltre a restringere l'attenzione a determinati
istanti (come prima), si considera significativa solo l’appartenenza del valore della grandezza fisica a determinate
fasce di valori (per esempio, all'uscita di un circuito logico si possono considerare "0" tutti i valori della tensione fra 0 e
0,6 volt, "1" tutti i valori fra 3,2 e 5 volt; il significato di queste due fasce di valori viene poi riconosciuto correttamente
quando il segnale viene applicato all'ingresso di un altro circuito logico appartenente alla stessa "famiglia" del primo).
In quanto segue ci occuperemo degli andamenti temporali dei segnali, in particolare
analogici, considerando le funzioni che si usano più di frequente. Restringeremo così la nostra
attenzione ai soli segnali deterministici, che sono descritti da funzioni matematiche, a differenza dei
segnali casuali (o stocastici o aleatori) che sono invece descrivibili solo in termini delle loro
proprietà statistiche ( Parte IX). I segnali casuali sono infatti associati a fenomeni, come le
fluttuazioni (il rumore), di natura intrinsecamente statistica.
4. Funzioni sinusoidali
La famiglia delle funzioni sinusoidali presenta particolare interesse in elettronica, sia perché
il teorema di Fourier permette di scomporre in funzioni sinusoidali elementari tutte le funzioni
periodiche di interesse pratico (e l'integrale di Fourier compie analoga operazione su un'ampia
classe di funzioni aperiodiche) sia per altri motivi che vedremo. Rappresentiamo le funzioni
sinusoidali, cioè la classe dei seni e dei coseni, nella forma generale:
(3) x(t) = A sin (t + )
dove A rappresenta l'ampiezza (valore di picco); = 2f rappresenta la pulsazione o frequenza
angolare, che si misura in radianti/secondo (rad/s), mentre la frequenza f si misura in hertz (Hz);
rappresenta la fase, che si misura in radianti (o in gradi). Sono dunque sufficienti i valori di tre
parametri reali: A, e , per determinare tutto l'andamento temporale di una sinusoide.
Il valore efficace (root mean square, r.m.s.) della sinusoide (3) è
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
7
(4) 2
0
1( )
2
T
eff
Ax x t dt
T
Le funzioni sinusoidali sono periodiche2 con periodo T = 1/f = 2/. Derivando o
integrando una sinusoide rispetto al tempo, quante volte si vuole, si ottiene ancora una sinusoide
della stessa frequenza. Sommando assieme due sinusoidi, esse mantengono la propria identità, in
particolare le loro frequenze. Il prodotto di due sinusoidi conduce invece a una somma di sinusoidi
con frequenze diverse da quelle di partenza.
Più in generale, si dimostra facilmente che eseguendo operazioni lineari (algebriche o
differenziali) su una combinazione lineare di sinusoidi di frequenze qualsiasi, si ottiene ancora una
combinazione lineare di sinusoidi delle stesse frequenze; eseguendo invece operazioni nonlineari si
ottengono anche sinusoidi a frequenze diverse di quelle di partenza, in particolare alle cosiddette
frequenze di combinazione:
(5) fnmp... = nf1 mf2 pf3 ..... con n, m, p, ... interi
dove fi sono le frequenze delle sinusoidi che interagiscono.
Esercizio. Determinare il contenuto in sinusoidi elementari del segnale x(t) = (cos1t + cos2t)3.
Quelle considerate sinora sono funzioni sinusoidali armoniche pure, che si estendono
sull'asse dei tempi da - a +. Oltre ad esse si considerano spesso sinusoidi che si estendono solo
sulla parte positiva dell'asse dei tempi e anche "pacchetti d'onda", cioè sinusoidi che assumono
valori diversi da zero solo in un determinato intervallo; queste ultime costituiscono un esempio di
segnale transitorio, cioè dotato di supporto temporale limitato.
Mediante l'integrale di Fourier si rileva che il contenuto spettrale di un pacchetto d'onda di
frequenza f non è una riga alla frequenza f (come nel caso armonico), ma costituisce uno spettro
continuo, tanto più esteso attorno a f quanto più breve è la durata del pacchetto.
2 Non sono periodiche, in generale, le funzioni sinusoidali a tempo discreto del tipo x(kTc)=sin(ωkTc+f), mentre è
sempre periodico il loro inviluppo.
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
8
5. Funzioni periodiche
Fra le funzioni periodiche più usate in pratica consideriamo le onde quadre e le onde
triangolari. L'onda quadra simmetrica unitaria si può rappresentare nella forma
(6) x(t) = sgn(sin(t + ))
dove si è usata la funzione segno, che rappresenta appunto il segno del suo argomento (sgn(x)=1 se
x>0, sgn(x)=-1 se x<0). Le onde quadre presentano in ciascun periodo soltanto due discontinuità, in
corrispondenza alle transizioni di livello, sicché sono sviluppabili in serie di Fourier.
Sviluppando l'onda quadra mostrata nella figura a pagina seguente, cioè A sgn(cos t), si
ottiene:
(7) cos 3 cos 54
cos ...3 5
t tAx t t
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
9
Queste onde, oltre alla fondamentale, contengono dunque solo le armoniche dispari, pesate
secondo l'inverso dell'ordine armonico.
Sviluppando in serie l'onda triangolare mostrata nella figura si ottiene:
(8)
2
cos 3 cos 58cos ...
9 25
t tAx t t
Le onde triangolari hanno dunque lo stesso contenuto spettrale delle onde quadre, ma pesato
diversamente, cioè secondo l'inverso del quadrato dell'ordine armonico. Questo risultato è in
accordo col fatto che un'onda triangolare costituisce l'integrale nel tempo dell'onda quadra della
stessa frequenza.
La definizione di valore efficace (4) può essere applicata alle onde quadre (xeff = A), alle
onde triangolari (xeff = A/3) e a qualsiasi altro segnale periodico.
Spesso il valore efficace di un segnale periodico si determina integrando e mediando il
quadrato del segnale su un intervallo più lungo del periodo. Il risultato di questa operazione è esatto
(cioè coincide con quello dato dalla (4)) solo se la durata dell'intervallo d'integrazione è un multiplo
del periodo; altrimenti si commette un errore che, in generale, si riduce al crescere del rapporto fra
la durata dell'intervallo e il periodo del segnale. Quanto si è detto conduce alla seguente definizione
alternativa di valore efficace:
(9) 2lim 1
( )2
o
o
T
effT
o o
x x t dtT T
dove 2To è il tempo di osservazione su cui si esegue l'integrazione, che però vale solo per segnali a
media nulla. Operando su tempo finito si ottiene una stima di xeff, la cui precisione dipende dalla
durata del tempo di osservazione.
Un vantaggio importantissimo della definizione (9) è che essa può essere applicata anche a
segnali non periodici, per esempio a segnali casuali, purché stazionari, cioè con proprietà statistiche
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
10
indipendenti dal tempo.
Per ottenere la deviazione standard occorre invece sottrarre dal segnale x(t) il valor medio
xmedio, utilizzando la definizione:
(9a) 2lim 1
( ( ) )2
o
o
T
x medioT
o o
x t x dtT T
Ricordiamo infine che si definisce anche il fattore di picco (o di cresta), dato dal rapporto
fra l'ampiezza massima (valore di picco) e la deviazione standard (valore efficace per segnali a
media nulla). Questa grandezza è importante ai fini del dimensionamento della gamma dinamica al
fine di evitare che i segnali subiscano distorsione.
6. La famiglia delle funzioni impulsive
Un'altra importante famiglia di funzioni è costituita dalla funzione impulsiva, o delta di
Dirac, e dai suoi integrali successivi. Notiamo che non si tratta di funzioni ordinarie, ma di
"funzioni generalizzate", che si introducono nell'ambito della teoria delle distribuzioni3.
La funzione impulsiva unitaria, indicata con (t), è una funzione di area unitaria che assume
valore nullo ovunque eccetto l'origine e gode della proprietà integrale:
(10) 1t dt
con (t) = 0 per qualsiasi t 0
Si noti che tale funzione ha dimensioni fisiche pari all'inverso di quelle della variabile
d'integrazione (cioè hertz, nel caso della (10)). Con la notazione A(t-t0) si indica una delta di area
(o, come si dice abitualmente, di intensità) A al tempo t0. Le
funzioni impulsive si rappresentano graficamente con una
freccia verticale al tempo di occorrenza, di lunghezza
proporzionale all'intensità.
La funzione delta è pari: infatti (t-to) = (to-t). Essa gode inoltre della seguente proprietà,
detta di "campionamento":
(11) o ox t t t dt x t
3 Per ulteriori approfondimenti rimandiamo al corso di Metodi matematici.
A
to t
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
11
La funzione impulsiva unitaria (t) può essere introdotta intuitivamente
come il limite di una sequenza di impulsi rettangolari la cui durata venga fatta
tendere a zero e la cui ampiezza, contemporaneamente, venga fatta tendere
all'infinito, col vincolo che l'area si mantenga unitaria.
L'impulso rettangolare a) è la derivata temporale del segnale b). Quando tende a zero, i due
segnali tendono, rispettivamente, all'impulso unitario e al gradino unitario.
Una definizione più rigorosa della funzione delta di Dirac è quella in termini di una
opportuna sequenza "regolare" di funzioni "buone"4 fn(t), tale cioè che il limite
lim
nn
f t x t dt
esiste e vale precisamente x(0). E' da questa proprietà che derivano la (10) e
la (11). Due esempi di sequenze siffatte, costituite dunque da funzioni ordinarie (in particolare prive
di discontinuità), sono i seguenti:
fn(t) = (n/1/2
exp(-nt2) ; gn(t) = sin(nt)/t
Nessuna grandezza fisica, in realtà, può
assumere valore infinito. E' dunque evidente che la
funzione (t) rappresenta solo un modello per la
rappresentazione di segnali, comunque variabili,
che però hanno durata brevissima e ampiezza
grandissima (come quando si considera il teorema
dell'impulso in meccanica). Questo modello è
estremamente utile ed efficace, non tanto per descrivere il segnale stesso, ma, sopratutto, per
studiare gli effetti che esso determina quando viene applicato a un sistema.
Quando in elettrostatica si parla di "carica puntiforme", in un punto Po, si utilizza implicitamente il concetto di
funzione delta: la carica puntiforme è infatti una delta di densità di carica, nel cui argomento figurano le tre coordinate
spaziali (xo,yo,zo) del punto Po: (x-xo,y-yo,z-zo). Sebbene una densità di carica infinita non abbia senso, il concetto di
carica puntiforme si rivela utilissimo (per esempio per calcolare il potenziale in un punto P diverso da Po). Discorso
analogo vale per la nozione di “massa puntiforme”.
L'integrale della (t) prende il nome di funzione gradino unitario (unit step function) e si
4 Per funzioni “buone” s’intendono quelle che sono derivabili dovunque un numero qualsiasi di volte e che, quando il
loro argomento x tende all’infinito, tendono a zero, assieme a tutte le loro derivate, più rapidamente di |x|-n
per qualsiasi
n.
n=1
n=7
2 0 20
0.5
1
1.51.493
0
f t 1( )
f t 4( )
f t 7( )
2.52.5 t
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
12
indica con la notazione u(t) (oppure 1(t) o -1(t)):
(12) 0 0
1 0
t per tu t d
per t
Si tratta anche qui di una funzione generalizzata, che presenta una discontinuità all'origine,
dove il suo valore non è definito. Un gradino di ampiezza A, con discontinuità al tempo to, si indica
con la notazione Au(t-to).
A u(t-to)
Anche la funzione gradino unitario, come la delta, può essere considerata come il limite di
una sequenza di opportune funzioni.
Mediante successive integrazioni si ottengono altre funzioni usate in elettronica: la rampa
unitaria r(t) = t u(t), la
parabola unitaria p(t) = ½
t² u(t), e così via.
Usando opportune
combinazioni di queste
funzioni si possono
rappresentare molti segnali
di interesse pratico. Per
esempio, un impulso
rettangolare di ampiezza
unitaria nell'intervallo fra t1
e t2, si rappresenta con
x(t) = u(t-t1) - u(t-t2).
Esercizio. Rappresentare in termini di rampe e gradini un impulso trapezoidale di ampiezza A, che ha inizio al tempo t1
e termina al tempo t4, assumendo valore costante A fra t2 e t3.
Alcune delle funzioni che abbiamo appena considerato costituiscono in realtà soltanto dei modelli
dei segnali reali. Infatti, non sono realizzabili nè impulsi di durata nulla e di ampiezza infinita, nè
segnali che impieghino un tempo nullo per portarsi da un livello a un altro (gradini ideali). In
to
t
A
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
13
particolare è ragionevole approssimare con una funzione delta un impulso reale, come quello
mostrato nella figura seguente, soltanto se la sua durata è significativamente inferiore al tempo
caratteristico di risposta del sistema a cui viene applicato per studiarne l'effetto. Perché allora la
risposta alla delta non differisce apprezzabilmente da quella all’impulso reale.
Un impulso che duri 1 microsecondo, per esempio, è bene approssimabile con una delta
quando venga applicato a un amplificatore per audiofrequenze, ma non così se costituisce l'ingresso
a un amplificatore con banda passante più estesa, con tempi caratteristici di risposta nella regione
del µs o ancora più brevi. In quest'ultimo caso, sarà necessario rappresentare con maggior dettaglio
l'andamento temporale dell'impulso per determinare più realisticamente il suo effetto.
Per caratterizzare un impulso reale x(t), che
abbia supporto temporale nell'intervallo t1, t2, si usano
in pratica i seguenti parametri:
l'ampiezza massima xM, l'area
(13) 2
1
t
tA x t dt
la cosiddetta "energia"5.
(14) 2
1
2t
tE x t dt
la durata T, definita come la distanza fra i due istanti dove il segnale assume valore pari alla metà
dell'ampiezza massima, e i due tempi di transizione. Questi sono il tempo di salita (rise time) tr,
definito come la distanza fra i due istanti in cui, nel fronte d'onda iniziale, il segnale assume valore
pari al 10% e al 90% del massimo6, e il tempo di discesa (fall time) tf, definito allo stesso modo del
precedente, ma per il fronte d'onda finale.
Le definizioni dei tempi di transizione date sopra sono dette pratiche o "empiriche" perché
rivolte a facilitare la misura di queste grandezze (per esempio, attraverso l'osservazione
all'oscilloscopio). Vedremo in seguito anche altre definizioni, di natura invece analitica.
5 Le dimensioni fisiche di questa grandezza non sono, in generale, quelli di un’energia. Tuttavia, se il segnale x(t)
rappresenta una corrente elettrica (una tensione), la grandezza E ha lo stesso valore numerico dell’energia dissipata in
un resistore unitario attraversato dalla corrente (ai terminali del quale sia applicata la tensione).
6 Questa particolare convenzione ha lo scopo pratico di facilitare la misura dei tempi di transizione nelle osservazioni
all’oscilloscopio.
| tr | | tf | t
xM
0,9
0,5
0,1
T
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
14
I SISTEMI
7. Sistemi e modelli
Il termine sistema viene usato comunemente con uno spettro molto vasto di significati. Noi
lo useremo per indicare sia i sistemi fisici, naturali o artificiali, costituiti da un aggregato di più
elementi (o anche da un solo elemento), sia i modelli matematici che li rappresentano formalmente.
Il termine sistema può essere anche usato, a un livello ancora più astratto, per indicare una relazione
fra due funzioni del tempo, definita dall'operatore che, applicato alla prima, fornisce la seconda7.
L'aspetto modellistico ha un ruolo essenziale nella trattazione dei sistemi: dei molteplici
aspetti di un dato sistema fisico, un modello permette infatti di evidenziare solo quelli che hanno
rilevanza rispetto a un determinato punto di vista. Ne consegue che, a seconda dei casi, si potranno
considerare per un medesimo sistema modelli anche assai diversi fra loro. Nella modellizzazione
dei sistemi, poi, l'economia ha un ruolo essenziale: non soltanto occorre tener conto al meglio di
tutti gli aspetti che si considerano importanti ai fini che interessano, ma è opportuno limitarsi solo
ad essi. Si cerca sempre, infatti, di arrivare a una rappresentazione che sia, al tempo stesso,
adeguatamente significativa ma anche sufficientemente semplice.
Facciamo un esempio considerando un dispositivo, il resistore, che, solo in apparenza, si presenta come
semplicissimo e di ovvia rappresentazione. Il resistore può essere descritto in termini essenziali mediante la legge di
Ohm, se il punto di vista è puramente elettrico; dal punto di vista termico, d'altra parte, esso costituisce una sorgente di
calore e altri punti di vista ancora possono essere presi come base per la costruzione di altri modelli del resistore (trave
sospesa agli estremi, generatore di rumore, ...). Ciascuno di questi modelli, poi, può venire raffinato per rendere meglio
conto del comportamento del dispositivo: nel caso elettrico potremo tener conto della sua induttanza e capacità
parassita; nel caso termico, della sua capacità termica e della resistenza termica che incontra lo smaltimento verso
l'esterno del calore prodotto per effetto Joule; e così via. Ma a volte può essere necessario anche tenere conto
dell'interazione fra diversi punti di vista; per esempio, volendo tener conto della dipendenza dalla temperatura della
conducibilità elettrica del materiale che costituisce il resistore, occorrerà utilizzare un modello del dispositivo che ne
consideri, al tempo stesso, gli effetti elettrici e termici. E qui si potrebbe andare avanti a lungo.
Il modello matematico di un sistema fisico è costituito da un insieme di variabili, ciascuna
delle quali rappresenta una determinata grandezza fisica del sistema, e da un insieme di relazioni
matematiche fra le variabili. Il modello stabilisce così in modo formale il comportamento del
sistema.
7 Non è affatto detto, in generale, che a un "sistema" descritto da un dato operatore corrisponda effettivamente un
sistema fisico che realizzi tale operazione.
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
15
A seconda dei casi, ci si può limitare a considerare le sole variabili di ingresso e di uscita,
attraverso le quali il sistema considerato interagisce con l'esterno, oppure anche variabili interne al
sistema stesso (alcune di queste, come vedremo, giocano un ruolo importantissimo). Nei sistemi
artificiali, costruiti per un determinato scopo, è generalmente semplice stabilire quali variabili
costituiscono gli ingressi e quali le uscite. Nei sistemi naturali questo, invece, non è affatto ovvio; la
scelta, tuttavia, è certamente guidata dagli obiettivi specifici che ciò si prefigge nella costruzione del
modello, oltre che dall'intuizione fisica. L’obbiettivo, generalmente, è quello di giungere a una
rappresentazione ingresso-uscita, che permetta di esprimere le grandezze d'uscita del sistema
come variabili dipendenti di opportune relazioni espresse in termini di variabili indipendenti
costituite dalle grandezze d'ingresso.
Così procedendo, l'elaborazione compiuta dal sistema viene ad essere caratterizzata da un
insieme di operatori k, uno per ciascuna variabile d'uscita, che fanno corrispondere in modo
univoco gli andamenti temporali di ciascuna delle uscite yk(t) a quelli dell'insieme degli ingressi
xh(t). Nel caso di un solo ingresso e di una sola uscita si ha:
x(t)
{y(t)
(15) y(t) = {x(t)
La natura di questi operatori dipende dalla natura dei modelli con cui si rappresentano i
sistemi. Il caso che considereremo più spesso è quello di operatori lineari integro-differenziali.
Facciamo un esempio relativo ad un circuito
RLC serie, in cui assumiamo come ingresso l'intensità
i(t) della corrente che lo attraversa e come uscita la
tensione v(t) ai suoi terminali.
L'equazione del circuito è:
(16) ( ) 1
( ) ( )tdi t
L R i t i d v tdt C
e si ha quindi
1 td
L R ddt C
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
16
Una prima distinzione fra i sistemi va fatta in relazione al tipo dei segnali in gioco: analogici
o digitali, a tempo continuo o a tempo discreto. Qualsiasi circuito elettrico è evidentemente un
sistema analogico; un calcolatore elettronico, d'altra parte, sebbene sia anch'esso un sistema
analogico, viene rappresentato assai più efficacemente come un sistema digitale (generalmente,
infatti, non ci interessa il dettaglio fine del comportamento dei suoi circuiti, mentre ci interessano i
segnali digitali che esso presenta in uscita, a determinati istanti di tempo, in relazione agli ingressi
digitali ad esso applicati).
Consideriamo ora alcune proprietà fondamentali dei sistemi che riguardano più direttamente
il loro comportamento, in relazione alla natura delle elaborazioni che essi compiono sui segnali.
8. Sistemi statici e sistemi dinamici
Un sistema si dice statico (privo di memoria o istantaneo) quando le sue variabili d'uscita, a
qualsiasi istante, dipendono solo dai valori degli ingressi a quello stesso istante. Ciò significa che le
equazioni del sistema sono di tipo algebrico. Un sistema si dice invece dinamico (dotato di
memoria o non istantaneo) quando, a un istante qualsiasi, le sue variabili d'uscita dipendono anche
dai valori degli ingressi a tempi precedenti. Ciò significa che le equazioni del sistema sono di tipo
differenziale (oppure, nel caso dei sistemi a tempo discreto, si tratta di equazioni alle differenze).
Questa distinzione si applica sia ai sistemi analogici che a quelli digitali: questi ultimi sono
spesso chiamati combinatori se statici, sequenziali se dinamici (una porta logica è un elemento
statico, un flip-flop un elemento dinamico). Il fatto fisico essenziale che distingue i sistemi dinamici
da quelli statici è la presenza di elementi immagazzinatori di energia (condensatori, induttori,
capacità termiche, masse, molle, ...), da cui consegue la capacità di memorizzare informazioni.
In un sistema dinamico, la memoria del passato è associata proprio a questi elementi. La
conseguenza è che l'andamento temporale delle variabili interne e d'uscita di un sistema, a partire da
un dato istante, dipende sia dagli ingressi applicati a partire da quell'istante sia dall'insieme dei
valori (a quello stesso istante) delle variabili associate agli elementi immagazzinatori di energia.
Questi valori, che costituiscono una sintesi essenziale dell'effetto degli ingressi applicati da -
all'istante considerato, rappresentano l'insieme delle condizioni iniziali per le equazioni differenziali
(o alle differenze) del sistema. Per tale motivo queste particolari variabili interne sono chiamate
variabili di stato, e l'insieme dei loro valori, a ciascun istante, rappresenta lo stato del sistema. Per
esempio, le variabili di stato del circuito RLC considerato prima sono la tensione del condensatore e
la corrente attraverso l'induttore.
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
17
L'elaborazione dinamica di un sistema riguarda solamente la dipendenza delle variabili di
stato dall'ingresso. L'uscita, infatti, dipende dallo stato (ed eventualmente anche dall'ingresso)
attraverso relazioni algebriche. Questa è la rappresentazione ingresso-stato-uscita, che è
schematizzata nella figura (dove lo stato è rappresentato con il vettore s(t), le cui componenti sono
le variabili di stato) per un sistema con un
ingresso e una uscita. Per quanto detto prima il
blocco A è un sistema dinamico, il blocco B un
sistema statico.
Un caso importante è quello dei sistemi descritti da equazioni differenziali alle derivate
parziali, dove ha interesse la distribuzione dell'energia nello spazio, oltre che il suo andamento nel
tempo. Questo è quanto riguarda, per esempio, le vibrazioni di una sbarra metallica o il campo
elettromagnetico in una cavità risonante. Qui il numero delle variabili di stato è evidentemente
infinito. Gli spostamenti dei punti della sbarra e le intensità dei campi nella cavità sono infatti
funzioni delle coordinate spaziali, oltre che del tempo. Di solito è possibile ricondurre questi
problemi in termini di una molteplicità di equazioni differenziali ordinarie, con la tecnica dello
sviluppo in modi normali.
Assumere un modello statico significa ignorare gli effetti di inerzia (di varia natura) che sono peraltro sempre
presenti in un sistema fisico reale, ammettendo così che l'uscita risponda istantaneamente all'ingresso e, in particolare,
che la risposta a una eccitazione sinusoidale sia sempre la stessa, per qualunque frequenza, anche se elevatissima.
Sebbene ciò sia certamente sbagliato in linea di principio, è evidente l'utilità di un modello statico per rappresentare i
fenomeni in cui gli effetti d'inerzia siano trascurabili sulla scala dei tempi (o delle frequenze) che interessa.
9. Sistemi lineari e sistemi nonlineari
Dal punto di vista formale, un sistema è lineare se tali sono le equazioni che ne
costituiscono il modello, altrimenti è nonlineare. Dal punto di vista fisico è più significativo
definire lineari i sistemi che verificano il principio di sovrapposizione degli effetti. Questo
principio stabilisce che in un sistema lineare, applicando al quale (separatamente) gli ingressi x1(t) e
x2(t) si ottengono rispettivamente le risposte y1(t) e y2(t), l'applicazione di una combinazione lineare
degli ingressi x(t)=ax1(t)+bx2(t) provoca la risposta y(t)=ay1(t)+by2(t) (per qualunque valore dei
coefficienti a e b, e per qualunque coppia di segnali d'ingresso x1(t) e x2(t)). Tutto ciò va considerato
al netto dell'effetto delle condizioni iniziali: pertanto, prima dell'applicazione dei vari ingressi, il
sistema si deve trovare nello stato di riposo, cioè con tutte le variabili di stato uguali a zero.
A x(t)
B y(t)
s(t)
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
18
Il principio di sovrapposizione è evidentemente verificato dai sistemi descritti da equazioni
lineari. Esso presenta grande interesse anche dal punto di vista pratico dato che può essere utilizzato
come test sperimentale della linearità di un sistema.
Facciamo un esempio, per mostrare che la proporzionalità tra causa ed effetto (chiamata "omogeneità") non è
sufficiente a determinare la linearità di un sistema, perché occorre che sia verificata anche l'”additività”, richiesta
appunto dal principio di sovrapposizione degli effetti. Consideriamo un circuito che, quando la variabile d'ingresso
attraversa lo zero, produce in uscita un impulso di ampiezza pari alla derivata dell'ingresso a quell'istante. L'effetto è
proporzionale alla causa sicché il sistema è omogeneo; esso, però, non è additivo (applicando all’ingresso la somma di
due segnali, gli attraversamenti dello zero della somma si verificano a istanti diversi rispetto a quelli di ciascun segnale)
e quindi non è lineare.
L'importanza dei sistemi lineari è duplice: da un lato un gran numero di fenomeni fisici è
ragionevolmente descritto da equazioni lineari e un modello lineare è dunque appropriato per i
dispositivi basati su questi effetti, dall'altro si tende ad usare modelli lineari anche per sistemi che
tali non sono, dal momento che la trattazione matematica dei sistemi nonlineari è generalmente
assai più complessa di quella dei sistemi lineari (per questi ultimi esistono metodi di analisi che
sono applicabili in generale, non così per i sistemi nonlineari).
D'altra parte, l'interesse per i sistemi nonlineari deriva da almeno tre motivi:
1) molti fenomeni fisici sono intrinsecamente nonlineari, in particolare quelli su cui si basa
il funzionamento di dispositivi elettronici assai importanti;
2) molti sistemi fisici reali sono lineari solo in prima approssimazione; generalmente, infatti,
la linearità è verificata accuratamente solo su un intervallo limitato dei valori delle variabili: quando
questi diventano troppo piccoli entrano in gioco effetti di quantizzazione; quando diventano troppo
grandi, effetti di rottura;
3) l'elaborazione dei segnali richiede, in molti casi assai importanti, la disponibilità di
funzioni nonlineari, che si realizzano mediante appositi dispositivi e circuiti (raddrizzatori,
discriminatori, circuiti logici, ecc...).
A ciò si aggiunge l'interesse legato alla eccezionale varietà e ricchezza di comportamenti dei
sistemi nonlineari, nel quadro degli studi sulla dinamica nonlineare che sono da qualche tempo in
vivace sviluppo, e anche l'ovvia considerazione che, dal punto di vista matematico, la classe dei
sistemi nonlineari è straordinariamente più vasta di quelli lineari.
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
19
Esempi di blocchi funzionali nonlineari usati in elettronica.
Qui non consideriamo i metodi che sono stati introdotti per l'analisi dei sistemi nonlineari
(in realtà solo per alcune particolari classi di tali sistemi). Accenniamo, invece, a due metodi di
linearizzazione dei sistemi nonlineari statici, che sono usati per ricondurne l'analisi nel quadro di
quelli lineari. Entrambi i metodi, ma sopratutto il primo, sono molto usati nella trattazione dei
dispositivi elettronici.
Consideriamo un sistema descritto dalla relazione ingresso-uscita:
(17) y = f(x)
che supponiamo derivabile, con derivata continua. Poiché si tratta di una relazione algebrica, il
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
20
sistema è considerato statico ed è allora possibile tracciarne8 la curva caratteristica, cioè l'uscita in
funzione dell'ingresso.
Il primo metodo, detto di linearizzazione per piccoli segnali, consiste nello sviluppare in
serie l'equazione (17) attorno a un determinato valore xo della variabile d'ingresso, che stabilisce il
punto di lavoro del sistema, allo scopo di individuare una relazione lineare fra le variazioni delle
due variabili x e y (anziché fra le variabili stesse) rispetto ai valori (xo e yo) corrispondenti al punto
di lavoro.
Si ottiene così: y = f(xo) + (x-xo) [f’(x)]x=xo+ ...
da cui, trascurando gli altri termini dello sviluppo, si ottiene:
(18) 'o
o
ox x
y yyf x
x x x
dove l'approssimazione è tanto migliore quanto più piccole sono le variazioni dei segnali.
Questo metodo è applicabile anche quando una variabile d'uscita dipende da più variabili
d'ingresso x1, x2, ... . Qui il punto di lavoro è stabilito da un opportuno insieme di valori x1o, x2o, ...
La variazione dell'uscita rispetto al valore yo corrispondente al punto di lavoro si esprime allora
nella forma:
(19) y f’x1 x1 + f’x2 x2 + ...
dove intervengono le derivate parziali della funzione, tutte calcolate nel punto di lavoro.
Il secondo metodo di linearizzazione consiste invece nell'approssimare la relazione ingresso-
uscita con una caratteristica lineare a tratti, cioè suddividendo il dominio della funzione in più
intervalli in ciascuno dei quali essa possa essere approssimata con un andamento lineare. E quindi
fintanto che il segnale d'ingresso si mantiene entro uno di questi intervalli, il sistema si comporta
linearmente.
Applichiamo questi metodi di linearizzazione a un diodo a giunzione pn, descritto
dall'equazione i = a(e(v/b)
-1), dove le variabili i e v sono l'intensità della corrente che attraversa il
diodo e la differenza di potenziale fra i suoi terminali; a e b sono due costanti. Assumiamo come
ingresso la tensione v e come uscita la corrente i.
Il primo metodo fornisce la relazione
8 Questo non è possibile nel caso dei sistemi dinamici, perché l'uscita a un dato istante non dipende soltanto
dall'ingresso allo stesso istante, ma anche …
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
21
/o ov b i ai a
ev b b
dove abbiamo indicato con i0 e v0 i valori delle variabili nel punto di lavoro. Notiamo che il
rapporto così ottenuto ha le dimensioni fisiche di una conduttanza; esso prende il nome di
conduttanza differenziale del diodo. Come mostra la figura, questo metodo consiste
nell'approssimare la curva caratteristica del dispositivo con la retta ad essa tangente nel punto di
lavoro.
Linearizzazione della curva
caratteristica di un diodo a
giunzione pn:
a) mediante la tangente nel
punto di lavoro;
b) con una approssimazione
lineare a tratti
Applicando il secondo metodo, scegliamo di suddividere l'asse v in due parti, introducendo
una tensione di soglia V*: nella prima parte (cioè per v<V*) la corrente i viene considerata nulla;
nella seconda (cioè per v>V*
) la corrente viene espressa dalla relazione i = G (v-V*), dove la
grandezza G rappresenta una conduttanza di valore opportuno. E' evidente dall'esempio che la scelta
del punto di soglia e, più in generale, la scelta del numero di intervalli in cui suddividere l'asse della
variabile d'ingresso è largamente arbitraria; in generale queste scelte saranno guidate da criteri di
utilità pratica.
10. Sistemi stazionari e sistemi non stazionari
Un sistema si dice stazionario (invariante nel tempo o permanente, time invariant) quando
la sua risposta a una eccitazione non dipende dal tempo a cui essa viene applicata: se l'ingresso x(t)
provoca la risposta y(t), allora l'ingresso x(t-T) causerà9
la risposta y(t-T), per qualsiasi valore di
T e per qualsiasi funzione x(t). Altrimenti si dice non stazionario (variabile nel tempo, time
variant).
I coefficienti che intervengono nelle equazioni di un sistema stazionario debbono essere
dunque indipendenti dal tempo, altrimenti il sistema non è stazionario. Un caso particolare di
sistemi non stazionari è quello dei sistemi probabilistici, in cui i coefficienti delle equazioni variano
con legge casuale e sono pertanto descritti in termini statistici.
9 Il sistema, all'atto dell'applicazione dei segnali x(t) e x(t-T), si deve trovare evidentemente nello stesso stato.
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
22
Un criterio di approssimazione dei sistemi non stazionari in termini di sistemi stazionari
consiste nel supporre che le variazioni dei coefficienti avvengano molto lentamente, cioè su una
scala temporale assai più estesa di quella che riguarda gli andamenti dei segnali. Si può allora
suddividere l'asse dei tempi in più intervalli, in ciascuno dei quali i coefficienti siano
approssimativamente costanti.
Nel seguito ammetteremo sempre che l'ipotesi di stazionarietà sia verificata, salvo contraria
esplicita indicazione.
Esempio. Un problema di classificazione
Consideriamo il modulatore d'ampiezza, apparecchio usato nelle radiocomunicazioni per variare nel tempo l'ampiezza
di un'onda sinusoidale di alta frequenza (l'onda portante) secondo l'andamento di un segnale di bassa frequenza (onda
modulante), che contiene l'informazione e che si vuole trasmettere a distanza. L'uscita del modulatore è un'onda
modulata, che viene poi irradiata da un'antenna.
Chiamando m(t) il segnale modulante e p(t) = cos pt l'onda portante, l'uscita del modulatore è data
dall'espressione:
y(t) = p(t) (1 + m(t)) = cos pt + m(t) cos pt
Si tratta, chiaramente, di un sistema statico, che si può classificare come nonlineare oppure come non
stazionario. Se l'onda portante p(t) viene considerata come un segnale d'ingresso, il sistema è evidentemente nonlineare
(e stazionario). Ma se l'onda portante non viene considerata come un ingresso e il suo effetto viene rappresentato
mediante un coefficiente variabile nel tempo (cos pt), il sistema allora è non stazionario (e lineare).
Questi due diversi punti di vista sono rappresentati nei due schemi a blocchi qui sotto.
m(t) MODULATORE MODULATORE
D’AMPIEZZA D’AMPIEZZA
p(t) y(t) m(t) y(t)
Esercizio.
Individuare le frequenze contenute nel segnale y(t) dell’Esempio precedente quando il segnale modulante è:
m(t) = ½ cos mt con m << p.
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
23
RISPOSTE CARATTERISTICHE
11. Risposta libera e risposta forzata
Consideriamo l'andamento temporale del segnale d'uscita y(t) di un sistema a partire da un
istante generico, che assumiamo come origine dell'asse dei tempi, senza perdita di generalità. Se da
t = 0 in poi l'ingresso x(t) è nullo, l'uscita è determinata unicamente dallo stato del sistema all'istante
iniziale e prende il nome di risposta libera o evoluzione libera.
I sistemi fisici sono dotati generalmente di memoria finita: gli onnipresenti effetti di
dissipazione fanno sì che l'energia in essi immagazzinata subisca trasformazioni irreversibili e
venga dissipata. Ne consegue che la risposta libera tende a zero al tendere del tempo all'infinito. In
altre parole, tutte le variabili di stato vanno ad assumere valori trascurabili dopo un tempo
sufficientemente lungo durante il quale gli ingressi siano identicamente nulli.
Quando, invece, a t = 0 il sistema si trova in riposo (stato zero) ed è soggetto a una
eccitazione x(t) (diversa da zero da t = 0 in poi), l'uscita è determinata unicamente dall'ingresso e
prende il nome di risposta forzata.
Nel caso generale, cioè quando si applica l'eccitazione a un sistema che non si trova a
riposo, il segnale d'uscita dipende sia dall'eccitazione sia dallo stato al tempo t = 0. In tal caso se il
sistema è lineare, e allora è verificato il principio di sovrapposizione degli effetti, la risposta
complessiva è costituita dalla somma dell'evoluzione libera e della risposta forzata. La risposta di
un sistema lineare, che al tempo t=0 si trova in uno stato determinato, all'ingresso x(t) si può dunque
esprimere nella forma:
(20) y(t) = yl(t) + yf(t)
dove yl(t) rappresenta l'evoluzione libera a partire dallo stato iniziale (a t = 0) ed yf(t) rappresenta la
risposta forzata all'eccitazione x(t) applicata da t = 0 in poi.
Si capisce, per quanto detto, che il ruolo dello stato iniziale è simile a quello dell'eccitazione
esterna, nel senso che concorrono entrambi a determinare l'andamento del segnale d'uscita del
sistema. Stato iniziale ed ingresso a partire dall'istante iniziale in poi costituiscono assieme
l'eccitazione generalizzata.
Nei sistemi a memoria finita, quando i segnali d'ingresso si estendono da un istante iniziale
all'infinito, con andamento costante o periodico, diventa significativo anche un altro modo di
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
24
decomporre la risposta complessiva y(t). In questo caso ai tempi lunghi, quando si sono certamente
esauriti sia l'evoluzione libera sia l'effetto della brusca applicazione del segnale d'ingresso, la
risposta assume un andamento caratteristico, costante o periodico, che dipende solo dall'eccitazione
e prende il nome di risposta forzata in regime permanente o risposta permanente yp(t). Il segnale di
uscita, sempre nell’ipotesi di linearità del sistema, si può allora decomporre come segue:
(21) y(t) = yp(t) + yt(t) per t > 0
dove il termine yt(t),
chiamato risposta
transitoria, che si ottiene
sottraendo la risposta
permanente da quella
totale, si estende soltanto
sul tempo finito di
memoria del sistema.
12. Risposta in regime permanente sinusoidale
Nello studio dei sistemi, in particolare di quelli lineari, presenta particolare interesse la
risposta in regime permanente a una eccitazione sinusoidale (che si suppone dunque applicata a
partire da t = -). Questa, infatti, proprio e soltanto nel caso dei sistemi lineari e stazionari, è
costituita ancora da una sinusoide della stessa frequenza di quella applicata in ingresso.
A una data frequenza, dunque, un sistema lineare e stazionario è completamente
caratterizzato dal valore del rapporto fra l'ampiezza della sinusoide d'uscita e di quella d'ingresso, e
dalla differenza fra la fase della sinusoide d'uscita e di quella d'ingresso. Al variare della frequenza,
poi, il rapporto d'ampiezza e la differenza di fase vengono a costituire due funzioni reali della
frequenza: la cosiddetta risposta in frequenza (frequency response) del sistema.
Esaminiamo brevemente come si determinano queste due funzioni, quando si conosca
l'equazione ingresso-uscita di un sistema, usando il metodo simbolico di C. P. Steinmetz.
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
25
Rappresentiamo l'ingresso e l'uscita con le forme simboliche10
:
(22) x(t) = X cos t X ejt
= X ejt
y(t) = Y cos (t+) Y ej(t+)
= Y ejt
dove la generica grandezza simbolica è costituita dal prodotto di una corrispondente grandezza
complessa indipendente dal tempo (indicata qui con sottolineatura per evitare ambiguità di simboli)
per il fattore ejt
. Sostituendo le grandezze simboliche nell'equazione differenziale del sistema ed
eseguendo le necessarie operazioni di derivazione e integrazione, si ottiene una equazione algebrica
con variabili complesse; da questa si ricava il rapporto fra le due grandezze simboliche, che
coincide evidentemente con quello fra le grandezze complesse Y e X:
(23) j t
j t
Ye YH
Xe X
Il rapporto H, che in generale è un numero complesso, permette poi di calcolare Y e
conoscendo X, cioè di determinare compiutamente la sinusoide d'uscita alla frequenza angolare
. Questo rapporto dipende in generale dalla frequenza che si considera. Si dimostra facilmente che
se i coefficienti dell'equazione differenziale del sistema sono reali (sistemi fisici) allora H è una
funzione complessa di , ma una funzione reale di j. Conviene dunque esplicitare questa
dipendenza nel simbolo del rapporto H, che pertanto indicheremo d'ora in poi con H(j). Questa
funzione, chiamata funzione di trasferimento in regime permanente sinusoidale, si può porre nella
forma polare oppure in quella rettangolare:
(24) H(j) = |H(j)| e j()
= Re[H] + j Im[H]
dove spesso la fase di H(j) si indica col simbolo /H(j). Qui il modulo |H(j)|, che rappresenta il
rapporto fra le ampiezze Y e X, e la fase (), che rappresenta lo sfasamento della sinusoide
d'uscita rispetto a quella d'ingresso, sono le due funzioni reali che costituiscono la risposta in
frequenza, chiamate rispettivamente caratteristica di ampiezza e caratteristica di fase.
10
In questa rappresentazione i segnali si ottengono prendendo la parte reale delle corrispondenti grandezze simboliche
(si può, tuttavia, anche scegliere una diversa convenzione).
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
26
Dalla caratteristica di fase si ricavano altre due grandezze: la prima è il ritardo della
sinusoide d'uscita rispetto a quella d'ingresso
(25) T( = -()/
la seconda è il ritardo di gruppo
(25')
g
dT
d
cioè il ritardo subito dall’inviluppo di un pacchetto d'onda di frequenza angolare applicato
all'ingresso del circuito11
.
Quando la funzione H(j) esprime il rapporto fra la tensione e la corrente (simboliche) ai
morsetti di un circuito in regime sinusoidale permanente, essa prende il nome di impedenza e si
indica col simbolo Z:
(26) Z(j) = R() + j X()
dove R() si chiama resistenza, X() reattanza. Quando H(j) rappresenta il rapporto fra la
corrente e la tensione (simboliche) prende il nome di ammettenza e si indica col simbolo Y:
(27) Y(j) = G() + j B()
dove G() si chiama conduttanza, B() suscettanza.
Facciamo un esempio, applicando il metodo simbolico al circuito RLC serie, già considerato
prima. Sostituendo v(t) e i(t) nell'equazione (16) con le grandezze simboliche corrispondenti, V ejt
e I ejt
, e semplificando si ottiene
V = jLI + RI + I / jC
da cui l'ammettenza
1
1
IY j
V j L R j C
11
Consideriamo il segnale costituito dalla somma di due sinusoidi di ampiezza unitaria e frequenze angolari
, +. Il battimento fra queste crea una serie di pacchetti d'onda con inviluppo 2cost. All'uscita del
sistema, per si ha 2cos(t+())cos[td()/d)], cioè l'inviluppo dei pacchetti d'onda subisce il ritardo
-d()/d
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
27
Da quest'ultima si ottengono il modulo e la fase:
2 2
1
1Y j
L C R
1/ arctang
L CY j
R
osservando che |Y(j)| presenta un massimo per
= o, dove o = 1/√(LC). Alla stessa frequenza,
la derivata della fase è massima.
Nella figura sono rappresentati i grafici
del modulo, in unità di decibel, e della fase
dell'ammettenza del circuito RLC espressi in
forma normalizzata, cioè in termini del rapporto
/o e del parametro Q = oL/R. Si nota il
fenomeno della risonanza, che è tanto più vistoso
quanto maggiore è il valore del Q.
Esprimere in decibel (dB) una grandezza reale x
significa trasformarla mediante la formula
(28) 20 log10(x)
Questa rappresentazione è molto usata in
elettronica per esprimere sia valori di ampiezza che,
sopratutto, rapporti di ampiezza, e questo per vari motivi.
Quando una grandezza può assumere valori che
differiscono di ordini di grandezza, il tracciamento del
grafico in decibel risulta molto più agevole e
rappresentativo che in unità lineari. Espressi in decibel,
inoltre, i rapporti di ampiezza determinati dal modulo delle funzioni di trasferimento usuali si prestano bene a una
rappresentazione approssimata (diagrammi di Bode, vedi Appendice B) del tipo lineare a tratti (cioè mediante spezzate)
in funzione del logaritmo della frequenza. E' poi evidente che il prodotto (il rapporto) di due grandezze espresse in
decibel è dato semplicemente dalla somma (dalla sottrazione) dei loro valori. Questo risulta assai comodo quando più
sistemi lineari sono collegati in cascata (l'uscita del primo costituisce l'ingresso del secondo, e così via) e si debba
determinare la risposta complessiva in regime sinusoidale permanente come prodotto delle risposte di questi sistemi.
Come si è detto, la formula (28) si usa per esprimere in decibel valori di ampiezza o di rapporti di ampiezza.
Nel caso di una grandezza p che rappresenti il quadrato di una ampiezza, cioè sia proporzionale alla potenza, oppure il
rapporto fra quadrati di ampiezze, si usa invece la formula:
(28’) 10 log10(p)
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
28
dove è importante osservare che il valore in decibel dato dalla (28') coincide evidentemente con quello dato dalla (28) se
p = x².
Osserviamo che basta ricordare anche solo alcuni dati della tabella qui sotto per poter determinare a mente, sia
pure approssimativamente, il valore in decibel di qualsiasi numero.
x xdB x xdB
106
120 1 0
103
60 0,9 -0,9152.. -1
102
40 0,8 -1,938.. -2
10 20 1/2 0,707.. -3,010.. -3
9 19,08.. 19 0,5 -6,021.. -6
8 18,06.. 18 0,4 -7,959.. -8
10/2=7,071.. 16,99.. 17 1/10 0,3162.. -10
5 13.98.. 14 0,2 -13,98.. -14
4 12,04.. 12 2/10 0,141.. -16,99.. -17
10=3,162.. 10 0,1 -20
2 6,021.. 6 0,01 -40
2=1,414.. 3,010.. 3 10-3
-60
1 0 10-6
-120
L'andamento del modulo di H(j) con la frequenza, cioè la caratteristica di ampiezza,
stabilisce le proprietà filtranti di un sistema. Sotto questo punto di vista, i sistemi si possono
comportare come passabasso, che trasmettono tutte le frequenze dalla continua fino a un limite
superiore; passabanda, che trasmettono solo le frequenze comprese in un intervallo; passaalto, che
trasmettono solo le frequenze oltre un limite inferiore, ed eliminabanda, che trasmettono solo al di
fuori di un dato intervallo.
Una distinzione importante
è poi quella fra i sistemi che
trasmettono anche segnali
costanti, e quindi la componente
continua dei segnali, e quelli che
trasmettono solo segnali variabili,
ovvero la componente variabile
del segnale (chiamata spesso,
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
29
anche se impropriamente, "componente alternata"). I primi, detti anche sistemi in continua, hanno
evidentemente |H(j0)| 0, mentre i secondi, detti sistemi in alternata, hanno H(j0) = 0.
Osserviamo ora che l'ammettenza del circuito RLC che abbiamo considerato prima è una
funzione continua della frequenza: proprietà assai importante di cui godono tutte le funzioni H(j)
dei sistemi che ci interessano. Le bande di frequenza trasmesse non presentano pertanto limiti netti.
I limiti delle bande di frequenza vengono espressi di solito in termini di frequenze di taglio (cutoff
frequencies, corner frequencies) che sono definite come quelle frequenze a cui il modulo della
risposta si riduce a 12 = 0,707.. (cioè -3 dB) di quello nella banda trasmessa uniformemente (o del
massimo in banda), ossia la risposta in potenza si dimezza.
Esercizio. Determinare analiticamente le due frequenze di taglio, f1 ed f2, e la larghezza di banda f2-f1 per l'ammettenza
del circuito RLC considerato prima.
La risposta in frequenza di un sistema lineare può essere determinata sperimentalmente12
eseguendo misure a più frequenze (di solito, a spaziatura uniforme su scala logaritmica)
nell'intervallo che interessa. In questo caso, ovviamente, il segnale d'ingresso non è armonico puro,
perché viene applicato solo a partire da un certo istante. A noi, d'altra parte, interessa la risposta
permanente, sicché dovremo attendere, per ciascuna misura, l'esaurimento della fase transitoria
iniziale, prima di registrare i valori del rapporto delle ampiezze e dello sfasamento. La durata di
questo intervallo è dominata dalla costante di tempo più lunga del sistema in esame.
Ai sistemi nonlineari il concetto di risposta in frequenza non è applicabile, dal momento che
l'uscita corrispondente a un ingresso sinusoidale contiene sinusoidi di altre frequenze, generalmente
armoniche di quella d'ingresso (e la frequenza d’ingresso, in casi particolari come y = x2, può
addirittura essere assente in uscita!).
Nel caso dei sistemi solo debolmente nonlineari la risposta in regime permanente
sinusoidale è costituita da una sinusoide distorta, che si può rappresentare come somma di una
sinusoide della stessa frequenza di quella d'ingresso e di varie armoniche di essa. Il rapporto fra il
valore efficace complessivo di queste ultime e quello della fondamentale è usato per caratterizzare
la distorsione d'ampiezza che si verifica in questi sistemi (un caso tipico è quello di un amplificatore
di potenza, vedi parte VII). Notiamo che questo rapporto dipende dal livello del segnale applicato:
12
La possibilità di ricostruire le caratteristiche di ampiezza e di fase interpolando i risultati sperimentali ottenuti
soltanto a un insieme di valori discreti della frequenza deriva dalla già menzionata proprietà di continuità di queste
funzioni.
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
30
di solito (sebbene non sempre) la distorsione nonlineare aumenta, prima debolmente e poi più
fortemente, al crescere dell'ampiezza dell'ingresso.
Per questi sistemi il rapporto fra l'ampiezza della fondamentale in uscita e l'ampiezza
dell'ingresso non è costante, ma dipende dall'ampiezza dell'ingresso, perché non vi è proporzionalità
fra causa ed effetto. Questo rapporto d'altra parte può essere usato per caratterizzare la risposta in
frequenza dei sistemi debolmente nonlineari. Si introduce così la funzione descrittiva:
(29)
1 ,
,d
Y XH j X
X
dove Y1(, X) indica l'ampiezza della fondamentale (o prima armonica) in uscita, X l'ampiezza
della sinusoide d'ingresso. Tale funzione dipende dunque sia dalla frequenza che dall'ampiezza
dell'eccitazione. La caratterizzazione in termini di funzione descrittiva è usata anche per i sistemi
statici, nel qual caso la funzione dipende solo dall'ampiezza dell’ingresso e non dalla frequenza.
Esercizio. Determinare analiticamente la funzione descrittiva di un limitatore simmetrico ( figura a pag.19).
13. Le risposte indici
Un'altra caratterizzazione dinamica dei sistemi, che è molto usata per la sua diretta applicazione allo
studio dei fenomeni transitori (e che inoltre è applicabile, sia pure con opportune modifiche rispetto
alla trattazione che segue, anche a sistemi nonlineari e/o non stazionari) è costituita dalle cosiddette
risposte indici. Queste sono la risposta all'impulso unitario e la risposta al gradino unitario.
La prima è la
risposta impulsiva (impulse
response), che indicheremo
con h(t); la seconda è la
risposta indiciale o risposta
al gradino (step response),
che indicheremo con hu(t). Nel caso dei sistemi lineari la risposta indiciale è l'integrale della
risposta impulsiva:
(30) t
uh t h d
Infatti, se h(t) rappresenta la soluzione di un'equazione differenziale lineare con termine
noto (t), è evidente che la soluzione della stessa equazione con termine noto u(t), cioè costituito
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
31
dall'integrale di (t), coincide con l'integrale di h(t), espresso dalla (30).
Per il principio di causalità13
gli andamenti delle risposte indici sono identicamente nulli per
t < 0. Per t che tende all'infinito, la risposta impulsiva (nei sistemi a memoria finita) tende a zero,
mentre la risposta indiciale tende a un valore finito nei sistemi che trasmettono la componente
continua dei segnali (H(j0) 0), e tende a zero in quelli che trasmettono solo le componenti
variabili (H(j0) = 0).
Il principio di causalità pone il vincolo h(t) = 0 per t < 0 per i sistemi fisicamente realizzabili. Questo principio tuttavia
non si applica ai sistemi usati per analizzare una sequenza temporale di dati, dopo che essa sia stata registrata. Questo è
il caso degli algoritmi che si applicano a dati registrati su supporto magnetico, mediante un programma su calcolatore,
avendo quindi a disposizione l'andamento sia passato che futuro del segnale. Un semplice esempio a tale riguardo è
quello di un filtro a media mobile, che assegna all'uscita, a ciascun istante di tempo, il valor medio dell'ingresso in un
intervallo T centrato in t, eseguendo l’operazione:
/ 2
/ 2
1 t T
t Ty t x d
T
Tale filtro ha risposta impulsiva: h(t) = [u(t+T/2) – u(t-T/2)]/T.
Nella risposta impulsiva del filtro a media mobile, come in quella di tutti i sistemi non realizzabili fisicamente,
si distinguono la parte causale (per t ≥ 0) e la parte anticausale (per t < 0).
Sappiamo che l'uscita di un sistema statico a un dato istante dipende solo dal valore
dell'ingresso allo stesso istante. Si conclude pertanto che le risposte indici di un sistema lineare
statico14
coincidono, rispettivamente, con un una funzione delta e con una funzione a gradino,
aventi un medesimo coefficiente di ampiezza.
Il calcolo delle risposte indici di un sistema può essere eseguito risolvendone l'equazione
differenziale ingresso-uscita. Più spesso, in pratica, si preferisce usare il metodo della
trasformazione di Laplace, che conduce più agevolmente al risultato: di questo ci occuperemo nella
IV parte del corso. Qui ci limitiamo a illustrare brevemente il calcolo delle risposte indici attraverso
la soluzione diretta dell'equazione, nel caso di un sistema descritto da un'equazione differenziale del
primo ordine: il circuito RC passabasso. I risultati che otterremo sono del tutto generali, perché
applicabili a qualunque sistema, di qualsiasi natura, che sia descritto dalla stessa equazione.
13
Tutti i sistemi fisici reali verificano evidentemente questo principio. La condizione che l’effetto segua e non preceda
la causa è chiamata anche condizione di “realizzabilità fisica”.
14 Nel caso dei sistemi nonlineari, le risposte indici usuali (definire per una eccitazione unitaria) perdono significato;
occorre infatti usare funzioni indici dipendenti da due argomenti: oltre al tempo a cui si considera la risposta anche
l'ampiezza dell'eccitazione. Pure nel caso dei sistemi non stazionari (supposti lineari) occorre usare funzioni indici
dipendenti da due argomenti: il tempo a cui si considera la risposta e l'istante di applicazione del segnale di eccitazione.
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
32
Indicando con x(t) la
tensione d'ingresso e con
y(t) quella d'uscita si ha:
1 1
' ' ; ' 't t
x t Ri t i t dt y t i t dtC C
da cui l'equazione ingresso-uscita15
, dove = RC indica la costante di tempo del circuito:
(31) x(t) = y’(t) + y(t)
Calcoliamo ora la risposta indiciale del sistema, assumendo quindi x(t) = u(t), con la condizione
iniziale y(0) = 0. L'integrale generale dell'equazione omogenea associata alla (31) è evidentemente
yg(t) = Ae-t/ In questo semplice caso l'integrale particolare relativo al termine noto si determina
facilmente: yp(t) = 1. Specializzando la soluzione complessiva (y(t) = yg(t) + yp(t) = 1+ Ae-t/
)
rispetto alla condizione iniziale assegnata (y(0) = 0), si ottiene A = -1. La risposta indiciale è
dunque:
(32) hu(t) = [1 - exp(-t/)] u(t)
Derivando rispetto al tempo si ottiene quindi la risposta impulsiva:
(33)
exp t
h t u t
Questa si poteva ottenere direttamente dall'equazione del sistema, specializzando la
soluzione dell'omogenea associata alla condizione iniziale ricavata integrando ambo i membri della
(31) fra 0- e 0
+: [y(0
+)-y(0
-)] = 1, da cui A = 1/.
Esercizio. Decomporre la (32) nei due termini che costituiscono a) la risposta libera e la risposta forzata, b) la risposta
transitoria e la risposta permanente.
15
In questo caso particolare l'equazione ingresso-uscita coincide con l'equazione ingresso-stato del sistema, dal
momento che l'uscita coincide con l'unica variabile di stato del sistema.
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
33
14. Relazioni fra risposte indici e risposta in frequenza
Completiamo l'analisi del sistema descritto dalla (31) determinandone la risposta in
frequenza con il metodo simbolico. Sostituendo nella (31) le grandezze simboliche per ricavarne il
rapporto Y/X, si ottiene la funzione di trasferimento:
(34) 1
1H j
j
(35) 2 2
1; arctang
1H j H j
/
La forma della (34) (e della (35)) permette di verificare che si tratta effettivamente di un
sistema passabasso, in particolare con risposta unitaria a frequenza zero, in accordo col fatto che il
valore asintotico della risposta indiciale (32) è unitario. Uguagliando la (35) a 1/2, si ottiene la
frequenza limite superiore (frequenza di taglio) del sistema:
(36) 1
1 0,16
2f
In generale, nella risposta
indiciale di un sistema si
distinguono i seguenti tempi
caratteristici:
- tempo di salita (rise time) tr ,
definito come l’intervallo fra i
due istanti in cui, nel fronte
d'onda iniziale, il segnale
assume valore pari al 10% e al
90% del massimo;
- ritardo (delay time) td, definito
dal tempo (misurato dall'applicazione del gradino) a cui la risposta raggiunge il 50% del valore
massimo (o del valore asintotico ai tempi lunghi);
- tempo di assestamento (settling time) ts. Quest'ultimo rappresenta il tempo (misurato
dall'applicazione del gradino) a partire dal quale la risposta normalizzata si mantiene
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
34
definitivamente entro la fascia 1-, 1+, per un valore prefissato16
di .
A volte, come nel caso rappresentato nella figura, la risposta indiciale presenta un picco
isolato oppure una serie di oscillazioni smorzate. Si considerano allora anche altri parametri:
sovraelongazione (overshot) s, cioè ampiezza del picco o della prima oscillazione, periodo T delle
oscillazioni, ecc.
Applicando le definizioni precedenti alla risposta indiciale di un filtro RC, data dalla (32), si
ottengono i seguenti risultati:
(37) tr = 2,1972... 2,2
(38) td = 0,6931... 0,69
(39) ts = 6,9078... 7,0
avendo scelto = 10-3
nel calcolo del tempo di assestamento.
Sostituendo nella (37) l'espressione (36) della frequenza di taglio, che indichiamo qui con B
nel significato di banda passante, si ottiene la seguente relazione, assai importante e utile, fra la
risposta nel dominio del tempo e quella nel dominio della frequenza:
(40) B tr = 0,3497... 0,35
Ricordiamo che tutti i risultati precedenti, dalla (32) alla (40), sono validi esattamente per
qualsiasi sistema descritto dall'equazione differenziale (31) e non soltanto per il circuito RC. Si può
dimostrare poi che i risultati (37), (38) e (40) valgono con ottima approssimazione anche per i
sistemi passabanda che hanno ad alta frequenza lo stesso andamento dei sistemi passabasso descritti
dalla (34), purché la loro frequenza limite inferiore sia molto minore della frequenza limite
superiore (questo si verifica di solito in molti amplificatori, per esempio in quelli che coprono la
banda audio oppure quella video). Infine, la relazione (40), che presenta grandissima utilità pratica,
risulta valida, sia pure approssimativamente, anche per una classe più estesa di sistemi, descritti da
equazioni differenziali di grado superiore al primo (di solito, il prodotto B tr assume valori fra ~0,3 e
~0,45).
Le precedenti definizioni del tempo di salita tr e del ritardo td sono dette pratiche o
empiriche, perché intese a facilitarne la determinazione sperimentale. Per queste stesse grandezze si
usano anche delle diverse definizioni, dette analitiche, che indicheremo con simboli diversi per
16
La scelta di questo valore dipende dal caso che si considera. Per esempio, se il circuito costituisce il filtro che precede
un convertitore A/D, il valore di sarà ragionevolmente riferito all’ampiezza del quanto di conversione.
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
35
evitare ambiguità. Tali definizioni si applicano soltanto ai sistemi passabasso, la cui risposta
indiciale tende, ai tempi lunghi, a un valore asintotico costante non nullo, purché essa presenti un
andamento monotono crescente (almeno approssimativamente).
Nelle definizioni analitiche interviene la risposta impulsiva normalizzata
hn(t) = h(t)/hu()
cioè divisa per il valore asintotico della risposta indiciale (che rappresenta l'area della h(t)). Il
ritardo e il tempo di salita e sono così definiti:
(41) 0
nth t dt
(42) 2
02 nt h t dt
dove la costante 2 è stata scelta in modo che il tempo di salita coincida con il tempo di salita tr
nel caso particolare dei sistemi con risposta impulsiva Gaussiana. Svolgendo il quadrato che figura
nella (42) e utilizzando la (41) si ottiene:
(43) 2 2
02 nt h t dt
Applicando le definizioni analitiche al caso del sistema descritto dalla (31) si ottiene:
; 2 2,506...
Le definizioni precedenti si possono usare anche per caratterizzare il ritardo e il tempo di
salita di un generico segnale f(t) (che non costituisca, cioè, la risposta indiciale di un sistema)
rispetto a un istante di tempo di riferimento, purché la funzione f(t) soddisfi le condizioni date sopra
(abbia andamento monotono crescente fra zero e un valore asintotico non nullo). In questo caso si
utilizzerà nelle formule la derivata normalizzata fn'(t) = f'(t)/f() della funzione f(t).
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
36
15. Calcolo della risposta a una eccitazione qualsiasi con le risposte indici
La grande importanza delle funzioni indice sta nel fatto
che esse consentono di calcolare la risposta forzata a una
eccitazione di forma qualsiasi.
Supponiamo che l'ingresso x(t) sia costituito dalla
somma di tre impulsi rettangolari di durata , come mostrato nella figura:
x(t) = x1(t) + x2(t) + x3(t).
Questi impulsi, se è sufficientemente piccolo rispetto ai tempi caratteristici del sistema a
cui sono applicati, possono essere approssimati come segue17
con tre funzioni delta, nel senso che
l'effetto di ciascuno di essi è approssimativamente uguale all'effetto di una corrispondente funzione
impulsiva:
x(t) (t) – 2 (t-1) (t-3)
Dal momento che, per l'ipotesi di stazionarietà, se la risposta a (t) è h(t) quella a (t-T) sarà
h(t-T), si conclude, grazie al principio di sovrapposizione degli effetti, che la risposta di un sistema
con risposta impulsiva h(t) all’eccitazione x(t) data sopra è:
y(t) h(t) - 2 h(t-1) + 3 h(t-3)
Esercizio. Tracciare il grafico del segnale d'uscita di un circuito RC passabasso con = 1 s, al quale è applicato
l'ingresso x(t) considerato sopra con = 0,25 s: a) ricavandolo in modo esatto, b) ricavandolo approssimando gli impulsi
mediante funzioni delta.
Supponiamo ora che x(t) sia un segnale di forma arbitraria. Suddividendo l'asse dei tempi in
intervalli di durata , possiamo esprimere x(t) nella forma della somma seguente:
(44) x(t) = x1(t) + x2(t) + ...
dove ciascuna componente xk(t) coincide con x(t) nel corrispondente intervallo k, k+ ed è nulla
altrove. Se è sufficientemente piccolo, ciascuna componente elementare xk(t) può essere
approssimata con una funzione delta di area x(tk) applicata al tempo τk, contribuendo così alla
risposta con il termine elementare corrispondente:
17
A stretto rigore, gli istanti di applicazione delle tre delta dovrebbero essere ritardati di rispetto al fronte iniziale
degli impulsi. Perché?
0 1 2 3 4 t
1 3
-2
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
37
(45) yk(t) x(k) h(t-k)
Sommando tutti questi contributi si ha:
(46) y(t) k yk(t) = k x(k) h(t-k)
dove l'errore di approssimazione tende a zero quando tende a zero. In tal caso la sommatoria si
trasforma nel seguente integrale, detto di convoluzione:
(47) 0
t
y t x h t d
dove il limite inferiore d'integrazione rappresenta l'istante t = 0 a partire dal quale consideriamo la
risposta forzata del sistema (che si suppone trovarsi inizialmente nello stato zero) e il limite
superiore t è fissato dal principio di causalità (l'uscita fino al tempo t non è influenzata dai valori
dell'ingresso a tempi successivi).
L'integrale di convoluzione (47) si scrive anche nella seguente forma equivalente:
(48) 0
t
y t x t h d
dove l'integrazione si svolge nello stesso intervallo di prima, ma secondo un asse diretto in verso
opposto al precedente: con l'origine = 0 all’istante t e l'estremo superiore per = t, dove si ha
t-= 0. Le due forme (47) e (48) dell'integrale di
convoluzione possono essere interpretate graficamente
come è mostrato nella figura.
In alto. Calcolo del contributo elementare dell'ingresso al tempo '
all'uscita al tempo t' con l'integrale di convoluzione (47)
In basso. Calcolo con l'integrale di convoluzione (48)
La parte in alto suggerisce un metodo grafico per la
valutazione approssimata della risposta y(t') all’istante t',
applicando la (46) ai campioni delle funzioni x() e h(t'-
) che si trovano sulla stessa verticale.
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
38
Qualche considerazione sui limiti d'integrazione usati nelle due espressioni (47) e (48) dell'integrale di
convoluzione. Essi derivano dal fatto che abbiamo scelto di occuparci della risposta forzata, considerando quindi
soltanto gli effetti dell'ingresso a partire da un istante determinato (t = 0) fino al tempo t al quale calcoliamo la risposta
(per l'ipotesi di causalità). Decidendo di calcolare l'effetto di un ingresso applicato a partire da un generico istante to (che
può anche assumere il valore to = -) scriveremo:
(49) 0
0 0
t t t
ty t x h t d x t h d
Nel caso invece dei sistemi non fisicamente realizzabili, come quelli usati nella elaborazione differita di dati
registrati in precedenza, cade il vincolo posto dalla causalità e si ha in generale:
(50) y t x h t d x t h d
Notiamo infine che ad espressioni analoghe alle (47) e (48) si perviene anche decomponendo il segnale
d’ingresso in funzioni a gradino elementari, anziché in funzioni impulsive. In tal caso l'ingresso viene rappresentato
dalla somma della funzione a gradino x(0)u(t) e di una sequenza di funzioni a gradino elementari, applicate agli istanti
tk, con coefficiente x(tk) - x(tk-). Ciascuna di queste contribuisce all'uscita y(t) con il termine elementare
[x(k)-x(k-1)] hu(t-k) .
16. Integrale di convoluzione e risposta impulsiva
L'integrale di convoluzione nella sua forma generale
(51) 1 2f t f f t d
definisce un'operazione binaria fra due funzioni. Nell'insieme delle funzioni ordinarie non esiste
l'elemento identità per tale operazione, cioè una funzione f2(t) che introdotta nella (51) dia
f(t) = f1(t). Questo elemento esiste solo se estendiamo l'insieme delle funzioni considerate a
comprendere anche la funzione impulsiva (t), tale che, per qualsiasi funzione ordinaria f(t), sia
(52) f t f t d
La (52) può essere assunta come definizione della funzione delta.
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
39
17. Risposta in frequenza e risposta impulsiva
Consideriamo un sistema lineare e stazionario, non necessariamente fisicamente realizzabile e quindi con
risposta impulsiva h(t) che può assumere valori diversi da zero anche per t < 0. Calcoliamone la risposta al segnale
armonico complesso x(t) = X exp(jt) applicato a partire da - utilizzando l'integrale di convoluzione nella forma
generale (50):
(53) exp exp expy t X j t h d X j t j h d
Sappiamo già, d'altra parte, che in questo caso si ha y(t) = X exp(jt) H(j). Si conclude pertanto che la
funzione di trasferimento di un sistema coincide con la trasformata di Fourier della sua risposta impulsiva
(54) expH j j t h t dt
18. Risposta impulsiva e stabilità
Studiando il sistema descritto dalla equazione (31) si è trovato che la risposta impulsiva altro non è
che una particolare specializzazione della risposta libera alle condizioni iniziali stabilite a t=0+
dall'effetto di una funzione delta unitaria applicata all'ingresso. Questo risultato è generale: la
risposta impulsiva è costituita dai termini che compaiono nell'integrale generale dell'equazione
omogenea associata a quella del sistema. Nel caso dei sistemi differenziali questi termini sono
determinati dalle radici dell'equazione caratteristica. A ciascuna delle radici distinte pi corrisponde
un esponenziale, reale o complesso,
Ai exp(pit)
mentre in presenza di una radice p con molteplicità m la risposta contiene gli m termini
M0 exp(pt), M1 t exp(pt), ............ Mm-1 tm-1
exp(pt)
Ne consegue che l'andamento asintotico della risposta impulsiva per t che tende all'infinito è
comunque determinato dai termini esponenziali, più precisamente dal valore delle radici reali, o
delle parti reali delle eventuali radici complesse, dell'equazione caratteristica. Se anche uno soltanto
di questi è positivo, allora la risposta impulsiva diverge all'infinito, indicando che il sistema è
instabile. E quindi, perché sia h() = 0, occorre che tutti questi valori abbiano segno negativo.
Una condizione di stabilità usata spesso in elettronica è quella denominata stabilità b.i.b.o.
(bounded input-bounded output, ingresso limitato-uscita limitata), per cui a un ingresso x(t) limitato
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
40
deve corrispondere sempre un'uscita y(t) anch'essa limitata. Più precisamente si richiede che valga
la seguente condizione per qualsiasi ingresso x(t):
se |x(t)| X per qualsiasi t, allora deve essere |y(t)| Y per X e Y finiti e per qualsiasi t
Questa particolare condizione di stabilità può essere espressa in termini della risposta
impulsiva ed equivale allora alla condizione di integrabilità assoluta di tale funzione:
(55) -
I = h t dt
Infatti se la (55) è verificata, allora, per qualsiasi x(t) limitata, si ha
- - -
= y t x t h d x t h dt X h dt X I
Oltre che condizione sufficiente, la (55) è anche necessaria. Considerando infatti la risposta
impulsiva h(t)=sin ot (corrispondente a una coppia di radici coniugate immaginarie) si ha
evidentemente I = . E allora se l'ingresso è x(t) = sin ot si ha:
2
- -0 = sin oy x h d d
19. Schemi a blocchi
In quanto precede abbiamo spesso rappresentato graficamente i sistemi mediante schemi a
blocchi. In questa rappresentazione, assai intuitiva, un sistema viene indicato con un rettangolo, le
variabili d'ingresso con frecce entranti nel rettangolo, le variabili d'uscita con frecce uscenti. E allo
stesso modo si indicano le varie parti, o sottosistemi, di sistemi complessi, e le loro
interconnessioni.
Gli schemi a blocchi sono molto usati perché evidenziano efficacemente come i vari
sottosistemi sono collegati fra loro e perché permettono di seguire il flusso dei segnali in un
sistema, individuando le elaborazioni compiute dai sottosistemi che essi attraversano. E' importante
osservare che la schematizzazione dei sistemi, e dei sottosistemi, in termini di schemi a blocchi
deriva evidentemente dalla loro rappresentazione mediante relazioni ingresso-uscita.
Alla base della rappresentazione mediante schemi a blocchi vi sono però due ipotesi
semplificatrici, che non sono quasi mai verificate rigorosamente e che vogliamo qui evidenziare.
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
41
La prima è che la trasmissione dei segnali attraverso i sistemi avvenga in modo unilaterale,
cioè soltanto dall'ingresso verso l'uscita e non viceversa; e ciò non accade certamente nel caso delle
reti passive, come ad esempio per un partitore resistivo.
La seconda ipotesi è che un segnale non subisca alcuna modifica quando venga applicato
all'ingresso di un sistema. Si ammette, in particolare, che il segnale d'uscita di un sistema resti
inalterato anche quando venga a costituire l'ingresso di un altro sistema. Questo può verificarsi
soltanto approssimativamente, dal momento che il secondo sistema deve comunque assorbire
energia dal primo perché avvenga il trasferimento dell'informazione. L'approssimazione, d'altra
parte, è tanto migliore quanto maggiore è il rapporto fra l'energia disponibile all'uscita del primo
sistema e quella assorbita all'ingresso del secondo. Nel caso dei sistemi lineari e stazionari, per cui
si può utilizzare il concetto di impedenza, questa approssimazione è tanto migliore quanto maggiore
è il rapporto fra l'impedenza d'ingresso del secondo sistema e l'impedenza d'uscita del primo.
Entrambe le ipotesi precedenti non sono più necessarie quando i sistemi vengono rappresentati mediante
circuiti, ossia come interconnessione di una molteplicità di componenti elementari, nel caso elettrico caratterizzati da
relazioni fra correnti e tensioni. Ciascun tipo di questi elementi viene descritto da determinate equazioni, mentre altre
equazioni descrivono come i vari elementi sono collegati assieme. La rappresentazione circuitale, di cui ci occuperemo
nelle parti seguenti del corso, tiene conto infatti, in modo naturale e diretto, sia delle modifiche che il segnale all'uscita
di un sistema subisce quando viene applicato all'ingresso di un altro sistema, sia dell'eventuale flusso inverso dei
segnali, dall'uscita verso l'ingresso. Questo richiede però una maggiore complessità nella rappresentazione dei sistemi:
nella descrizione circuitale, infatti, all'ingresso e all'uscita dei sistemi, non è più sufficiente considerare una sola
grandezza fisica, ma ne occorrono due (tensione e corrente nei sistemi elettrici, forza e spostamento nei sistemi
meccanici, temperatura e quantità di calore nei sistemi termici, ecc.).
Vogliamo ora sottolineare una importantissima differenza nel comportamento dei sistemi
costituiti dal collegamento in cascata di due o più sottosistemi, a seconda che tutti i sottosistemi
costituenti siano lineari oppure uno (o più) di essi sia nonlineare, supponendo qui che le due ipotesi
precedenti (trasmissione unilaterale e interazione energetica trascurabile) siano entrambe verificate.
Nel primo caso il sistema complessivo è lineare e gode della importante proprietà che il suo
comportamento ingresso-uscita è invariante rispetto all'ordine con cui i sottosistemi vengono
collegati. Questo si dimostra immediatamente considerandone la risposta in regime sinusoidale
permanente: la funzione di trasferimento complessiva è data evidentemente dal prodotto delle
funzioni dei sottosistemi costituenti, sicché non dipende dall'ordine con cui essi si susseguono.
In pratica, tuttavia, può essere necessario tener conto anche di altre considerazioni. Per esempio, è certamente
vero che la funzione di trasferimento del sistema ottenuto collegando in cascata un preamplificatore a basso rumore e un
G. V. Pallottino – Maggio 2011 Appunti di Elettronica – Parte I pag. Università di Roma Sapienza - Dipartimento di Fisica
42
amplificatore di potenza rimane la stessa anche quando si inverte l'ordine con cui si collegano i due sottosistemi. Però le
prestazioni delle due configurazioni saranno assai diverse per quanto riguarda sia il rumore che la potenza disponibile in
uscita.
Nel secondo caso, invece, cioè quando anche un solo sottosistema è nonlineare, il sistema
complessivo è nonlineare a sua volta e il suo comportamento ingresso-uscita dipende dalla
disposizione dei sottosistemi (questa dipendenza può essere rilevantissima: si rifletta, per esempio,
al caso in cui il filtro di livellamento preceda, anziché seguire, il circuito rettificatore di un
alimentatore).
Esercizio. Determinare l'equazione differenziale ingresso-uscita e la risposta in frequenza dei due sistemi nella figura
qui sotto, se i sottosistemi sono governati dalle seguenti equazioni, dove x indica l’ingresso e y l’uscita:
A y' = a y + b x
B y' = c y + d x
A B
B A
Esercizio. Calcolare la risposta a un impulso rettangolare, con ampiezza di 10 V e durata di 100 ms, del sistema
costituito da un limitatore simmetrico (pag.19), con guadagno 2 nella zona lineare e livelli di limitazione in uscita di 0,5
V, e da un circuito RC passabasso, con R=1 M e C=1µF:
a) se il limitatore precede il filtro, b) se il filtro precede il limitatore.
20. Grafi di flusso18
Una rappresentazione simile a quella degli schemi a blocchi è stata formalizzata da
S.J.Mason nel 1953, col nome di grafi di flusso (signal flow graphs), per analizzare il flusso dei
segnali attraverso i sistemi lineari e calcolarne la risposta ingresso-uscita. Un vantaggio di questo
metodo è che esso è utilizzabile anche quando i sistemi sono rappresentati in termini circuitali.
18
Le pagine che seguono sono riprodotte da
S. Cantarano, G.V. Pallottino Elettronica Integrata 1. Circuiti e sistemi analogici, Etas Libri, 1985