Teoria Dei Controlli

download Teoria Dei Controlli

of 190

Transcript of Teoria Dei Controlli

  • 7/21/2019 Teoria Dei Controlli

    1/190

    Andrea Bacciotti

    TEORIA MATEMATICA DEI

    CONTROLLI:

    SISTEMI LINEARI

    Dispense diTeoria matematica dei controlliinsegnamento tenuto presso il corso di Laurea in Matematica per lIngegneria

    Politecnico di TorinoA.A. 2014-2015

  • 7/21/2019 Teoria Dei Controlli

    2/190

    2

  • 7/21/2019 Teoria Dei Controlli

    3/190

    Indice

    Notazioni 7

    1 Considerazioni generali sui sistemi 91.1 La nozione astratta di sistema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

    1.1.1 Loperatore ingresso-uscita . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

    1.1.2 Tempo discreto e tempo continuo . . . . . . . . . . . . . . . . . . . . . . . . . 101.1.3 Spazio degli ingressi e spazio delle uscite . . . . . . . . . . . . . . . . . . . . . 111.1.4 Spazio degli stati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

    1.1.5 Sistemi finito-dimensionali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111.1.6 Connessione di sistemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111.1.7 Analisi dei sistemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131.1.8 Controllo dei sistemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141.1.9 Proprieta dei sistemi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

    1.2 Sistemi a risposta impulsiva . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151.3 Sistemi inizializzati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

    1.3.1 Sistemi deterministici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

    1.3.2 Sistemi invarianti nel tempo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191.3.3 Sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191.3.4 Stabilita esterna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

    1.3.5 Sistemi inizializzati a zero e sistemi non forzati . . . . . . . . . . . . . . . . . 201.4 Sistemi differenziali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

    1.4.1 Ingressi ammissibili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211.4.2 Equazioni di stato . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211.4.3 Sistemi differenziali lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

    2 Sistemi di equazioni differenziali in generale 252.1 La mappa di flusso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

    2.2 Punti dequilibrio e stabilita nel senso di Liapunov . . . . . . . . . . . . . . . . . . . 27

    3 Sistemi di equazioni differenziali lineari omogenei 293.1 Richiami . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

    3.2 La matrice esponenziale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313.3 Adiagonale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323.4 Anilpotente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333.5 Adiagonale a blocchi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 343.6 Equivalenza lineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

    3

  • 7/21/2019 Teoria Dei Controlli

    4/190

    4

    3.7 Adiagonalizzabile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

    3.8 Forma di Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

    3.9 Stima asintotica delle soluzioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

    3.10 Equazioni scalari di ordinen >1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

    3.11 Matrice compagna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

    4 Stabilita dei sistemi lineari non forzati 47

    4.1 Posizioni dequilibrio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

    4.2 Criteri di stabilita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

    4.3 Lequazione di Liapunov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

    4.4 Il criterio di Routh-Hurwitz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

    5 Sistemi di equazioni differenziali lineari non omogenei 55

    5.1 Sistemi non omogenei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

    5.1.1 Metodo di variazione delle costanti . . . . . . . . . . . . . . . . . . . . . . . . 56

    5.1.2 Metodo di somiglianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

    5.2 Transitorio e soluzione di regime . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

    5.3 Lequazione scalare di ordine n non omogenea . . . . . . . . . . . . . . . . . . . . . . 59

    6 Sistemi definiti da equazioni differenziali lineari di ordine arbitrario 63

    6.1 Funzione di trasferimento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

    6.2 Analisi della risposta in frequenza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

    6.3 Analisi della stabilita esterna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

    7 Sistemi lineari con ingressi e uscite 71

    7.1 Insiemi raggiungibili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

    7.1.1 Struttura degli insiemi raggiungibili . . . . . . . . . . . . . . . . . . . . . . . 73

    7.1.2 Linearita delloperatore ingresso-uscita . . . . . . . . . . . . . . . . . . . . . . 74

    7.1.3 Soluzione del problema della raggiungibilita . . . . . . . . . . . . . . . . . . . 74

    7.1.4 Matrice di controllabilita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76

    7.1.5 Il criterio di Hautus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78

    7.2 Osservabilita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

    7.2.1 Lo spazio di non osservabilita . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

    7.2.2 Matrice di osservabilita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82

    7.2.3 Ricostruzione dello stato iniziale . . . . . . . . . . . . . . . . . . . . . . . . . 837.2.4 Dualita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84

    7.3 Scomposizioni canoniche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84

    7.3.1 Equivalenza lineare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84

    7.3.2 Invarianza controllata . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84

    7.3.3 Parte controllabile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85

    7.3.4 Parte osservabile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86

    7.3.5 Scomposizione di Kalman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

  • 7/21/2019 Teoria Dei Controlli

    5/190

    5

    8 Stabilita interna e stabilita esterna dei sistemi lineari 898.1 Stabilita esterna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 908.2 Stabilita interna . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 938.3 Il casoC=I . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 938.4 Il caso generale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96

    9 Stabilizzabilita 1019.1 Retroazioni statiche dello stato . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101

    9.1.1 Controllabilita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102

    9.1.2 Stabilita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1039.1.3 Stabilizzabilita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1089.1.4 Controllabilita asintotica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109

    9.2 Retroazioni statiche delluscita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1109.2.1 Riduzione della dimensione . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1119.2.2 Sistemi con dinamica zero stabile . . . . . . . . . . . . . . . . . . . . . . . . . 1129.2.3 Sistemi in dimensione 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113

    9.2.4 Assegnabilita dei poli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1149.3 Retroazioni dinamiche delluscita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114

    9.3.1 Costruzione di un osservatore asintotico . . . . . . . . . . . . . . . . . . . . . 1159.3.2 Costruzione di un compensatore dinamico . . . . . . . . . . . . . . . . . . . . 116

    10 Analisi e sintesi nel dominio della frequenza 11910.1 La matrice di trasferimento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11910.2 Proprieta della matrice di trasferimento . . . . . . . . . . . . . . . . . . . . . . . . . 121

    10.3 Il problema della realizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12410.4 Sistemi SISO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127

    10.4.1 Il problema della realizzazione nel caso SISO . . . . . . . . . . . . . . . . . . 127

    10.4.2 Diagramma di Nyquist . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12910.4.3 Stabilizzabilita BIBO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132

    11 Controllo ottimo 13511.1 Raggiungibilita in presenza di vincoli . . . . . . . . . . . . . . . . . . . . . . . . . . . 136

    11.2 Controllo ottimo sullorizzonte finito . . . . . . . . . . . . . . . . . . . . . . . . . . . 13811.3 Problema del tempo minimo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13911.4 Controllo ottimo sullorizzonte infinito . . . . . . . . . . . . . . . . . . . . . . . . . . 14511.5 Regolatore quadratico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146

    Appendici 151

    A. Richiami di algebra lineare 153A.1 Spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153

    A.2 Applicazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154A.3 Matrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156A.4 Autovalori, autovettori, forma di Jordan . . . . . . . . . . . . . . . . . . . . . . . . . 156A.5 Procedure per la costruzione di una base propria . . . . . . . . . . . . . . . . . . . . 160A.6 Prodotto cartesiano di spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . 164A.7 Sottospazi e ortogonalita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165

  • 7/21/2019 Teoria Dei Controlli

    6/190

    6

    B. Trasformata di Laplace 167B.1 Definizione e proprieta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167B.2 Trasformate notevoli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172

    B.2.1 Funzioni elementari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172B.2.2 Funzioni discontinue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174

    B.2.3 Delta di Dirac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175B.3 Teorema del valore finale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176B.4 Trasformata inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177B.5 Trasformata di funzioni vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177

    C. Raccolta di esercizi 179C.1 Esercizi sui sistemi di equazioni differenziali lineari . . . . . . . . . . . . . . . . . . . 179

    C.1.1 Integrale generale e soluzioni particolari di sistemi omogenei di due equazioniin due incognite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179

    C.1.2 Integrale generale e soluzioni particolari di sistemi omogenei di tre equazioniin tre incognite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179

    C.1.3 Sistemi non omogenei ed equazioni lineari di ordine superiore . . . . . . . . . 181C.2 Esercizi sulla stabilita dei sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . 182

    C.2.1 Stabilita dei sistemi piani e funzioni di Liapunov . . . . . . . . . . . . . . . . 182C.2.2 Stabilita dei sistemi piani ed equazione matriciale di Liapunov . . . . . . . . 183C.2.3 Stabilita dei sistemi in dimensione maggiore di 2 . . . . . . . . . . . . . . . . 184

    C.3 Esercizi sulle proprieta strutturali dei sistemi con ingressi . . . . . . . . . . . . . . . 185C.3.1 Insieme raggiungibile, controllabilita, osservabilita . . . . . . . . . . . . . . . 185C.3.2 Forma di Kalman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186C.3.3 Stabilia BIBS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186C.3.4 Stabilizzabilita, assegnabilita d e i p o l i . . . . . . . . . . . . . . . . . . . . . . . 1 8 7

    C.4 Esercizi su trasformata di Laplace e applicazioni alle equazioni differenziali . . . . . 189

  • 7/21/2019 Teoria Dei Controlli

    7/190

    Notazioni

    SeA e un sottoinsieme di Rn, indicheremo con A, A, Arispettivamente, linsieme dei puntiinterni adA, la chiusura di A, la frontiera di A rispetto alla topologia di Rn.

    Se v e un elemento di uno spazio vettoriale normato di dimensione finita, la norma di vsi indica genericamente con||v||. In particolare, se v e un vettore o una matrice, e se nondiversamente specificato,||v|| indica la norma euclidea.

    SeA e B sono due insiemi qualunque,F(A, B) indica linsieme di tutte le funzioni daA a B .In particolare:

    C(I, U), dove I e un intervallo (aperto o chiuso, limitato o illimitato) di numeri reali eU Rn, indica linsieme di tutte le funzioni continue definite in Ie a valori in U (n eun qualunque intero positivo);

    PC([a, b], U), dovea e b sono numeri reali (a < b) e URn, indica linsieme di tutte lefunzioni continue a tratti1 e continue a destra, definite nellintervallo [a, b] e a valori inU;

    PC([a, +), U), dove aR e U Rn, indica linsieme di tutte le funzioni continue atratti

    2

    e continue a destra, definite nellintervallo [a, +) e a valori in U (analogamentesi definiscono gli insiemiPC((, +), U) eC((, b], U));

    B(I, Rn) indica linsieme di tutte le funzioni limitate definite nellintervallo Ie a valoriinRn;

    useremo anche le notazioni CB([a, +), Rn) e PCB([a, +), Rn) per indicare gli insiemidi tutte le funzioni che appartengono rispettivamente a C([a, +), Rn) e PC([a, +), Rn)e che inoltre sono limitate.

    Se f() e una funzione appartenente ad uno spazio vettoriale normatoV, la sua norma saraindicata con||f()||V. In particolare, e f() B(I, Rn), scriveremo||f()|| = suptI||f(t)||(norma della convergenza uniforme).

    1Si ricorda che una funzione si dice continua a tratti sullintervallo compatto [a, b] se in tale intervallo la funzioneha al piu un numero finito di punti di discontinuita, e ciascuna eventuale discontinuita e di prima specie.

    2Si ricorda che una funzione si dice continua a tratti su un intervallo illimitato I se e continua a tratti in ogniintervallo compatto [c, b] I.

    7

  • 7/21/2019 Teoria Dei Controlli

    8/190

    8

  • 7/21/2019 Teoria Dei Controlli

    9/190

    Capitolo 1

    Considerazioni generali sui sistemi

    Qualunque sia la loro natura, i fenomeni osservabili nel mondo reale coinvolgono di regola diversegrandezze, e risultano dallinterazione di varie componenti: per questo si usa il termine genericosistema.

    Le conoscenze acquisite sperimentalmente a proposito di un determinato sistema fisico vengonospesso sintetizzate attraverso la messa a punto di un modello matematico: in questo modo posso-no essere facilmente comunicate ed elaborate in termini qualitativi o numerici, ed eventualmenteutilizzate per controllare levoluzione del sistema stesso.

    In queste lezioni il termine sistema sara quasi sempre riferito al modello matematico, piuttostoche al fenomeno reale che questo vuole rappresentare. Senza nessuna pretesa di imbarcarci in unadefinizione assiomatica, cercheremo di introdurre il concetto di sistema descrivendone gli aspettiprincipali e le modalita di utilizzo.

    1.1 La nozione astratta di sistemaCaratteristica principale di ogni sistema fisico e quella di evolversi nel tempo, cioe di modificare ilproprio stato col trascorrere del tempo. Responsabili di tale evoluzione sono in generale le forze ei vincoli interni al sistema, e le sollecitazioni eventualmente imposte dallesterno.

    1.1.1 Loperatore ingresso-uscita

    Per descrivere matematicamente un sistema fisico, e necessario che lo stato del sistema, le eventualisollecitazioni esterne e le informazioni che il sistema ci fornisce sul proprio stato possano essere rap-presentate per mezzo di grandezze numeriche variabili (nel tempo). In definitiva, per rappresentare

    un sistema e necessario assegnare:

    1) un insiemeT di tempi

    2) un insiemeU di ingressi

    3) un insiemeXdi stati

    4) un insiemeYdi uscite.

    9

  • 7/21/2019 Teoria Dei Controlli

    10/190

    10

    Le sollecitazioni imposte dallesterno (dette anche ingressi o input) sono quindi descritte dafunzioni u() F(T,U). Le informazioni fornite dal sistema sul proprio stato (dette anche usciteo output) sono rappresentate da funzioni y() F(T, Y), mentre lo stato e rappresentato da unafunzione x() F(T, X).

    Luscita dipende naturalmente dallingresso. Il sistema agisce quindi come un operatore (uni-

    voco)R che trasforma ogni funzione di ingresso u() F(T,U) in una funzione di uscita y()F(T, Y). Scriveremo pertanto

    y() =R(u()) , con R:F(T,U) F(T, Y) .LoperatoreR si chiama anche operatore ingresso-uscita. Nella teoria dei sistemi si fa talvolta

    uso di diagrammi a blocchi; a tal fine, un operatore R si rappresenta graficamente mediante lafigura

    Ru y

    Un operatore ingresso-uscitaR non e necessariamente definito per ogni u() F(T,U). Peresempio, in talune applicazioni, le funzioni di ingresso devono sottostare a vincoli che la naturadel problema impone sia sui valori che esse possono assumere, sia sul loro carattere funzionale. Ilsottoinsieme di F(T,U) formato da tutte le funzioni che soddisfano le condizioni richieste costituisceil domino di

    Re si chiama insieme degli ingressi ammissibili.

    Osservazione 1.1 Nel rappresentare un sistema come un operatoreRunivoco, si suppone impli-citamente di avere una conoscenza completa del funzionamento del sistema stesso. Questo, nellarealta, non e quasi mai vero. Di regola, luscita di un sistema e infatti influenzata da fattori deiquali non si e tenuto conto nella modellizzazione, o da incertezze e imprecisioni nellidentificazionedei parametri, o da eventi di natura aleatoria. Situazioni di questo genere, tuttavia, non sarannotrattate in questo corso.

    Seguono alcuni commenti sulla natura degli insiemiT,U,X,Y.

    1.1.2 Tempo discreto e tempo continuo

    Linsieme dei tempi T puo essere un qualunque insieme totalmente ordinato dotato di una strutturadi gruppo. In pratica vi sono due possibili scelte:T =Z oppureT =R. Nel primo caso si parla disistemi in tempo discreto, e le funzioni che descrivono lingresso, luscita e lo stato sono in realtadelle successioni. Nel secondo caso si parla di sistemi in tempo continuo. Molto spesso, uno stessosistema fisico puo essere rappresentato sia da un modello in tempo discreto che da uno in tempocontinuo (cio dipende dagli scopi e dai mezzi impiegati per la modellizzazione).

  • 7/21/2019 Teoria Dei Controlli

    11/190

    11

    1.1.3 Spazio degli ingressi e spazio delle uscite

    Tra le variabili di ingresso, e opportuno fare delle distinzioni. Alcune di queste sono infatti iden-tificabili come segnali che sfuggono al controllo delloperatore (disturbi), altre come segnali di ri-

    ferimento (cioe funzioni di uscita ideali alle quali luscita effettiva del sistema si deve adeguare),

    altre infine come controlliveri e propri, cioe segnali mediante i quali loperatore puo influenzare ilcomportamento del sistema e quindi la funzione duscita.

    In generale, e conveniente ordinare le variabili di ingresso in modo da poterle rappresentarecome componenti di un vettore. Analogamente, anche le variabili di uscita saranno ordinate erappresentate come un vettore. E quindi abbastanza naturale supporre che linsieme degli ingressi

    Ue linsieme delle usciteYpossiedano una struttura di spazio vettoriale reale, di dimensione finita.

    1.1.4 Spazio degli stati

    Di regola, anche nelle applicazioni piu comuni, le variabili di stato sono molto piu numerose dellevariabili di ingresso e di uscita, e sono difficile da identificare in quanto la funzione x(

    ) che ne

    rappresenta levoluzione non e direttamente disponibile allosservatore, il quale puo monitorare emisurare solo gli ingressi e le uscite. A volte conviene pensarle come unidealizzazione matematicainerente al modello.

    E comunque naturale assumere che anche linsieme degli statiXabbia una struttura di spaziovettoriale. Per molte applicazioni e sufficiente limitarsi al caso in cui la dimensione diX e finita,ma talvolta e necessario far ricorso anche a spazi di dimensione infinita: cio accade tipicamentequando le variabili di stato dipendono, oltre che dal tempo, da altre variabili, per esempio variabilispaziali.

    1.1.5 Sistemi finito-dimensionali

    Si dice che un sistema efinito-dimensionalequando le variabili di ingresso, di uscita, e anche quelledi stato possono essere rappresentate come vettori con un numero finito di componenti reali, ovveroX = Rn,U = Rm,Y = Rp, essendo n, m, p numeri interi assegnati, maggiori o uguali ad 1. Inparticolare, il sistema si dice di tipo SISO (single-input-single-output) quando m= p = 1; altrimentisi dice di tipo MIMO (multi-input-multi-output).

    Da questo momento in poi, col termine sistema intenderemo sempre un sistemafinito-dimensionale e a tempo continuo.

    Conseguentemente, gli insiemi di funzioni che rappresentano lingresso, luscita e lo stato saranno

    indicati, rispettivamente, comeF(R, Rm),F(R, Rp),F(R, Rn).

    1.1.6 Connessione di sistemi

    E importante saper operare con e sui sistemi, stabilendo delle connessioni oppure decomponendoliin sottosistemi. I tipi fondamentali di connessione sono tre.

    1) Cascata(oserie): lingresso coincide con luscita di un altro sistema.

  • 7/21/2019 Teoria Dei Controlli

    12/190

    12

    R1u R2 y

    Indicando conR1,R2,Rgli operatori che rappresentano, rispettivamente, il primo sistema,il secondo sistema e il sistema risultante dalla connessione, si haR=R2 R1, doveindicail prodotto di composizione.

    2)Parallelo: due sistemi hanno lo stesso ingresso e contribuiscono entrambi a determinare luscita.

    u y

    R1

    R2

    Indicando come prima conR1,R2,R gli operatori che rappresentano, rispettivamente, ilprimo sistema, il secondo sistema e il sistema risultante dalla connessione, questa volta sipossono avere varie possibilita. Per esempioR potrebbe essere uguale alla sommaR1+ R2,oppure al prodotto cartesianoR1 R2.

    3) Retroazione(o feedback): luscita del primo sistema viene letta dal secondo sistema, elaborata,addizionata ad eventuali altri input esterni e quindi re-immessa nel canale di ingresso delprimo sistema.

    R2

    R1u y

    Adesso, loperatoreR che rappresenta la connessione diR1 eR2 e definito implicitamentedalla relazione y () =R1(R2(y()) + u()).

    Combinando questi tipi di connessioni, si possono ottenere schemi molto generali.

  • 7/21/2019 Teoria Dei Controlli

    13/190

    13

    1.1.7 Analisi dei sistemi

    Scopo dellanalisi dei sistemi e quello di studiare le proprieta delloperatore ingresso-uscita. Inparticolare ha interesse dare delle stime dellenergia trasportata dal segnale di uscita, in funzionedellenergia trasportata dal segnale in ingresso. Per poter fare ci o, bisogna che le funzioni che

    descrivono gli ingressi e le funzioni che descrivono le uscite vengano prese in spazi dotati di normala cui scelta dipendera dalla natura dellapplicazione e che, per il momento, non occorre precisare.

    Continuiamo a indicare rispettivamente, come prima, con i simboliF(R, Rm) eF(R, Rp) lospazio delle funzioni di ingresso e lo spazio delle funzioni di uscita, ma teniamo presente che daquesto momento in poi, essi devono essere definiti in modo da risultare spazi vettoriali normati. Leloro norme saranno indicate rispettivamente con i simboli|| ||F(R,Rm) e|| ||F(R,Rp).

    Informalmente, si dice che un sistema e esternamente stabilequando ad ogni ingresso limitatocorrisponde unuscita limitata. Cerchiamo di rendere piu preciso questo concetto.

    Definizione 1.1 Un sistema, o loperatoreRche lo rappresenta, si diceBIBO-stabilerispetto allenorme

    || ||F(R

    ,Rm

    )e

    || ||F(R

    ,Rp

    )se per ogni numero realeR >0 esiste un numero realeS >0 tale

    che per ogni ingresso u() F(R, Rm) si ha

    ||u()||F(R,Rm)R = ||y()||F(R,Rm)S

    dovey() e la risposta del sistema corrispondente allingressou().

    Lacronimo BIBO deriva dallinglese bounded-input-bounded-output. Si noti che la Definizione1.1 consente la possibilita che luscita sia diversa da zero anche quando lingresso e costantementenullo.

    La proposizione seguente, di cui tralasciamo la dimostrazione, propone un modo diverso di

    definire lo stesso concetto.

    Proposizione 1.1 Un sistema, o loperatoreR che lo rappresenta, e BIBO-stabile se e solo seesiste una funzione

    (r) : [0, +)[0, +)

    continua e non-decrescente tale che per ogni ingresso u() F(R, Rm) si ha:

    ||y(

    )

    ||F(R,Rp)

    (

    ||u(

    )

    ||F(R,Rm)) . (1.1)

    Il significato della (1.1) e che se lenergia trasportata dal segnale in ingresso e limitata, ilsistema risponde con un segnale in uscita la cui energia puo essere stimata in funzione della stimadellenergia del segnale in ingresso. Il valore(0) prende il nome di costante didistorsione, mentrela funzione (r) (0) si chiama funzione-guadagno.

    Nellanalisi dei sistemi e di fondamentale importanza conoscere le condizioni sotto le qualiun sistema e BIBO-stabile e, nel caso affermativo, ricavare informazioni sulle caratteristiche dellafunzione .

  • 7/21/2019 Teoria Dei Controlli

    14/190

    14

    1.1.8 Controllo dei sistemi

    Il progetto (design) del sistema (o sintesi) consiste nel determinare una strategia di controllo, daesercitare utilizzando il canale di ingresso, in modo che luscita del sistema sia il piu vicina possibilea quella desiderata.

    Genericamente, esistono due possibili tipi di strategie di controllo.

    1) Controllo a circuito aperto: il controllo viene implementato costruendolo direttamente comefunzione del tempo u() F(R, Rm).

    2) Controllo a circuito chiuso: il controllo viene implementato costruendo un secondo sistema erealizzando una connessione in retroazione.

    Il secondo tipo e in generale preferibile (si parla anche di controllo automatico) in quantomette il sistema in grado di autoregolarsi, in caso di perturbazioni impreviste, anche senza la

    presenza costante di un operatore umano. Nel controllo a circuito chiuso infatti, luscita del sistemaprincipale, denominato impianto e rappresentato da un operatoreRI :F(R, Rm) F(R, Rp),viene confrontata col segnale di riferimento. Quando la differenza tra le due funzioni diventa tropposensibile, il secondo sistema, denominatocompensatoreocontrolloree rappresentato da un operatoreRC :F(R, Rp) F(R, Rm), comunica allimpianto le correzioni necessarie.

    Talvolta e possibile accedere direttamente allo stato del sistema, e quindi realizzare il compen-satore come un operatoreRC :F(R, Rn) F(R, Rm). Per distinguere tra le due situazioni, siparla diretroazione delluscitanel primo caso e di retroazione dello stato nel secondo.

    1.1.9 Proprieta dei sistemi

    In questa sezione, facendo per il momento ancora riferimento al caso generale, ci proponiamo didiscutere le proprieta che e ragionevole aspettarsi, affinche un operatore R:F(R, Rm) F(R, Rp)sia effettivamente rappresentativo di un sistema fisico.

    Sistemi causali

    Di regola, i sistemi che si incontrano nelle applicazioni pratiche sono causali (o non-anticipativi).Cio significa che se per un qualunque tR e per una qualunque coppia di ingressi u1(), u2()F(R, Rm) si ha

    u1() =u2() per ogni t ,allora

    y1(t) =y2(t)

    dovey1() =R(u1()) ey2() =R(u2()). In altre parole, il valore delluscita a un istante arbitrariot e determinato esclusivamente dai valori assunti dalla funzione di ingresso negli istanti precedentia t.

  • 7/21/2019 Teoria Dei Controlli

    15/190

    15

    Sistemi invarianti nel tempo

    Diremo che un sistema, o loperatore che lo rappresenta, e invariante nel tempo (o stazionario, oancheautonomo) set, R e per ogni ingresso u() F(R, Rm), posto

    v(t) =u(t ), y() =R(u()), z() =R(v())si ha

    z(t) =y(t ).In altre parole, se si ritarda (o si anticipa) il segnale di ingresso di una certa quantit a di tempo,

    anche il segnale in uscita viene ritardato (o anticipato) della stessa quantita di tempo, ma restaqualitativamente invariato.

    Sistemi lineari

    Un sistema si dice linearese tale e loperatore che lo rappresenta, ovvero se

    a1R(u1()) + a2R(u2()) =R(a1u1() + a2u2())per ogni coppia di ingressi u1(), u2() F(R, Rm) e ogni coppia di scalari a1, a2. Si noti che questadefinizione ha senso in quanto lo spazio degli ingressi e lo spazio delle uscite sono spazi vettoriali.

    1.2 Sistemi a risposta impulsiva

    Un modo per rendere piu concreta la descrizione di un sistema finito-dimensionale in tempo con-tinuo e quello di ipotizzare lesistenza di una matrice h(t) con p righe e m colonne, i cui elementi

    siano funzioni continue del tempo definite per ogni t R, tale che la risposta y() =R(u())corrispondente a un ingressou() F(R, Rm) ammetta la rappresentazione

    y(t) =

    +

    h(t )u() d (1.2)

    assumendo naturalmente che lintegrale improprio risulti assolutamente convergente1. Un sistemaper cui una tale matrice esiste si dira a risposta impulsiva, e la matrice h(t) si chiamera matricedella risposta impulsiva. La ragione di questa denominazione e la seguente. Sia e1, . . . , em una basediRm, e siau(t) =(t)ei(per un certo indicei = 1, . . . , m) dove(t) rappresenta limpulso unitarioconcentrato nellorigine (delta di Dirac). Si ha:

    +

    h(t )u() d= +

    h(t )()ei d=h(t)ei .

    La risposta del sistema allimpulso unitario impresso nella direzione del vettoreei coincide cioecon la colonnai-esima della matriceh(t). Si noti che se p = m = 1 (sistema SISO), h(t) si riduce auna funzione reale di variabile reale.

    La dimostrazione della proposizione seguente e immediata.

    1Lipotesi di convergenza assoluta dellintegrale (1.2) non e per altro scontata e richiede, in generale, restrizionisulla natura del sistema o sullinsieme degli ingressi ammissibili.

  • 7/21/2019 Teoria Dei Controlli

    16/190

    16

    Proposizione 1.2 Se un sistema e a risposta impulsiva, allora loperatore ingresso-uscitaR as-sociato e lineare.

    Segue in particolare dalla Proposizione 1.2 che per un sistema a risposta impulsiva luscitacorrispondente a un ingresso costantemente uguale a zero e nulla.

    Proposizione 1.3 Ogni sistema a risposta impulsiva e invariante nel tempo.

    Dimostrazione Sia u(t) una funzione di ingresso, e sia y(t) la relativa risposta. Siano inoltreTR, v(t) =u(t T) e z (t) la risposta relativa allingresso v(t). Si ha:

    z(t) =

    +

    h(t )v() d= +

    h(t )u( T) d .

    Effettuiamo la sostituzione T =. Si ha:

    z(t) = +

    h(t T )u() d= y(t T),come dovevasi dimostrare.

    Osservazione 1.2 In realta, le due proposizioni precedenti caratterizzano completamente la classedei sistemi a risposta impulsiva. E infatti possibile dimostrare che ogni sistema lineare e invariantenel tempo e a risposta impulsiva. Intuitivamente, la matriceh(t) puo essere costruita a partire dallarisposta agli impulsi unitari concentrati nellorigine dei tempi, e dalle risposte agli impulsi traslati,concentrati in istanti arbitrari. Combinando linearmente queste risposte si puo approssimare larisposta ad un ingresso generico.

    Un sistema a risposta impulsiva non e invece necessariamente causale.

    Proposizione 1.4 Sia dato un sistema a risposta impulsiva h(t). Le seguenti proprieta sonoequivalenti.

    (1) Il sistema e causale;

    (2) h(t) = 0 per ognit

  • 7/21/2019 Teoria Dei Controlli

    17/190

    17

    Poiche u1() = u2() per < t la proprieta di causalita implica luguaglianza delle rispettiveuscite al tempo t: y1(t) =y2(t). Ma evidentemente y1(t) = 0, mentre

    y2(t) =

    +

    h(t )u2() d= +

    t|h(t )| d= 0

    a meno che non sia h(t ) = 0 per ogni > t, ovvero h(r) = 0 per r t0,

    y(t) =

    tt0

    h(t )u() d .

    Per i sistemi causali a risposta impulsiva, vi e anche una semplice caratterizzazione della stabilitaesterna.

    Proposizione 1.5 Sia dato un sistema causale a risposta impulsivah(t). Assumiamo come spazi

    degli ingressi e delle usciteB(R, Rm

    ) eB(R, Rp

    ), dotati entrambi della norma della convergenzauniforme. Il sistema e BIBO-stabile se e solo se lintegrale +0

    ||h(r)|| dr

    converge, ovvero se e solo se la funzionett0||h(r)|| dr e limitata nellinterval lo [0, +).DimostrazionePoiche il sistema e causale, per ogni tR si ha:

    ||y(t)|| = || t

    h(t )u() d|| t

    ||h(t )u()|| d

    t

    ||h(t )| | | |u()|| d

    t

    ||h(t )|| d ||u()|| .

    Ma, applicando la sostituzione t =r, t

    ||h(t )|| d= +0

    ||h(r)|| dr .

  • 7/21/2019 Teoria Dei Controlli

    18/190

    18

    Quindi, se+0

    ||h(r)|| dr = 0 taleche

    |y(t)| ||y()||S (1.4)per ogni tR. La (1.3) e la (1.4) assieme implicano la convergenza dellintegrale +

    0 |h(r)| dr.

    A parte alcune complicazioni tecniche, la dimostrazione si estende al caso generale in cui m o p (o

    entrambi) siano maggiori di 1.

    1.3 Sistemi inizializzati

    Lidea di interpretare un sistema come un operatore R:F(R, Rm) F(R, Rp) e attrattiva, ed ha ilvantaggio di permettere una presentazione semplificata di alcuni concetti fondamentali. Tuttavia, emeno naturale e soddisfacente di quello che sembri. Nelle piu comuni applicazioni infatti, gli ingressinon sono noti su tutto lasse dei tempi, ma solo a partire da un certo istante t0 R, fissato unavolta per tutte e chiamatoistante iniziale. In generale, ha interesse studiare il comportamento del

    sistema nel futuro, cioe per t t0. A tal fine, oltre ad assumere la conoscenza degli ingressi pertt0, sara anche necessario compensare la perdita di informazione relativa agli ingressi per t < t0,con lassegnazione di un dato di altra natura.

    Usualmente, si assume di conoscere lo statox0Rn a cui si trova il sistema allistante inizialet0, e a cui si da il nome di stato iniziale.

    In questa ottica, conviene interpretare loperatore ingresso-uscita come un operatore inizializza-to R(t0, x0)(u()) che trasforma funzioni2 u() F([t0, +), Rm) in funzioni y() F([t0, +), Rp),e scrivere y () =R(t0, x0)(u()).

    1.3.1 Sistemi deterministici

    Possiamo immaginare che nelle condizioni iniziali, cioe nel dato della coppia (t0, x0)

    R

    Rn,venga riassunta tutta la storia passata del sistema, e che la conoscenza dello stato iniziale (inaggiunta ovviamente alla conoscenza degli ingressi che il sistema riceve dallistante iniziale in poi)siano sufficienti per determinare tutta levoluzione futura. Questa idea riposa su unipotesi che eanaloga a quella di causalita, ma piu appropriata al nuovo punto di vista, e comunque diversaperche fa intervenire esplicitamente lo stato del sistema.

    2Alternativamente,si puo anche convenire che gli ingressi ammissibili si limitino alle funzioniu() F(R,Rm) chesono nulle per t < t0. A differenza di quanto accade per i sistemi a risposta impulsiva, cio non implica in generaleche luscita al tempo t0 sia uguale a zero.

  • 7/21/2019 Teoria Dei Controlli

    19/190

    19

    Definizione 1.2 Si dice che un sistema, o loperatore inizializzato che lo rappresenta, e determi-nistico set0R,

    u1(t) =u2(t) tt0 e x1= x2 =y1(t) =y2(t)tt0

    dovey1() =R(t0, x1)(u1()) ey2() =R(t0, x2)(u2()).In accordo con la Definizione 1.2, vanno considerati non deterministici i cosiddetti sistemi con

    ritardo (nei quali il comportamento pertt0dipende non solo dallo stato in cui il sistema si trovaal tempo t0, ma anche da tutti quegli stati che il sistema ha attraversato al trascorrere del tempoda un certo istante t0 ( > 0) fino a t0) e piu in generale i sistemi con memoria (tipicamentequelli che presentano cicli di isteresi).

    Vediamo adesso come vanno modificate le definizioni di sistema invariante nel tempo e di sistemalineare, nel caso in cui si sia scelto di rappresentare il sistema stesso per mezzo di un operatoreinizializzato.

    Da questo momento in poi, in aggiunta a quanto stabilito in precedenza e salvo avvisocontrario, col termine sistemaintenderemo sempre sistema rappresentato da un operatoreinizializzato deterministico.

    1.3.2 Sistemi invarianti nel tempo

    Un sistema, rappresentato per mezzo di un operatore inizializzato, einvariante nel tempose t0, R,x0Rn, e per ogni ingresso u(), posto

    v(t) =u(t ), y() =R(t0, x0)(u()), z() =R(t0+ , x0)(v())si ha

    z(t) =y(t ).

    Proposizione 1.6 SiaR un operatore inizializzato invariante nel tempo, e siay() =R(t0, x0)(u()).Allora,

    y(t) =z(t t0)dovez() =R(0, x0)(v()), ev(t) =u(t + t0).

    In altre parole, quando si ha a che fare con operatori invarianti nel tempo non e restrittivoassumere che listante iniziale coincida con lorigine dellinsieme dei tempi.

    1.3.3 Sistemi lineari

    Un sistema rappresentato per mezzo di un operatore inizializzatoR, si dice lineare se per ognit0 R,R e lineare come applicazione da Rn F([t0, +), Rm) inF([t0, +), Rp), e cioe set0R, x1, x2Rn,u1(), u2() F([t0, +), Rm),a1, a2R si ha

    R(t0, a1x1+ a2x2)(a1u1() + a2u2()) =a1R(t0, x1)(u1()) + a2R(t0, x2)(u2()) .

  • 7/21/2019 Teoria Dei Controlli

    20/190

    20

    Proposizione 1.7 SiaR un operatore inizializzato invariante nel tempo e lineare. Per ognit0R,ognix0Rn e ogniu() F([t0, +), Rm) si ha:

    y() =R(t0, x0)(0) + R(t0, 0)(u()) .

    Dimostrazione Applicando la definizione di sistema inizializzato lineare con x1 = x0, x2 = 0, u1() = 0,u2() = u(), a1= a2= 1, si ha subito

    y() =R(t0, x0)(u()) =R(t0, x0)(0) + R(t0, 0)(u()),come desiderato.

    1.3.4 Stabilita esterna

    Anche la Definizione 1.1, quando la si applica ai sistemi inizializzati, richiede un aggiornamento.

    Definizione 1.3 Un sistema, rappresentato per mezzo di un operatore inizializzatoR, eBIBO-stabile(uniformemente rispetto allistante iniziale) se per ogni numero realeR >0 esiste un numerorealeS >0 tale che per ognit0R e ogni ingresso u() B([t0, +), Rm) si abbia

    ||x0|| R, ||u()||R = ||y()||Sdovey() =R(t0, x0)(u()).

    1.3.5 Sistemi inizializzati a zero e sistemi non forzati

    La Proposizione 1.7 puo essere interpretata dicendo che la risposta di un sistema lineare relativa a

    un certo stato inizialex0 e ad un certo ingresso u() si puo sempre ottenere mediante unoperazionesemplice (somma) conoscendo:

    la risposta relativa allo stato iniziale x0 con lingresso posto uguale a zero; la risposta relativa allingresso u() con lo stato iniziale posto uguale a zero.

    In altre parole, nellanalisi del comportamento di un sistema lineare, e specificatamente nellostudio della stabilita esterna, linfluenza sulla risposta dei dati iniziali e linfluenza, sempre sullarisposta, degli ingressi possono essere analizzate separatamente. Conviene quindi procedere pertappe successive, supponendo in una prima fase che lingresso sia nullo, e in una seconda fase chesia nullo lo stato iniziale. Come vedremo, in questo modo sara anche piu facile ritrovare analogiecon i risultati della teoria dei sistemi a risposta impulsiva.

    Un sistema rappresentato da un operatore inizializzato invariante nel tempo si dice inizializzatoa zerose lo stato iniziale x0 al tempot0= 0 e posto uguale a zero. Un sistema rappresentato da unoperatore inizializzato si dice non forzato quando lingresso e posto costantemente uguale a zeroper t0.

    Un sistema non forzato puo comunque presentare unevoluzione nel tempo: infatti, per effettodellenergia accumulata nel sistema nelle fasi che precedono listante iniziale, lo stato iniziale noncorrispondera, in generale, ad uno stato di riposo.

  • 7/21/2019 Teoria Dei Controlli

    21/190

    21

    In tali circostanze, e naturale attendersi che il sistema si evolva dissipando lenergia iniziale,e in modo da portarsi asintoticamente verso una posizione di equilibrio. Se questo accade, si diragenericamente che il sistema e internamente stabile. Il concetto di stabilita interna sara ripreso eprecisato piu avanti.

    Nellanalisi delle proprieta di un sistema, lo studio del comportamento in assenza di termini

    forzanti costituisce, di regola, una delle fasi preliminari. Come vedremo infatti, esiste una strettacorrelazione tra le proprieta di stabilita interna e quelle di stabilita esterna.

    1.4 Sistemi differenziali

    In questa sezione circoscriveremo loggetto dei nostri studi ai sistemi modellizzati per mezzo diequazioni differenziali ordinarie; essi si chiamano anche sistemi differenziali. Si tratta di una classemolto particolare di sistemi, per i quali e disponibile una teoria molto sviluppata e completa, edella quale sono note numerose e importanti applicazioni. Lintroduzione di questo tipo di sistemirichiede alcune restrizioni.

    1.4.1 Ingressi ammissibili

    Trattandosi di sistemi differenziali, per funzione di ingresso ammissibile si intendera sempre unafunzione u() PC([t0, +), Rm), per un qualche t0 R. Tuttavia, per certe applicazioni, enecessario limitare ulteriormente gli ingressi ammissibili a funzioni u() PC([t0, +), U), doveU e un sottoinsieme limitato non vuoto di Rm dato una volta per tutte. Il ruolo di U e quello dirappresentare eventuali limitazioni sullenergia disponibile per esercitare il controllo. E appena ilcaso di osservare che in generalePC([t0, +), U) non e uno spazio vettoriale.

    1.4.2 Equazioni di stato

    Si suppongano date due funzioni

    f(t,x,u) :R Rn Rm Rn

    e

    h(t, x) :R Rn Rp .Unsistema differenziale e definito dal sistema di equazioni (dette ancheequazioni di stato)

    x= dx

    dt =f(t,x,u) (1.5)

    e dalla funzione dosservazione

    y= h(t, x) . (1.6)

    Per ogni funzione di ingresso ammissibile u(t), la (1.5) diventa un sistema di equazioni differen-ziali ordinarie del primo ordine in forma normale

    x= f(t,x,u(t)) =g(t, x). (1.7)

    A proposito delle funzioni f e h, assumeremo sempre che:

  • 7/21/2019 Teoria Dei Controlli

    22/190

    22

    (A1) fsia continua e dotata di derivate parziali prime continue rispetto ad x, continua rispettoa u, e continua a tratti rispetto a t;

    (A2) h sia continua rispetto a x, e continua a tratti rispetto a t;

    (A3) esistano funzioni continue e positive a(t), b(t) tali che

    ||f(t,x,u)|| a(t)||x|| + b(t)per ogni (t,x,u)R Rn Rm.

    Sotto tali ipotesi, per ogni coppia di valori iniziali (t0, x0)R Rn e per ogni ogni funzionedi ingresso ammissibile esiste ununica soluzione del problema di Cauchy

    x= g(t, x)x(t0) =x0

    (1.8)

    definita sullintero intervallo [t0, +

    ). Volendo esplicitare la dipendenza della soluzione del proble-

    ma (1.8) dalle condizioni iniziali e dallingresso, useremo la notazione

    x= x(t; t0, x0, u()) . (1.9)Loperatore ingresso-uscita inizializzato associato al sistema differenziale (1.5), (1.6)

    y() =R(t0, x0)(u()) (1.10)e quello che definisce luscita come y(t) =h(t, x(t; t0, x0, u())) per ognitt0. In analogia con (1.9)useremo talvolta la notazione

    y= y(t; t0, x0, u()) . (1.11)Possiamo riassumere quanto detto fino a questo momento nella proposizione seguente.

    Proposizione 1.8 Nelle ipotesi (A1), (A2), (A3), il sistema differenziale (1.5), (1.6) definisceun operatore ingresso-uscita (1.10) deterministico sullinsieme degli ingressi ammissibili. Inoltre,luscitay(t) e una funzione continua.

    La seguente Proposizione caratterizza invece i sistemi differenziali invarianti nel tempo.

    Proposizione 1.9 Nelle ipotesi(A1), (A2), (A3), loperatore ingresso-uscita (1.10) definito dalsistema differenziale (1.5), (1.6) risulta invariante nel tempo se le funzionif e h non dipendonoesplicitamente dat, ossia sef(t,x,u) =f(x, u) eh(t, x) =h(x).

    DimostrazioneSia t0R e siau(t) PC([t0, +), Rm). Dato uno stato iniziale x0, siax(t) la corrispon-dente soluzione dellequazione (1.5) e sia y(t) = h(x(t)). Sia infine un numero reale dato.

    Posto v(t) = u(t ) e (t) = x(t ), si had

    dt(t) =

    d

    dtx(t ) =f(x(t ), u(t )) = f((t), v(t)).

    In altre parole, (t) coincide con la soluzione relativa allingresso traslato v(t) e alle condizioni iniziali(t0+ , x0). Posto infine z(t) = h((t)), e chiaro che z (t) =y(t ).

  • 7/21/2019 Teoria Dei Controlli

    23/190

    23

    In virtu delle Proposizioni 1.6 e 1.9, se le funzioni f e h non dipendono esplicitamente da tnon e restrittivo supporre t0= 0. In tal caso, le notazioni (1.9) e (1.11) possono essere semplificateevitando di indicare esplicitamente listante iniziale.

    1.4.3 Sistemi differenziali lineari

    Nella teoria matematica dei sistemi differenziali, un ruolo di rilievo spetta, sia dal punto di vistastorico che dal punto di vista delle applicazioni, ai sistemi definiti da equazioni lineari.

    Definizione 1.4 Un sistema differenziale invariante nel tempo si dice lineare quando si presentanella forma

    f(x, u) =Ax + Bu e h(x) =Cx

    doveA,B, Csono matrici a elementi reali di dimensioni, rispettivamente, n n, n m, p n.

    Proposizione 1.10 Dato un sistema differenzialex= Ax + Buy= Cx ,

    (1.12)

    lineare nel senso della Definizione 1.4, loperatore ingresso-uscita inizializzato associato (1.10) elineare.

    La dimostrazione della Proposizione 1.10 sara data piu avanti.

    A partire dal Capitolo 3 di queste lezioni, concentreremo principalmente la nostra attenzioneallo studio dei sistemi differenziali invarianti nel tempo e lineari.

  • 7/21/2019 Teoria Dei Controlli

    24/190

    24

  • 7/21/2019 Teoria Dei Controlli

    25/190

    Capitolo 2

    Sistemi di equazioni differenziali in

    generale

    Scopo di questo Capitolo e lintroduzione di alcune proprieta rilevanti nella caratterizzazione delcomportamento qualitativo a lungo termine delle variabili di stato dei sistemi differenziali in-varianti nel tempo non forzati. Un sistema di questo tipo si riduce ad un sistema di equazionidifferenziali (in generale, non lineari)1

    x= f(x) . (2.1)

    A proposito della (2.1), supporremo che f sia definita, continua e dotata di derivate parziali primecontinue per ogni xRn, e che inoltre soddisfi una disuguaglianza del tipo

    ||f(x)|| a||x|| + bper certe costanti positivea, b. Sappiamo che sotto queste condizioni e garantita, per ogni condizioneiniziale (t0, x0), esistenza, unicita e prolungabilita allinfinito della soluzione al problema di Cauchy.

    Inoltre, poiche il sistema (2.1) e definito da una funzione fche non dipende esplicitamente dat, per la Proposizione 1.9 esso e invariante nel tempo; non e quindi restrittivo supporre chet0= 0.

    2.1 La mappa di flusso

    Ogni soluzione della (2.1) puo essere interpretata come la parametrizzazione di una curva x = (t)di Rn. Per ogni tR, il vettore tangente a tale curva in x coincide con f(x). Per questa ragionela funzione f :Rn

    Rn che definisce la (2.1) si chiama anche uncampo vettoriale.

    Il sostegno di una soluzione x = (t) della (2.1) prende anche il nome di orbitao traiettoria.Bisogna fare attenzione a non confondere il grafico di una soluzione (t), che e un sottoinsieme diRRn, con lorbita di (t), che coincide con limmagine (R) e che e un sottoinsieme di Rn. Perchiarire ulteriormente, osserviamo che lorbita di non e altro che la proiezione del grafico di su

    Rn, effettuata secondo linee parallele allasse dei tempi (si veda la Figura 2.1).

    1Le nozioni che andiamo ad introdurre in questo capitolo saranno nel seguito applicate essenzialmente nel casodei sistemi lineari; tuttavia, esse si comprendono meglio in tutta la loro generalita enunciandole in riferimento a unsistema del tipo (2.1).

    25

  • 7/21/2019 Teoria Dei Controlli

    26/190

    26

    0

    5

    10

    15

    20

    10

    5

    0

    5

    10

    10

    5

    0

    5

    10

    t

    x

    y

    Figura 2.1: Due soluzioni e loro proiezione

    Come abbiamo gia osservato, nelle nostre ipotesi la (2.1) ha ununica soluzione per ogni condi-

    zione iniziale assegnata. Possiamo formulare tale proprieta, tenendo conto della sua validita globale,scrivendo che date due soluzioni x = (t) e x = (t) della (2.1),

    t: (t) =(t) = (t) =(t) tR . (2.2)Da un punto di vista geometrico, la (2.2) ci dice che se i grafici di due soluzioni hanno un punto

    in comune, allora coincidono.

    Sempre da un punto di vista geometrico, linvarianza nel tempo si interpreta dicendo che tra-slando nel tempo grafici di soluzioni si ottengono ancora grafici di soluzioni. Tutte le soluzioniottenute in questo modo sono ovviamente parametrizzazioni equivalenti della stessa curva: ad essecorrisponde dunque una stessa orbita (si veda ancora la Figura 2.1). Vale una sorta di viceversa.

    Lemma 2.1 Siano (t) e(t)due soluzioni qualunque della (2.1) definite per ognitR. Allora,

    t1, t2: (t1) =(t2) = (t) =(t + T) tR , (2.3)dove si e posto T =t1 t2.

    DimostrazioneSi ponga T =t1 t2 e (t) =(t+T). Chiaramente, (t) e una soluzione. Essa soddisfaalla condizione iniziale

    (t2) = (t2+ t1 t2) = (t1) .

    Ma anche (t) e la soluzione e, per ipotesi, soddisfa alla stessa condizione. In conseguenza dellunicitadelle soluzioni, si ha allora

    (t) = (t + T) = (t) tR .

    Laffermazione del Lemma 2.1 puo essere interpretata dicendo che se due orbite hanno un puntoin comune, esse devono coincidere (a questo proposito, si faccia ben attenzione alla differenza trala (2.2) e la (2.3)). Dunque, per ogni punto di Rn passa una e una sola orbita. Le orbite di un

  • 7/21/2019 Teoria Dei Controlli

    27/190

    27

    sistema del tipo (2.1) si dispongono nel piano in modo da costituirne una partizione. Esse formanoun disegno che prende il nome di configurazione degli stati.

    Per indicare la soluzione del problema di Cauchy

    x= f(x)x(0) =x0 (2.4)si adotta spesso la notazione2

    x= x(t, x0) (2.5)

    che ha il vantaggio di evidenziare, oltre alla variabile temporale t, anche lo stato iniziale x0. La(2.5) definisce una funzione da R Rn Rn, a cui si da il nome di mappa di flusso generato dalcampo vettoriale f. Essa puo essere interpretata come una funzione di t per ogni dato x0, oppurecome una funzione da Rn in Rn parametrizzata dat.

    Osservazione 2.1 Nella (2.5), la variabile t va pensata non tanto come lindicazione di un pre-ciso istante di tempo, ma piuttosto come lindicazione della durata del processo, cioe come lalunghezza dellintervallo di tempo necessario per operare il trasferimento di stato da x0 inx(t, x0).

    Proposizione 2.1 La mappa di flusso del campo vettorialef soddisfa le proprieta

    x(0, x0) =x0 (2.6)

    e

    x(t, x(, x0)) =x(t + , x0) (2.7)

    qualunque siano t, R ex0Rn.

    2.2 Punti dequilibrio e stabilita nel senso di Liapunov

    In questa sezione cercheremo di rendere preciso il significato dellespressione stabilita interna.Con cio si intende che un sistema, in assenza di sollecitazioni esterne, o resta nelle vicinanze di unostato di riposo oppure si evolve in modo da approssimarsi ad uno stato di riposo.

    Dato un sistema differenziale invariante nel tempo e non forzato (2.1), si dice che xRn e unpunto dequilibriose la funzione costante (t)

    x e una soluzione. Tali punti si dicono anche punti

    criticio punti singolari. Se x e un punto dequilibrio, allora lorbita passante per xsi riduce a{x}.

    Proposizione 2.2 Un punto x e dequilibrio se e solo sef(x) = 0.

    Un punto dequilibrio x si dice isolato se esiste un intornoO di x tale che f(x)= 0 per ognix O, x= x.

    2La (2.5) non e altro che quello a cui si riduce la (1.9) nel caso della (2.1).

  • 7/21/2019 Teoria Dei Controlli

    28/190

    28

    Definizione 2.1 Si dice chexe un punto dequilibriostabile (nel senso di Liapunov)per il sistema(2.1) se per ogni > 0 esiste un >0 tale che

    x0x< = x(t; x0) x< , t0

    .

    Definizione 2.2 Si dice chex e un punto dequilibrio attrattivo se esiste un0 > 0 tale che, perogni stato inizialex0 per cuix0x< 0, si ha

    limt+

    x(t; x0) = x . (2.8)

    Definizione 2.3 Sex e allo stesso tempo un punto dequilibrio stabile e attrattivo, si dice che easintoticamente stabile. Se inoltre la (2.8) vale per ognixRn, x si diraglobalmente asintotica-mente stabile. Infine, se la convergenza delle soluzioni verso x ha carattere esponenziale, e cioe seesistono M >0, >0 tali che

    x0 con x0x< 0 si ha x(t; x0) x M et , (2.9)si parla di stabilita esponenziale.

    Lestremo superiore dei numeri per cui vale la (2.9) (con un Mopportuno) si chiama tassodi decadimento.

    Nello studio del comportamento qualitativo delle soluzioni di un sistema non forzato (2.1) einfine utile la seguente nozione.

    Definizione 2.4 Sia K un sottoinsieme chiuso diRn. Si dice che K e invariante per il sistema(2.1) se per ognix0

    K si hax(t; x0)

    Kper ognit

    R.

  • 7/21/2019 Teoria Dei Controlli

    29/190

    Capitolo 3

    Sistemi di equazioni differenziali

    lineari omogenei

    Concentriamo la nostra attenzione sui sistemi differenziali lineari. Per avviarne lo studio in manierasistematica, in questo capitolo ci limiteremo ai sistemi lineari finito-dimensionali, invarianti neltempo, e non forzati. Questi sono definiti da un sistema di equazioni del tipo

    x= Ax , xRn . (3.1)Nella tradizione matematica, (3.1) si chiama un sistema di equazioni differenziali lineari omo-

    geneo a coefficienti costanti. In forma esplicita, (3.1) si scrive

    x1= a11x1+ . . . + a1nxn. . . . . . . . .xn= an1x1+ . . . + annxn .

    3.1 Richiami

    Cominciamo col ricordare alcuni fatti importanti a proposito dei sistemi di equazioni del tipo (3.1).

    Fatto 1. Per ogni stato inizialex0 assegnato esiste una e una sola soluzionex = (t) della (3.1)tale che(0) =x0; inoltre, (t) e definita per ognitR.

    Fatto 2.SevRn (v= 0) e un autovettore diA relativo allautovaloreR, allora(t) =etve la soluzione corrispondente allo stato inizialev .

    Fatto 3. Se 1(

    ), 2(

    ) sono soluzioni di (3.1) e 1, 2

    R, allora anche 11(

    ) + 22(

    ) e

    soluzione di (3.1).

    Fatto 4. Date k soluzioni 1(), . . . , k() di (3.1), queste costituiscono un sottoinsieme linear-mente indipendente inC(, +, Rn) se e solo se i vettori 1(t), . . . , k(t) costituiscono,per ognitR, un sottoinsieme linearmente indipendente inRn.

    Fatto 5. Linsieme di tutte le soluzioni di (3.1) forma un sottospazioS diC(, +, Rn): ladimensione diS e finita e, piu precisamente, uguale ad n. AdS si da il nome di integralegenerale del sistema (3.1).

    29

  • 7/21/2019 Teoria Dei Controlli

    30/190

    30

    Il sistema di equazioni (3.1) ha senso anche se si ammette che x possa prendere valori nellospazio n-dimensionale complesso Cn, e che gli elementi di A siano complessi: a parte le ovviemodifiche, rimane vero tutto quanto abbiamo detto fino a questo momento1. Valgono le seguentiulteriori proprieta.

    Fatto 6.Se gli elementi diA sono reali, e sez () e una soluzione non reale di (3.1), allora anchela sua coniugataz() e una soluzione di (3.1).

    Fatto 7. Se gli elementi diA sono reali, e sez() e una soluzione non reale di (3.1), alloraz()ez() sono linearmente indipendenti; inoltre,

    1() = z() + z()2

    e 2() = z() z()2i

    (3.2)

    sono due soluzioni della (3.1) reali e linearmente indipendenti.

    SeA e una matrice a elementi reali con un autovalore non reale = + i (

    = 0) associato ad

    un autovettore v =u + i w, a partire dalla soluzione complessa z(t) =etv si ottengono pertanto,con semplici calcoli, le due soluzioni reali

    1(t) =et[(cos t)u (sin t)w] e 2(t) =et[(cos t)w+ (sin t)u] .

    Osservazione 3.1 Ad autovalori non reali, corrispondono dunque soluzioni reali a carattere oscil-latorio. In particolare se = 0, gli autovalori sono immaginari, e si hanno soluzioni periodiche diperiodo minimo uguale a 2/.

    A questo punto risulta chiaro che lintegrale generale della (3.1) puo essere scritto come combi-

    nazione lineare

    (t) =c11(t) + . . . + cnn(t) (3.3)

    dove le c1, . . . , cn sono delle costanti arbitrarie, e 1, . . . , n sono n soluzioni qualunque, purchelinearmente indipendenti. SeAe reale, non e restrittivo assumere che1, . . . , nsiano a valori reali:pertanto, la formula (3.3) descrivera linsieme di tutte le soluzioni reali se le costanti si scelgonoin campo reale, oppure linsieme di tutte le soluzioni complesse se le costanti si scelgono in campocomplesso.

    Un insieme costituito dan soluzioni linearmente indipendenti del sistema (3.1) si chiama ancheunsistema fondamentale di soluzioni. Ad ogni sistema fondamentale di soluzioni 1,...,n, si associa

    una matrice fondamentale

    (t) = (1(t), . . . , n(t))

    le cui colonne sono costituite dalle componenti dei vettori 1(t),...,n(t). Osserviamo che se (t)e una matrice fondamentale e Q una matrice costante non singolare, allora anche (t)Q e una

    1Lopportunita di estendere la ricerca delle soluzioni al campo complesso anche nel caso in cui gli elementi diAsiano reali, e suggerita dal Fatto 2: eventuali autovalori non reali di A danno infatti luogo a soluzioni che sarebbedifficile individuare rimanendo nel campo reale.

  • 7/21/2019 Teoria Dei Controlli

    31/190

    31

    matrice fondamentale. In particolare, vi e ununica matrice fondamentale tale che (0) = I. Essaviene detta anche matrice fondamentale principale.

    Introduciamo il vettore costante c = (c1, . . . , cn)t. Se (t) e una qualunque matrice fondamen-

    tale, la (3.3) si scrive anche

    (t) = (t)c (3.4)

    La soluzione particolare che soddisfa alle condizioni iniziali (t0) = x0 si ricava risolvendo ilsistema algebrico

    (t0)c= x0

    rispetto allincognita vettorialec. Se t0 = 0 e (t) e la matrice fondamentale principale, allora siha semplicemente c = x0.

    3.2 La matrice esponenziale

    SiaM(C) lo spazio vettoriale di dimensione finita formato da tutte le matrici quadrate di ordinen n a elementi complessi. Se M= (mi,j)i,j=1,...,n M(C), definiamo

    ||M||=

    i,j

    |mi,j|2 .

    In questo modo,M(C) diventa uno spazio normato. Si puo dimostrare che la serie

    k=0

    Mk

    k! ,

    converge qualunque sia M M(C); la sua somma si indica col simbolo eM e si chiama matriceesponenziale.

    Riportiamo una lista delle principali proprieta della matrice esponenziale:

    se gli elementi di Msono reali, allora anche gli elementi di eM sono reali; e0 =I, ove 0 indica la matrice i cui elementi sono tutti nulli; eN+M =eMeN, a condizione che M N=N M; gli autovalori di eM sono tutti e solo i numeri complessi della formae, dovee un autovalore

    di M;

    eMM =M eM; det eM =etr M, ed e quindi diverso da zero (tr M indica la traccia di M); se P e una matrice non singolare, eP1MP =P1eMP.

    Torniamo adesso al sistema (3.1). Per ogni t R, gli elementi della matrice esponenziale etAsono funzioni derivabili. Inoltre, vale la proposizione seguente.

  • 7/21/2019 Teoria Dei Controlli

    32/190

    32

    Proposizione 3.1 Qualunque siaA M(C) si ha, per ognitR,d

    dtetA =AetA .

    La matrice esponenziale fornisce dunque un formalismo utile a rappresentare le soluzioni del

    sistema (3.1). Infatti, se x = (t) e la soluzione di (3.1) tale che (t0) = x0, allora, per lunicitadelle soluzioni e le proprieta dellesponenziale, si avra

    (t) =e(tt0)Ax0

    e, se t0 = 0, ancor piu semplicemente

    (t) =etAx0 (3.5)

    qualunque sia t R. In altre parole, determinare la matrice esponenziale equivale a determinareuna matrice fondamentale del sistema (anzi, la matrice fondamentale principale).

    Vediamo adesso come si puo calcolare esplicitamente la matrice esponenziale2. Cominciamo da

    alcuni casi particolari.

    3.3 A diagonale

    Sia

    A=

    1 0 . . . 00 2 . . . 00 . . . . . . 00 0 . . . n

    = diag (1, . . . , n)

    dove1

    , . . . , n

    sono numeri reali o complessi non necessariamente distinti.

    Osservazione 3.2 Per una matrice siffatta, e un autovalore se e solo se = i per qualchei = 1, . . . , n, e la molteplicita algebrica di e uguale al numero di volte che compare ripetutonella n-pla 1, . . . , n. Gli autovettori corrispondenti a 1, . . . , n si possono prendere coincidenti,ordinatamente, con i vettori della base canonica

    v1=

    10

    . . .0

    , . . . , vn=

    00

    . . .1

    . (3.6)

    Un sistema fondamentale di soluzioni del sistema (3.1) potra essere quindi scritto della forma

    1(t) =e1tv1, . . . , n(t) =e

    ntvn .

    Il sistema (3.1) definito da una tale A si dice disaccoppiato, in quanto levoluzione di ciascunacomponentexi del vettore x dipende daxi ma non dipende da nessuna xj conj=i. Un sistema di

    2Alcuni concetti e risultati di algebra lineare, di cui faremo uso a questo scopo, sono riportati nellAppendice Bper comodita dello studente

  • 7/21/2019 Teoria Dei Controlli

    33/190

    33

    questo tipo puo anche essere risolto direttamente, integrando separatamente le singole equazioni. Ilsistema fondamentale di soluzioni a cui si perviene per questa via e ovviamente lo stesso di prima.Sempre al medesimo risultato si puo infine arrivare costruendo la matrice esponenziale. Infatti, eimmediato verificare che

    Ak = diag (k1, . . . , kn)

    per ogni k intero positivo, per cui

    etA = diag (e1t, . . . , ent).

    3.4 A nilpotente

    Se A e nilpotente, vuol dire che esiste un interoqpositivo tale che Ak = 0 per ogni kq. Dunquela serie che definisce la matrice esponenziale si riduce ad un polinomio e pu o essere calcolataelementarmente. Una tipica matrice nilpotente (per cui q= n) e

    A=

    0 1 0 . . . 00 0 1 . . . 0

    . . . . . . . . . . . . . . .0 0 0 . . . 10 0 0 . . . 0

    . (3.7)

    Il sistema corrispondente

    x1= x2x2= x3. . .

    xn= 0puo anche essere risolto procedendo in cascata (dal basso verso lalto). I due approcci portano,ovviamente, allo stesso risultato. Un sistema fondamentale di soluzioni puo essere scritto nella forma

    1(t) =v1 , 2(t) =tv1+ v2 , . . . , n(t) = tn1

    (n 1)! v1+ . . . + tvn1+ vn (3.8)

    dove i vettori v1, . . . , vn sono, come in (3.6), quelli della base canonica. Daltra parte, il calcolodiretto della matrice esponenziale, supponendo sempre A nella forma (3.7), mostra che

    etA =

    1 t t2

    2! . . . tn1

    (n1)!

    0 1 t . . . tn2

    (n2)!

    ... ...

    ... ...

    0 0 0 . . . t0 0 0 . . . 1

    .

    Osservazione 3.3 Si noti che zero e lunico autovalore della matrice (3.7); lo spazio proprio corri-spondente ha dimensione uno. Inoltre, Av1 = 0 (vale a dire chev1 e un autovettore di A),Av2= v1,Av3= v2 e via di seguito.

  • 7/21/2019 Teoria Dei Controlli

    34/190

    34

    La formula dellintegrale generale del sistema definito da una matrice del tipo (3.7) si puoscrivere come

    (t) =c11(t) + . . . + cnn(t) =d1+ td2+ . . . + tn1

    (n

    1)!

    dn

    dove

    d1=

    c1c2...

    cn1cn

    , d2=

    c2c3...

    cn0

    , . . . , dn=

    cn0...00

    .

    Si osservi che Ad1= d2, Ad2= d3, . . . , A dn= 0.

    Osservazione 3.4 Combinando i due casi particolari considerati fino a questo momento, siamoin grado di calcolare la matrice esponenziale per ogni matrice A della forma In+T dove eun qualunque numero reale, In e la matrice identica di dimensioni nn, e T e nilpotente. Inparticolare, se Tha la forma (3.7), allora

    et(In+T) =et

    1 t t2

    2! . . . tn1

    (n1)!

    0 1 t . . . tn2

    (n2)!...

    ... ...

    ...0 0 0 . . . t0 0 0 . . . 1

    . (3.9)

    3.5 A diagonale a blocchi

    Se M e diagonale a blocchi, cioe

    M =

    M1 0 . . . 00 M2 . . . 0...

    ... ...

    0 0 . . . M k

    = diag (M1, . . . , M k) ,

    allora anche la sua matrice esponenziale e diagonale a blocchi

    eM = diag (eM1, . . . , eMk) .

    3.6 Equivalenza lineare

    Per procedere al calcolo della matrice esponenziale nel caso piu generale, conviene introdurre ilconcetto di equivalenza lineare.

  • 7/21/2019 Teoria Dei Controlli

    35/190

    35

    Immaginiamo il sistema (3.1) come il modello matematico di un processo che si svolge in uno spa-zio vettoriale realeV di dimensione n nel quale sia stata fissata una base. Ln-plax = (x1, . . . , xn)

    t

    di numeri reali rappresenta, in tale base, le componenti dello stato del sistema.Supponiamo adesso di prendere unaltra base di V, e di indicare con y = (y1, . . . , yn)

    t lecomponenti dello stato in questa seconda base.

    E noto che esiste una matrice non singolare Ptale che, per ogni elemento di V,

    x= P y.

    Vediamo come cambia lequazione (3.1), quando si rappresentano gli stati del sistema rispettoalla seconda base. Si ha

    y = P1x= P1AP y= By . (3.10)

    Si ottiene dunque ancora un sistema lineare, definito da una matrice simile alla data.Viceversa, due sistemi del tipo (3.1) definiti da matrici simili possono sempre essere pensati

    come uno stesso sistema fisico rappresentato in diversi sistemi di coordinate.

    Definizione 3.1 Due sistemi

    x= Ax e y = By , xRn, yRn

    si dicono linearmente equivalenti se A e B sono simili, cioe se B = P1AP per qualche P nonsingolare.

    Quella definita e una relazione di equivalenza. E chiaro che ogni soluzionex(t) del primo sistemae della formax(t) =P y(t) dovey(t) e una soluzione del secondo e viceversa. Si vede facilmente delresto che

    etB =P1etAP (o, equivalentemente, etA =P etBP1) . (3.11)

    Dal punto di vista della rappresentazione delle soluzioni, possiamo quindi lavorare su un qua-lunque sistema linearmente equivalente al dato, tenendo poi conto della (3.11) per ricondursi allecoordinate originali.

    La nozione di equivalenza lineare, cos come quella di similitudine tra matrici, si generalizzaimmediatamente al caso in cui xCn. Se Ae B sono matrici simili,Ae reale eB contiene elementicomplessi, allora la matrice Pche opera il cambiamento di base conterra necessariamente elementicomplessi.

    3.7 A

    diagonalizzabileE noto che una matrice A di dimensioni n n e diagonalizzabile (cioe simile a una matrice dia-gonale) se e solo se esistono n vettori v1, . . . , vn linearmente indipendenti ciascuno dei quali e unautovettore diA. Si dice che i vettori v1, . . . , vn costituiscono una base propriadi A. In particolare,A e diagonalizzabile se ci sono n autovalori distinti.

    Indicata conPla matrice le cui colonne sono, ordinatamente, v1, . . . , vn, si ha

    P1AP= diag (1, . . . , n) =D

  • 7/21/2019 Teoria Dei Controlli

    36/190

    36

    dove 1 e lautovalore di A relativo a v1, 2 e lautovalore di A relativo a v2 e cos via (non erichiesto che i numeri 1, . . . , n siano distinti).

    Per calcolare etA possiamo prima diagonalizzare A mediante il cambiamento di coordinatedeterminato da P, quindi calcolare etD, e infine ritornare alle coordinate originali, facendo usodella (3.11).

    Osservazione 3.5 Se A e reale ma possiede autovalori complessi, allora P e D avranno elementicomplessi cos come etD; tuttavia, si ricordi che, per costruzione, gli elementi di etA devono esserereali.

    Si noti che (t) = P etD e una matrice fondamentale, per calcolare la quale non e richiestalinversione di P; tuttavia, in generale gli elementi di P etD non sono reali, neanche se A e reale.

    In definitiva, per determinare esplicitamente gli elementi che formano la matrice etA e quindilintegrale generale della (3.1) nel caso diagonalizzabile e sufficiente conoscere gli autovalori di A ei relativi autovettori.

    Esempio 3.1 Consideriamo il sistema x1=x2x2= x1

    definito dalla matrice

    A=

    0 11 0

    .

    Gli autovalori di A sono +i , con autovettore

    i1

    , ei , con autovettore

    i1

    . Due soluzioni

    (complesse) linearmente indipendenti sono

    1(t) =ei t

    i1

    =

    sin tcos t

    + i

    cos tsin t

    e 2(t) =e

    i ti

    1

    =

    sin tcos t

    i

    cos tsin t

    .

    Come si vede, esse sono coniugate. Prendendo parte reale e parte complessa si ottengono duesoluzioni reali linearmente indipendenti

    1(t) =

    sin tcos t

    e 2(t) =

    cos tsin t

    .

    Alternativamente, possiamo applicare il procedimento di diagonalizzazione sopra descritto. Atal fine, dobbiamo calcolare linversa della matrice

    P = i i1 1

    che e data da

    P1 = 12i

    1 i1 i

    .

    Si calcola facilmente

    D= P1AP =

    i 00 i

    ,

  • 7/21/2019 Teoria Dei Controlli

    37/190

    37

    e

    etD =

    ei t 00 ei t

    .

    Infine,

    etA =P etDP1 =

    cos t sin tsin t cos t

    .

    In questo caso, la matrice esponenziale si sarebbe potuta calcolare anche direttamente sullabase della definizione stessa: si verifica infatti senza difficolta che A4 =I2.

    3.8 Forma di Jordan

    In questa sezione, se A e una qualunque matrice n n, indicheremo con 1, . . . , k (1 k n)i suoi autovalori distinti. Per ogni autovalore i di A, con i e i indicheremo rispettivamente lamolteplicita algebrica e quella geometrica di i (1ii). Scriveremo inoltre i= i+ i i.

    Se A possiede autovalori con molteplicita algebrica maggiore di uno e con molteplicita geome-trica diversa dalla molteplicita algebrica, alloraA non e diagonalizzabile. In altre parole, il numerodi autovettori linearmente indipendenti e insufficiente a formare una base dello spazio. Per aggirarelostacolo, bisogna ricorrere agli autovettori generalizzati. Vale il seguente teorema.

    Teorema 3.1 Ogni matrice A di dimensioni nn e simile ad una matrice diagonale a blocchidella forma

    J= C1,1 0 . . . 0

    0 C1,2 . . . 0

    ... ... ...0 0 . . . C k,k

    dove i blocchiCi,j sono a loro volta matrici quadrate della forma

    Ci,j =

    i 1 0 . . . 00 i 1 . . . 0...

    ... ...

    ......

    ... ... . . . 1

    0 0 0 . . . i

    .

    In ogni blocco compare solo un autovalore, ma lo stesso autovalore puo comparire in piu blocchi.Piu precisamente, per ogni autovaloreivi sono esattamentei blocchi, ciascuno dei quali associatoad un autovettore in senso stretto. La dimensione del blocco generico Ci,j e uguale alla lunghezzadella catena degli autovettori generalizzati originata dalj-esimo autovettore associato allautovalorei. Il numero di volte chei compare sulla diagonale principale diJ e uguale ai.

    La matriceJsi chiamaforma di Jordandi A. Dal nostro punto di vista, e importante osservareche ogni blocco diJ e della forma iI+ T, doveI e la matrice identica (di dimensione appropriata),e T e nilpotente del tipo (3.7). Questo significa, tenendo anche conto di quanto osservato nella

  • 7/21/2019 Teoria Dei Controlli

    38/190

    38

    Sezione 3.5, che la strategia illustrata nel caso di una matrice diagonalizzabile pu o essere estesaalla situazione presente: si trasforma il sistema dato (3.1) nel sistema

    y = J y (3.12)

    mediante un opportuno cambiamento di coordinate, si trovano le soluzioni di (3.12) direttamente,oppure calcolando etJ, e quindi si torna alle coordinate originali. Resta solo il problema di iden-tificare la matrice P che determina la similitudine tra A e J. A tal fine, come gia accennato, sideve determinare per ogni autovalore i, un numero di autovettori e di autovettori generalizzatilinearmente indipendenti pari ai. Tali vettori devono essere ordinati in modo da rispettare sia lor-dine di indicizzazione degli autovalori sia, per ogni autovalore e ogni autovettore a questo relativo,lordine con cui gli autovettori generalizzati appartenenti alla stessa catena vengono generati.

    1

    v1,1,0

    autovettorev1,1,1 . . .

    prima catena

    v1,2,0

    autovettorev1,2,1 . . .

    seconda catena

    v1,3,0

    autovettorev1,3,1 . . .

    terza catena

    . . .

    2

    v2,1,0

    autovettorev2,1,1 . . .

    prima catena

    . . . . . .

    Linsieme di tutti questi vettori costituisce una base dello spazio, che prende sempre il nome di

    base propria. La colonne della matrice P si costruiscono mettendo uno accanto allaltro i vettoridella base propria; con riferimento allo schema precedente,

    P = [v1,1,0 v1,1,1 . . . v1,2,0 v1,2,1 . . . v1,3,0 v1,3,1 . . . v2,1,0 v2,1,1 . . .] .

    Se si permutano gli indici degli autovalori oppure, per ogni autovalore, lordine degli autovettori(fermo restando, per ogni autovettore, lordine di generazione di eventuali autovettori generalizzati),si ottiene unaltra base propria e unaltra forma di Jordan. In questo senso la forma di Jordan non

    e unica.Una volta costruita una base propria, a condizione di rispettare gli ordini dei vari tipi di indice

    come sopra indicato, la forma di Jordan e automaticamente determinata, e quindi non ce in realtanessun bisogno di effetture materialmente il cambiamento di coordinate. Per risalire a etA (nellecoordinate originali), e tuttavia indispensabile calcolare P1. Anche in questo caso, il calcolo diP1 puo essere risparmiato se ci si accontenta della matrice fondamentale (in generale complessa)P etJ.

    Ricordando in particolare la (3.9), e la procedura illustrata nella Sezione 3.1(Fatto 7), possiamoriassumere le conclusioni a cui siamo giunti nella proposizione seguente.

    Proposizione 3.2 Lelemento generico r,s(t)della matriceetA (r, s= 1, . . . , n)si presenta nella

    forma

    r,s(t) =k

    i=1

    (r,s)i(t)eit

    dove ogni termine(r,s)i(t) e un polinomio (a coefficienti complessi, in generale) di grado inferiorealla molteplicita algebrica dii, ei e un autovalore diA (i= 1, . . . , k).

    SeA e una matrice reale, lelemento genericor,s(t) della matriceetA puo essere messo nella

    forma

  • 7/21/2019 Teoria Dei Controlli

    39/190

    39

    r,s(t) =k

    i=1

    eit [(pr,s)i(t)cos it + (qr,s)i(t)sin it] (3.13)

    dove (pr,s)i e (qr,s)i sono polinomi a coefficienti reali di grado inferiore alla molteplicit a algebrica

    dii (nella formula precedente sono naturalmente compresi gli autovalori reali, per i qualii= 0).

    3.9 Stima asintotica delle soluzioni

    Come applicazione delle conclusioni a cui siamo giunti sulla struttura di etA, vogliamo ora dare unastima asintotica delle soluzioni della (3.1) (per t+), che ci sara molto utile nel seguito.

    Lemma 3.1 Per ogni >0 e ogni intero mN esiste una costantek >0 tale chetm < ket, perognit0.

    DimostrazionePer induzione. Sem = 1 si prende k = 1

    . Infatti posto

    f(t) = et

    t

    si ha, f(0) = 1

    e f(t) =et 1> 0 per t >0. Supponiamo che il risultato valga per m 1, con k= k. Lafunzione

    f(t) =ket tm

    e tale che

    f(0) =k e f(t) =ket mtm1 =m

    k

    met tm1

    >0

    per t >0, a patto di scegliere k=

    mk

    .

    Sia 0 il massimo delle parti reali i degli autovalori i della matrice A (i= 1, . . . , k) e sia un numero reale piu grande di 0:

    > 0i per ogni (i= 1, . . . , k) .Poiche| sin it| 1 e| cos it| 1 per ogni i = 1, . . . , k, partendo dalla (3.13) e facendo

    ripetutamente uso della disuguaglianza triangolare si ha, per t0,

    |r,s(t)

    |

    k

    i=1 eit (

    |(pr,s)i(t)

    |+

    |(qr,s)i(t)

    |)

    k

    i=1(Qr,s)i(t)eit

    dove (Qr,s)i e un polinomio i cui coefficienti sono numeri positivi (o nulli), che si ottengono mag-giorando i valori assoluti dei coefficienti dei polinomi (pr,s)i(t) e (qr,s)i(t). Anche se non e essenzialeper quanto segue, osserviamo che il grado di (Qr,s)i e inferiore alla molteplicita algebrica di i.

    Sia 0< < 0. Per il Lemma 3.1, vi sono costanti kr,stali che |r,s(t)| kr,se(0+)t kr,setper tutti i t0. DunqueetA=

    r,s

    2r,s(t)

    r,s k

    2r,se

    t e, in definitiva,

    etA k0et t0

  • 7/21/2019 Teoria Dei Controlli

    40/190

    40

    dovek0 e una nuova costante. Si noti che se tutti gli autovalori con parte reale esattamente ugualea 0 hanno la molteplicita algebrica coincidente con quella geometrica, allora la precedente disu-guaglianza vale con 0 al posto di . Infatti, se i e un autovalore tale che i = Re i = 0, icorrispondenti polinomi (pr,s)i(t) e (qr,s)i(t) si riducono a costanti. Dunque il termine (Qr,s)i(t)e

    it

    puo essere maggiorato direttamente, a meno di unopportuna costante, con e0t, senza bisogno di

    utilizzare il Lemma 1. Per quegli autovalori i per cui i = Re i < 0, si puo ricorrere al Lem-ma 1 con = 0i. I corrispondenti termini (Qr,s)i(t)eit potranno quindi essere maggiorati,sempre a meno di una costante, coneitet =e0t. Riassumiamo queste conclusioni nella seguenteproposizione.

    Proposizione 3.3 SiaA una matrice a coefficienti reali. Per ogni > 0, esistek0> 0 tale che

    etA k0et t0 . (3.14)Se tutti gli autovalori diA con parte reale uguale ad0 hanno la molteplicita algebrica coinci-

    dente con la molteplicita geometrica, allora nella (3.14) si puo prendere= 0.

    Dalla (3.14) segue

    etAc k0cet , t0 (3.15)per ogni vettore c di costanti arbitrarie.

    3.10 Equazioni scalari di ordine n > 1

    Lequazione differenziale scalare

    y(n) + a1y(n1) + . . . + an1y

    + any= 0 (3.16)

    puo essere trattata come caso particolare della (3.1). Posto infatti

    y= x1, y =x2, . . . , y

    (n1) =xn

    si ha

    x1 = y =x2

    x2 = y =x3

    ............

    xn = y(n) =a1xn . . . anx1

    e, in forma vettoriale,

    x= C x (3.17)

    dove si e posto x = (x1, . . . , xn)t, e

  • 7/21/2019 Teoria Dei Controlli

    41/190

    41

    C=

    0 1 0 . . . 00 0 1 . . . 0...

    ... ...

    ...0 0 0 . . . 1

    an an1 . . . . . . a1

    . (3.18)

    Persoluzionedella (3.16) si intende, naturalmente, una funzioney(t) :RRdotata di almenon derivate continue e soddisfacente la (3.16) identicamene per tR. Non e difficile rendersi contocome il problema di determinare lintegrale generale (cioe linsieme di tutte le soluzioni) della(3.16) sia equivalente a quello di trovare lintegrale generale del sistema (3.17), e si riduca alladeterminazione di n soluzioni linearmente indipendenti della (3.16).

    Matrici che si presentano con la struttura (3.18) si chiamano matrici compagne (companion).Cos come la forma di Jordan, anchesse consentono di visualizzare immediatamente un importanteoggetto invariante. Si verifica infatti facilmente per induzione che se C e una matrice compagnacome in (3.18) allora il suo polinomio caratteristico e

    pc() = (1)n

    n + a1n1 + . . . + an

    .

    Data una qualunque matrice A, e individuati i coefficienti a1, . . . , an del suo polinomio caratte-ristico, possiamo associare ad A una matrice Cin forma compagna, in modo cheA e Cabbiano lostesso polinomio caratteristico, e quindi gli stessi autovalori con le stesse molteplicit a algebriche.

    In generale, non e pero detto che A e C siano simili. Per esempio, la matrice identita ha

    polinomio caratteristicopc() =n

    i=0

    (1)i

    n

    i

    i ma non e simile alla matrice compagna associata:

    la matrice identita e simile solo a se stessa.

    La forma compagna dunque non e una forma canonica rispetto alla relazione di similitudine. In

    altre parole, non tutti i sistemi di equazioni in Rn

    equivalgono ad una equazione scalare di ordinen.

    Ha interesse in se, ma anche in vista di applicazioni future, dare delle condizioni affinche unadata matrice A e la matrice C in forma compagna associata adA siano simili.

    Teorema 3.2 SiaA una matrice quadratan n. Le proprieta seguenti sono equivalenti:

    (i) A e simile ad una matrice compagna;

    (ii) rank (A I) =n 1 per ogni autovalore diA;

    (iii) la molteplicita geometrica di ogni autovalore diA e uguale a1;

    (iv) il polinomio caratteristico diA coincide col suo polinomio minimo;

    (v) esiste un vettorev= 0 tale che glin vettori

    v,Av,A2v , . . . , An1v

    sono linearmente indipendenti.

  • 7/21/2019 Teoria Dei Controlli

    42/190

    42

    La dimostrazione completa del Teorema 3.2 si trova per esempio in LaSalle J., The stability andcontrol of discrete process, Spinger Verlag, 1986. Si presti principalmente attenzione allequivalenzatra(i)e(v), di cui avremo bisogno nel seguito e di cui presentiamo una dimostrazione nella prossimasezione. Un vettorev con la proprieta enunciata al punto (v) viene detto unvettore ciclico per A.

    La proprieta (iii) del Teorema 3.2 implica in particolare che per ogni autovalore di Mvi e un

    unico autovettore in senso proprio e quindi ununica catena di eventuali autovettori generalizzati.Ne segue allora che lintegrale generale dellequazione (3.16) si ottiene come combinazione linearedelle n funzioni

    e1t, te1t, . . . , ti1e1t

    ......................

    ekt, tekt, . . . , tk1ekt

    essendo1, . . . , k le radici distinte dellequazione

    n + a1n1 + . . . + an= 0 (3.19)

    e1, . . . , k le loro molteplicita algebriche. Si noti che il primo membro della (3.19) coincide, a menodel segno, col polinomio caratteristicopc() della matrice in forma compagna associata alla (3.16).Per questa ragione, la (3.19) e chiamata lequazione caratteristicadella (3.16). Essa si puo scriveredirettamente, senza bisogno di trasformare lequazione (3.16) nel sistema equivalente, sostituendoformalmente a y ed interpretando gli ordini di derivazione come potenze.

    Esempio 3.2 Consideriamo un po piu in dettaglio il caso dellequazione lineare di ordine 2

    y+ ay+ by= 0 . (3.20)

    Distinguiamo le varie forme che puo prendere lintegrale generaley(t), a seconda che lequazionecaratteristica

    2 + a + b= 0 (3.21)

    abbia soluzioni reali distinte o coincidenti, ovvero soluzioni complesse non reali. Si ha:

    y(t) =c1e1t + c2e

    2t (3.22)

    se la (3.21) ha due soluzioni reali distinte 1, 2;

    y(t) = (c1+ tc2)et (3.23)

    se la (3.21) ha due soluzioni reali coincidenti 1= 2= ;

    y(t) = (c1cos t + c2sin t)et (3.24)

    se la (3.21) ha radici complesse coniugate3 i .3La (3.24) si puo ottenere applicando le formule (3.2). In alternativa, un modo semplice e diretto per ottenere la

    (3.24) consiste nel partire dalla forma

    k1et +k2e

    t

  • 7/21/2019 Teoria Dei Controlli

    43/190

    43

    0 2 4 6 8 10 12 14 16 18 202

    1.5

    1

    0.5

    0

    0.5

    1

    1.5

    2

    Figura 3.1: Smorzamento nel caso di autovalori reali.

    0 2 4 6 8 10 12 14 16 18 201.5

    1

    0.5

    0

    0.5

    1

    1.5

    2

    Figura 3.2: Smorzamento nel caso di autovalori complessi.

    Il comportamento delle soluzioni per t0 dipende dal segno di 1 e 2 [rispettivamente, e] nel caso (3.22) [rispettivamente, nei casi (3.23) e (3.24)].

    Per esempio, se 1, 2 < 0 [rispettivamente, < 0, < 0] lenergia iniziale posseduta dalsistema (e quantificata per mezzo delle condizioni iniziali) viene dissipata:

    con andamento monotono nei casi (3.22) e (3.23), dopo eventuali picchi iniziali la cuipresenza dipende d