(eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

download (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

of 185

Transcript of (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    1/185

    Lezioni di Econometria

    Gianni Amisano

    Febbraio 1999

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    2/185

    2

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    3/185

    Premessa

    Queste note, che costituiscono il materiale di riferimento per gli studenti del corsodi econometria attivato presso la Facolt` a di Economia dellUniversit` a di Brescia,

    sono il risultato della composizione di diverse fonti di riferimento.Un elenco (purtroppo non esaustivo) di tali fonti deve necessariamente comin-

    ciare con lottimo testo di Maddala (Maddala, 1992: Introductory Econometrics)che a tuttoggi rappresenta uno dei migliori testi di econometria adatti per un pri-mo corso. La trattazione di Maddala, carente sotto laspetto della rappresentazionematriciale degli argomenti, e stato integrata facendo riferimento ad altre fonti. Hoattinto largamente dallo splendido libro di W. Greene (Econometric Analysis, 3rdedition, 1997), dove si trovano trattati ad un ottimo livello teorico una vastissimagamma di tecniche econometriche. Le parti relative allanalisi delle serie stori-che sono ispirate alla lettura del libro di J.D.Hamilton (Time Series Analysis,Princeton University Press, 1994).

    Queste note si articolano in diverse parti. La prima parte copre tutti gli argo-menti fondamentali di un primo corso di econometria, mentre la seconda ` e una par-te monograca che ricomprende alcuni argomenti particolari e pi u avanzati. Cia-scun capitolo di queste note si chiude con un insieme di esercizi svolti che servonoad aiutare gli studenti nella preparazione per lesame. Un aspetto complementaredella preparazione allesame e costituito dalla parallela attivit a di esercitazione chesar a svolta in classe utilizzando i software applicativi Gauss e Microt disponi-bili presso il laboratorio informatico della Facolt` a di Economia dellUniversit` a diBrescia.

    Gli studenti sono caldamente invitati a contattarmi ogni volta che abbiano pro-

    blemi di comprensione o di ogni altro tipo. Sono contattabile presso il Diparti-mento di Scienze Economiche dellUniversit` a di Brescia (via San Faustino 74B)o tramite e-mail allindirizzo [email protected] . Tutto il materialedistribuito agli studenti sar` a depositato alla CLUB (corso Mameli) e disponibileelettronicamente alla mia pagina web:

    (http://www.eco.unibs.it/amisano/index.html )Desidero ringraziare gli studenti del corso di econometria dellanno accademi-

    co 1997/8 e anticipatamente quelli del corrente anno accademico, che mi hannosegnalato e sicuramente mi segnaleranno molti tra i refusi sicuramente presenti inqueste note.

    3

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    4/185

    4

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    5/185

    Indice

    1 Modelli economici e modelli econometrici 9

    1.1 Il signicato del termineeconometria

    . . . . . . . . . . . . . . . 91.2 Forma usuale dei modelli econometrici . . . . . . . . . . . . . . . 101.3 Modelli econometrici . . . . . . . . . . . . . . . . . . . . . . . . 111.4 Aspetti essenziali dellanalisi econometrica . . . . . . . . . . . . 12

    2 Richiami matematici 132.1 Operatori sommatoria e produttoria . . . . . . . . . . . . . . . . . 132.2 Matrici e vettori . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

    2.2.1 Tipologia di matrici . . . . . . . . . . . . . . . . . . . . . 142.2.2 Operazioni matriciali . . . . . . . . . . . . . . . . . . . . 162.2.3 Vettori particolari . . . . . . . . . . . . . . . . . . . . . . 17

    2.2.4 Traccia di una matrice quadrata . . . . . . . . . . . . . . 192.2.5 Matrici partizionate . . . . . . . . . . . . . . . . . . . . . 192.2.6 Il determinante di una matrice quadrata . . . . . . . . . . 192.2.7 La matrice aggiunta . . . . . . . . . . . . . . . . . . . . . 202.2.8 La matrice inversa . . . . . . . . . . . . . . . . . . . . . 202.2.9 Alcune propriet a rilevanti . . . . . . . . . . . . . . . . . 212.2.10 Matrici idempotenti . . . . . . . . . . . . . . . . . . . . . 222.2.11 Spazio vettoriale . . . . . . . . . . . . . . . . . . . . . . 222.2.12 Base di uno spazio vettoriale . . . . . . . . . . . . . . . . 232.2.13 Sottospazio vettoriale . . . . . . . . . . . . . . . . . . . . 232.2.14 Rango di una matrice . . . . . . . . . . . . . . . . . . . . 24

    2.2.15 Indipendenza lineare di vettori . . . . . . . . . . . . . . . 252.2.16 Autovalori e autovettori . . . . . . . . . . . . . . . . . . 252.2.17 Serie geometriche di matrici . . . . . . . . . . . . . . . . 272.2.18 Matrici denite, semidenite positive e negative . . . . . . 272.2.19 Prodotto di Kronecker (prodotto tensore) . . . . . . . . . 292.2.20 Loperatore vec . . . . . . . . . . . . . . . . . . . . . . . 30

    2.3 Funzioni in pi`u variabili . . . . . . . . . . . . . . . . . . . . . . . 312.3.1 Derivate parziali prime e seconde . . . . . . . . . . . . . 312.3.2 Alcune semplici regole di derivazione per funzioni in pi` u

    variabili . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

    5

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    6/185

    6 INDICE

    2.3.3 Ottimizzazione . . . . . . . . . . . . . . . . . . . . . . . 33

    2.3.4 Ottimizzazione vincolata . . . . . . . . . . . . . . . . . . 342.4 Esercizi su richiami di matematica . . . . . . . . . . . . . . . . . 362.5 Soluzioni agli esercizi . . . . . . . . . . . . . . . . . . . . . . . . 37

    3 Richiami di inferenza statistica 433.1 Variabile casuale . . . . . . . . . . . . . . . . . . . . . . . . . . 433.2 Distribuzione di probabilit a . . . . . . . . . . . . . . . . . . . . . 433.3 Funzione di ripartizione . . . . . . . . . . . . . . . . . . . . . . . 443.4 Momenti di una variabile casuale . . . . . . . . . . . . . . . . . . 463.5 La distribuzione normale . . . . . . . . . . . . . . . . . . . . . . 473.6 Inferenza statistica parametrica . . . . . . . . . . . . . . . . . . . 48

    3.7 Propriet`a degli stimatori . . . . . . . . . . . . . . . . . . . . . . 493.7.1 Non distorsione o correttezza . . . . . . . . . . . . . . . . 493.7.2 Efcienza . . . . . . . . . . . . . . . . . . . . . . . . . . 493.7.3 Consistenza . . . . . . . . . . . . . . . . . . . . . . . . . 503.7.4 La legge dei grandi numeri (Versione pi u semplice) . . . . 513.7.5 Teorema centrale del limite . . . . . . . . . . . . . . . . . 52

    3.8 Variabili casuali in pi` u dimensioni . . . . . . . . . . . . . . . . . 533.8.1 La covarianza . . . . . . . . . . . . . . . . . . . . . . . . 54

    3.9 Distribuzione normale multivariata . . . . . . . . . . . . . . . . . 553.10 Alcune distribuzioni notevoli . . . . . . . . . . . . . . . . . . . . 57

    3.10.1 La distribuzione 2 . . . . . . . . . . . . . . . . . . . . . 57

    3.10.2 La distribuzione t di Student . . . . . . . . . . . . . . . . 573.10.3 La distribuzione F di Fisher . . . . . . . . . . . . . . . . 59

    3.11 La funzione di verosimiglianza . . . . . . . . . . . . . . . . . . . 603.12 Stima di massima verosimiglianza . . . . . . . . . . . . . . . . . 623.13 Metodo dei momenti . . . . . . . . . . . . . . . . . . . . . . . . 623.14 Propriet a degli stimatori ottenuti per campionamento da una distri-

    buzione gaussiana . . . . . . . . . . . . . . . . . . . . . . . . . . 633.15 Stima per intervallo . . . . . . . . . . . . . . . . . . . . . . . . . 643.16 Prova delle ipotesi . . . . . . . . . . . . . . . . . . . . . . . . . . 663.17 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 703.18 Soluzioni agli esercizi . . . . . . . . . . . . . . . . . . . . . . . . 72

    4 Il modello di regressione lineare 814.1 Concetti fondamentali . . . . . . . . . . . . . . . . . . . . . . . . 81

    4.1.1 Il ruolo del termine di disturbo e le sue propriet a . . . . . 824.1.2 Ipotesi sui regressori . . . . . . . . . . . . . . . . . . . . 834.1.3 Rappresentazione matriciale del modello di regressione li-

    neare . . . . . . . . . . . . . . . . . . . . . . . . . . . . 844.1.4 Ricapitolando . . . . . . . . . . . . . . . . . . . . . . . . 85

    4.2 Stima dei parametri . . . . . . . . . . . . . . . . . . . . . . . . . 864.2.1 Metodo dei momenti (MM) . . . . . . . . . . . . . . . . 86

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    7/185

    INDICE 7

    4.2.2 Metodo della massima verosimiglianza. . . . . . . . . . . 88

    4.2.3 Metodo dei minimi quadrati (OLS=ordinary least squares) 904.2.4 Aspetti algebrici dello stimatore OLS . . . . . . . . . . . 934.2.5 Ricapitolazione sulla stima OLS dei parametri . . . . . 964.2.6 Interpretazioni alternative della stima OLS di un MRL . . 96

    4.3 Stima del momento secondo ( 2) . . . . . . . . . . . . . . . . . . 1004.4 Analisi della varianza . . . . . . . . . . . . . . . . . . . . . . . . 1014.5 Regressione partizionata . . . . . . . . . . . . . . . . . . . . . . 1024.6 Anticipazione su test congiunti . . . . . . . . . . . . . . . . . . . 1034.7 Inferenza statistica sul modello di regressione . . . . . . . . . . . 104

    4.7.1 Costruzione di intervalli di condenza . . . . . . . . . . . 1044.7.2 Prova delle ipotesi . . . . . . . . . . . . . . . . . . . . . 106

    4.7.3 Un utile esempio: il MRL con 3 regressori . . . . . . . . 1094.7.4 Inferenza statistica nel modello di regressione multipla . . 1124.7.5 Esempio di regressione multipla con k = 3 regressori . . . 114

    4.8 La previsione . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1174.9 Diversi modi di costruire Test: Test LR, di Wald, LM . . . . . . . 119

    4.9.1 Il test LR . . . . . . . . . . . . . . . . . . . . . . . . . . 1194.9.2 Il test di Wald . . . . . . . . . . . . . . . . . . . . . . . . 1214.9.3 Test LM (Lagrange Multipliers) (test dei moltiplicatori di

    Lagrange) . . . . . . . . . . . . . . . . . . . . . . . . . . 1244.9.4 Ricapitolazione sulle modalit a di costruzione dei test . . . 126

    4.10 Stima del modello soggetto a vincoli lineari sui parametri . . . . . 127

    4.10.1 Alcuni esempi . . . . . . . . . . . . . . . . . . . . . . . 1294.11 Effetti dellomissione di variabili rilevanti . . . . . . . . . . . . . 1314.12 Effetti dellinclusione di variabili irrilevanti . . . . . . . . . . . . 1344.13 Gradi di libert a e indice R2 . . . . . . . . . . . . . . . . . . . . . 136

    4.13.1 Relazione tra test di signicativit` a t, test F e indice R2 . . 1374.14 Test di stabilit` a del MRL . . . . . . . . . . . . . . . . . . . . . . 138

    4.14.1 Test basati sullanalisi della varianza . . . . . . . . . . . . 1384.14.2 Test previsivo di stabilit` a . . . . . . . . . . . . . . . . . . 1394.14.3 Alcuni commenti ai test di stabilit a strutturale . . . . . . . 140

    4.15 Eserciziario sulla regressione lineare . . . . . . . . . . . . . . . . 1414.15.1 Esercizio 1 . . . . . . . . . . . . . . . . . . . . . . . . . 141

    4.15.2 Esercizio 2 . . . . . . . . . . . . . . . . . . . . . . . . . 1414.15.3 Esercizio 3 . . . . . . . . . . . . . . . . . . . . . . . . . 1424.15.4 Esercizio 4 . . . . . . . . . . . . . . . . . . . . . . . . . 1424.15.5 Esercizio 5 . . . . . . . . . . . . . . . . . . . . . . . . . 1434.15.6 Esercizio 6 . . . . . . . . . . . . . . . . . . . . . . . . . 143

    4.16 Soluzioni agli esercizi . . . . . . . . . . . . . . . . . . . . . . . . 1434.16.1 Esercizio 1 . . . . . . . . . . . . . . . . . . . . . . . . . 1434.16.2 Esercizio 2 . . . . . . . . . . . . . . . . . . . . . . . . . 1454.16.3 Esercizio 3 . . . . . . . . . . . . . . . . . . . . . . . . . 1454.16.4 Esercizio 4 . . . . . . . . . . . . . . . . . . . . . . . . . 147

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    8/185

    8 INDICE

    4.16.5 Esercizio 5 . . . . . . . . . . . . . . . . . . . . . . . . . 149

    4.16.6 Esercizio 6 . . . . . . . . . . . . . . . . . . . . . . . . . 150

    5 Variabili di comodo e variabili troncate 1535.1 Variabili di comodo come variabili esplicative . . . . . . . . . . . 153

    5.1.1 Variabili di comodo a correzione di intercetta . . . . . . . 1535.1.2 Variabili dummy a correzione di intercetta per trattare dati

    con stagionalit`a . . . . . . . . . . . . . . . . . . . . . . . 1555.1.3 Variabili dummy a correzione di intercetta per outliers . 1565.1.4 Variabili dummy a correzione di intercetta e di pendenza . 1575.1.5 Variabili dummy per provare lipotesi di stabilit` a dei coef-

    cienti di regressione . . . . . . . . . . . . . . . . . . . . 158

    5.1.6 Test di Chow del secondo tipo (o test di validit a previsiva) 1595.2 Variabili dummy come variabili dipendenti . . . . . . . . . . . . . 1605.2.1 Modello di probabilit a lineare . . . . . . . . . . . . . . . 1615.2.2 Alcune anticipazioni sulla stima di modelli con disturbi

    eteroschedastici . . . . . . . . . . . . . . . . . . . . . . . 1625.2.3 Stima del modello di probabilit a lineare . . . . . . . . . . 1645.2.4 Modelli probit e logit . . . . . . . . . . . . . . . . . . . . 1655.2.5 Modello Probit . . . . . . . . . . . . . . . . . . . . . . . 1695.2.6 Effetti di variazioni delle variabili esplicative . . . . . . . 1705.2.7 Indici di bont a di adattamento del modello . . . . . . . . . 171

    5.3 Il modello Tobit . . . . . . . . . . . . . . . . . . . . . . . . . . . 173

    5.4 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1765.5 Soluzioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    9/185

    Capitolo 1

    Modelli economici e modellieconometrici

    1.1 Il signicato del termine econometria

    Il termine econometria signica letteralmente misurazione in economia. Con iltermine econometria ci si riferisce ad una disciplina scientica basata sullapplica-zione di metodi statistici e matematici per lanalisi di dati economici con lintentodi dare riscontro empirico alle teorie economiche.

    Nel 1933 viene pubblicato il primo numero della rivista scientica Econometri-ca , fondata dalla Econometric Society. Nel primo numero della rivista leditorialestabiliva:

    obiettivo della Econometric Society e la promozione di studi cheunichino gli aspetti teorico-quantitativo e empirico quantitativo e chesiano caratterizzato dal modo di pensare rigoroso proprio delle scienzenaturali.

    Leconometria quindi si compone dellunione di matematica, statistica, teoriaeconomica e di aspetti computazionali per i quali e stato sicuramente rilevantelenorme sviluppo delle capacit a di calcolo degli elaboratori elettronici avvenutonegli ultimi venti anni.

    Leconometria si basa sullo studio formalizzato di modelli economici . Per mo-dello economico intendiamo una rappresentazione schematizzata della realt a di unfenomeno economico, quali ad esempio il comportamento individuale o collettivodei consumatori, lofferta di lavoro, le modalit a operative delle autorit a di politicamonetaria.

    Generalmente, un modello economico fornisce una rappresentazione sempli-cata della realt a che intende spiegare. La semplicit a del modello e funzionale aconsentire di comunicare facilmente i risultati ottenuti dallanalisi del modello. Lasemplicit a del modello deriva dalladozione di ipotesi di partenza semplicatrici,nalizzate ad astrarre da quegli aspetti della realt a osservata che non sono rilevanti

    9

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    10/185

    10 CAPITOLO 1. MODELLI ECONOMICI E MODELLI ECONOMETRICI

    per il fenomeno che si intende studiare. In sintesi, per modello economico si inten-

    de un insieme di assunzioni nalizzate alla descrizione di un particolare fenomenoeconomico.

    Negli ultimi decenni la teoria economica ha assunto aspetti di crescente forma-lizzazione. Molto spesso i modelli economici prendono la forma di equazioni checonnettono misurazioni dei fenomeni che si intendono spiegare (ad esempio la di-soccupazione, il consumo aggregato, i protti di un settore industriale . . . ) ai valoriassunti da una serie di variabili che si intendono misurare le cause del fenomenooggetto di indagine. Quando il modello economico prende la forma di relazionimatematiche, e possibile utilizzare i dati disponibili sul fenomeno studiato per ve-ricare la rispondenza del modello stesso alla realt` a osservata. La verica empirica(sulla base dei dati disponibili) della validit a dei modelli economici costituisce uno

    degli scopi fondamentali dellanalisi econometrica.

    1.2 Forma usuale dei modelli econometrici

    In generale, un modello econometrico assume la forma:

    y t = f (x t ) + t , t = 1 , 2, . . . , T,

    dove y t e un vettore (n 1) di variabili che il modello intende spiegare ( variabiliendogene ) che si riferiscono allosservazione t-esima del campione in esame, f euna funzione che fa dipendere y t da un vettore (k 1) di variabili esogene x t(variabili esplicative), e t rappresenta un vettore (n 1) di termini di disturbocasuali. La componente f (x t ) viene detta parte sistematica del modello, mentre lacomponente t inviene indicata come parte stocastica (o casuale ) del modello.

    Il piu semplice esempio di modello econometrico ` e il seguente, dove yt , x t e tsono tutte grandezze scalari:

    yt = + x t + t , t = 1 , 2, . . . , T.

    Tale modello viene detto modello di regressione lineare semplice : la variabile di-pendente yt viene fatta dipendere in modo lineare da ulla grandezza esplicativa x ted e inuenzata dalla variabile casuale t .

    La presenza della componente stocastica implica che il modello debba essere

    trattato con tecniche inferenziali. Laspetto fondamentale e quello della stima, cio edellutilizzazione di un campione di dati osservabili sulle variabili y t e x t per de-terminare quale sia la congurazione della parte sistematica del modello meglio ingrado di spiegare il comportamento campionario delle variabili endogene.

    Accanto allo scopo di verica empirica dei modelli economici, leconometria sirivolge tradizionalmente anche alla produzione di modelli previsivi utilizzati da di-verse istituzioni. Gli intermediari nanziari, e pi u in generale ogni impresa produt-tiva in grado di dedicare risorse alla programmazione delle proprie attivit a futuretrova naturalmente utile disporre di scenari sul valore futuro delle variabili econo-miche che inuiscono sullandamento dei costi e dei ricavi. Accanto alle istituzioni

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    11/185

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    12/185

    12 CAPITOLO 1. MODELLI ECONOMICI E MODELLI ECONOMETRICI

    In questo esempio, la quantit a domandata del bene allistante t-esimo ( qdt ) viene

    ipotizzata dipendere linearmente dal prezzo del bene allo stesso istante ( pt ). Inoltresi ipotizza che la domanda sia inuenzata da un termine di disturbo u t distribuitonormalmente.

    Nei modelli econometrici i termini di disturbo sono variabili inosservabili chedescrivono leffetto sulla varibile dipendente di tutto quello che non pu` o esserericompreso nella parte sistematica del modello.

    1.4 Aspetti essenziali dellanalisi econometrica

    Le fasi dellanalisi econometrica sono le seguenti.

    1. Formulare un modello in forma empiricamente vericabile attraverso la scel-ta di alcuni aspetti fondamentali quali:

    forma funzionale della relazione. A questo proposito, nella maggiorparte delle applicazioni econometriche si ` e soliti ricorrere ad una for-ma funzionale di tipo lineare. Tale scelta risponde essenzialmente allanecessit a di rendere pi`u semplici gli aspetti computazionali.

    Variabili da inserire: si tratta di denire linsieme di variabili esplicati-ve (dette regressori) contenute nel vettore x t .

    Struttura probabilistica dei disturbi. Nellanalisi econometrica tradi-zionale e consuetamente utilizzata lipotesi di distribuzione normaledei termini di disturbo.

    2. Stima del modello. I dati disponibili vengono utilizzati per generare stimedel modello econometrico. Nella maggior parte dei casi, la stima si concretanellottenimento di valori per i parametri del modello.

    3. Uso del modello: il modello viene utilizzato per vericare la validit a di teorieeconomiche, per produrre previsioni, per svolgere simulazioni di politicaeconomica, cio e per simulare gli effetti di manovre di politiche economichealternative.

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    13/185

    Capitolo 2

    Richiami matematici

    In questo capitolo esponiamo gli elementi di algebra matriciale e di matematica chesono necessari allanalisi econometrica oggetto degli argomenti trattati nel corso.Gli argomenti sono raggruppati per omogeneit` a e sono trattati al livello di formaliz-zazione richiesto dalla loro successiva utilizzazione. Gli studenti sono caldamenteinvitati a svolgere molti esercizi per impratichirsi con le operazioni matriciali.

    2.1 Operatori sommatoria e produttoria

    Loperatore sommatoria e indicato con il simbolo e serve ad indicare operazioni

    di somma in modo compatto. Loperatore sommatoria e accompagnato da unacoppia di indici che determinano linsieme degli addendi. Ad esempio:

    n

    i=1a i = a1 + a2 + . . . + an

    Loperatore produttoria e indicato con il simbolo e serve ad indicare ope-razioni di prodotto in modo compatto. Loperatore produttoria e accompagnato dauna coppia di indici che determinano linsieme dei fattori. Ad esempio:

    n

    i=1

    a i = a1

    a2

    . . .

    an

    Le propriet a di questi operatori sono intuitive e facilmente vericabili.

    2.2 Matrici e vettori

    In questa sezione vengono descritti alcuni elementi fondamentali dellalgebra dellematrici necessari per la trattazione degli argomenti ricompresi allinterno del corso.

    Per matrice si intende un insieme di numeri ordinati su m 1 righe e n 1colonne. Per indicare una matrice si utilizza la notazione:

    13

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    14/185

    14 CAPITOLO 2. RICHIAMI MATEMATICI

    A(mn )

    = {a ij }=a11 a12 . . . a 1na21 a22 . . . a 2n. . . . . . . . . . . .an 1 an 2 . . . a nn

    Si noti che gli elementi della matrice A sono caratterizzati da due indici, ilprimo dei quali identica la riga ed il secondo identica la colonna di appartenza.Ad esempio, lelemento sulla quarta riga, sesta colonna e indicato con a46 . Unamatrice si dice di ordini m e n quando ha m righe e n colonne.

    Per vettore si indica una matrice particolare caratterizzata dallavere una solariga (vettore riga) o una sola colonna (vettore colonna ). Ad esempio:

    a(41)

    =

    1247

    ,

    b(15)

    = 4 3 2 5 7

    2.2.1 Tipologia di matrici

    Una matrice (n n

    ) si dice quadrata di ordinen

    quando il numero di righe ` e parial numero delle sue colonne.

    Una matrice quadrata A (n n ) si dice simmetrica quando:a ij = a ji , i, j

    Ad esempio la matrice:

    A(33)

    =1 2 42 5 74 7 4

    e simmetrica, mentre la matrice

    A(33)

    =1 2 52 5 74 7 4

    non lo e (confrontate gli elementi a13 e a31).Una matrice quadrata A , di dimensione ( n n ) si dice diagonale quando:

    A = {a ij }, a ij = 0 , i = j.Ad esempio, la matrice

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    15/185

    2.2. MATRICI E VETTORI 15

    A = 2 0 00 4 00 0 7

    e chiaramente diagonale.Una matrice quadrata A , di dimensione ( n n ) si dice triangolare inferiore

    quando:

    A = {a ij }, a ij = 0 , i < j.Ad esempio, la matrice

    A =

    3 0 0 04 7 0 05 5 2 08 5 6 4

    e triangolare inferiore.Una matrice quadrata A , di dimensione ( n n ) si dice triangolare superiore

    quando:

    A = {a ij }, a ij = 0 , i > j.Ad esempio, la matrice

    A =3 4 5 80 7 3 30 0 2 60 0 0 4

    e triangolare superiore.Una matrice quadrata A , di dimensione ( n n ) si dice matrice identit a e si

    indica I n se:

    A = {a ij },a ij = 0 , i = j,

    a ii = 1 , i.

    Ad esempio:

    I 4 =

    1 0 0 00 1 0 00 0 1 00 0 0 1

    .

    Data una matrice A di dimensioni ( nm ), la matrice B , di dimensione ( mn )si dice trasposta di A , e si indica con il simbolo A ed e denita come:

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    16/185

    16 CAPITOLO 2. RICHIAMI MATEMATICI

    B = A = {bij }, bij = a ji , , i,j.La matrice A viene quindi ottenuta trasformando le colonne di A in righe di A .Ad esempio:

    A = 1 24 3

    , A = 1 42 3

    .

    2.2.2 Operazioni matriciali

    Somma e differenza tra matrici

    Date due matrici A e B , entrambe di dimensioni ( m n ), e possibile denire lamatrice ( m n ) C , denita comme somma di A e B :

    C = A + B = {cij },cij = a ij + bij , i,j.

    Nello stesso modo si denisce la differenza tra due matrici A e B , entrambe didimensioni ( m n ), la matrice ( m n ) C :

    C = A

    B =

    {cij

    },

    cij = a ij bij , i,j.

    Prodotto

    Dati due vettori (n 1) a e b , si denisce prodotto interno tra tali vettori lagrandezza scalare:

    a b = b a =n

    i=1

    (a i bi ) .

    Date le matrici A , di dimensioni (m

    n) e B , di dimensioni (n

    p), il prodotto

    matriciale tra A e B e la matrice C , di dimensione (m p)denita come:

    C = A B = {cij },cij =

    n

    k=1

    a ik bkj , i = 1 , 2, . . . m , j = 1 , 2, . . . , p .

    In altri termini C e una matrice il cui elemento generico cij e dato dal prodottointerno tra la i-esima riga di A e la j -esima colonna di B . Ad esempio:

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    17/185

    2.2. MATRICI E VETTORI 17

    1 3 62 3 4 1 01 1

    0 3= 4 21

    5 15.

    Si noti che loperazione di prodotto matriciale non e denita per qualsiasi cop-pia di matrici A e B , ma tali matrici debbono vericare la condizione di confor-mabilit a per il prodotto: il numero di colonne del primo fattore A deve essere parial numero di righe del secondo fattore B .

    Si noti che ovviamente, A B in generale `e diverso da B A : in generalequando il prodotto A B e possibile non `e neppure detto che B A lo sia.

    Il prodotto e la somma matriciale hanno le seguenti propriet a:

    1. Propriet a distributiva: se A e una matrice (m n) e B e C sono matrici(n q):A (B + C ) = A B + A C .

    2. Propriet a associativa: date le matrici A , B , C di dimensioni opportune, siha:

    (A + B ) + C = A + ( B + C ),(A B ) C = A (B C )

    Moltiplicazione per una grandezza scalare

    Data la matrice (m n) A e la grandezza scalare c, e possibile denire la matriceC , di dimensioni (m n) derivante dal prodotto scalare di c per A :

    C = c A = A c = {cij }, cij = c a ij , i = 1 , 2, . . . , m , , j = 1 , 2, . . . n .

    2.2.3 Vettori particolari

    Il vettore somma

    Si denisca il vettore somma di dimensione (n 1):

    in =11. . .1

    Tale vettore se post-moltiplica una matrice A di dimensione (m n) generaun vettore c (m 1) che contiene le somme degli elementi sulle singole righe diA :

    A in = c = {ci}, ci =n

    j =1

    a ij , i = 1 , 2, . . . , m .

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    18/185

    18 CAPITOLO 2. RICHIAMI MATEMATICI

    Ad esempio:

    1 2 1 43 6 1 0

    1111

    = 810

    .

    Il vettore somma di dimensione (m 1), se trasposto e utilizzato a premolti-plicare una matrice A di dimensione (m n), genera un vettore c , di dimensione(1 n) che contiene le somme degli elementi sulle singole colonne di A :

    in A = c = {c j }, c j =n

    i=1

    a ij , j = 1 , 2, . . . , n .

    Il vettore estrazione

    Il vettore estrazione u in , di dimensione (n 1), e denito come un vettore di ele-menti tutti pari a zero tranne lelemento i-esimo che e pari a uno. In altri termini ela colonna i-esima della matrice I n :

    u in

    =

    00. . .

    1. . .0

    i-esimo elemento

    Il vettore estrazione u in , se utilizzato per post-moltiplicare una matrice A didimensione (m n) genera un vettore c di dimensione (n 1) che coincide conla i-esima colonna di A . Ad esempio:

    A u 34 =1 2 1 43 6 1 0

    0010

    = 11

    .

    Se invece il vettore estrazione u im viene trasposto e utilizzato per pre-moltiplicareuna matrice A di dimensione (m n) genera un vettore di dimensione (1 n) checoincide con la i-esima riga di A . Ad esempio:

    0 0 11 0 5 62 0 4 34 5 5 4

    = 4 5 5 4 .

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    19/185

    2.2. MATRICI E VETTORI 19

    2.2.4 Traccia di una matrice quadrata

    Sia data una matrice quadrata A di dimensione (n n). Si denice traccia di A(indicata come tr (A )) la somma degli elementi diagonali di A :

    tr (A ) =n

    i=1a ii .

    Le propriet a delloperatore traccia sono le seguenti:

    tr (A B ) = tr (B A ),tr (A

    B

    C ) = tr (C

    A

    B ) = tr (B

    C

    A ),

    (invarianza rispetto a permutazioni cicliche),

    tr ( A ) = tr (A ), dove e una grandezza scalare.

    2.2.5 Matrici partizionate

    Data la matrice A , di dimensione (m n), e possibile partizionare tale matrice indiversi blocchi. Ad esempio:

    A =A 11

    (m 1 n 1 )A 12

    (m 1 n 2 )A 21(m 2 n 1 ) A 22(m 2 n 2 )

    , m = m1 + m2, n = n1 + n2

    In caso di prodotto matriciale tra matrici conformabili per il prodotto allinternodelle quali siano stati deniti blocchi conformabili per prodotto, si pu ` o ricavare:

    A (mn ) B(np ) =A 11

    (m 1 n 1 )A 12

    (m 1 n 2 )A 21

    (m 2 n 1 )A 22

    (m 2 n 2 )

    B 11(n 1 p1 )

    B 12(n 1 p2 )

    B 21(n 2 p1 )

    B 22(n 2 p2 )

    =

    = (A 11 B 11 + A 12 B 21) (A 11 B 12 + A 12 B 22)(A 21

    B 11 + A 22

    B 21) (A 21

    B 12 + A 22

    B 22)

    ,

    m1 + m2 = m, n 1 + n2 = n, p 1 + p2 = p.

    2.2.6 Il determinante di una matrice quadrata

    Data una matrice quadrata A , di dimensione (n n), si denisce determinante diA (e lo si indica con |A |) la quantit a scalare:

    |A | =n

    j =1

    (1)i+ j a ij |A ij | , (2.1)

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    20/185

    20 CAPITOLO 2. RICHIAMI MATEMATICI

    dove A ij e la matrice che si ottiene a partire da A sopprimendone la riga i-esima e

    la colonna j-esima. Ad esempio:

    |A | =1 2 43 1 01 0 1

    = 1 1 00 1 2

    3 01 1

    + 4 3 11 0

    =

    = 1 6 4 = 9Data lespressione con cui si ricava il determinante, risulta particolarmente fa-

    cile calcolare il determinante di una matrice triangolare. Infatti se A, di dimensione(n n), e triangolare (superiore o inferiore), data la (2.1), allora si ha:

    |A

    |=

    n

    i=1

    aii

    In altri termini, per una matrice triangolare, il determinante e pari al prodotto deglielementi diagonali.

    Nel caso della matrice identit a, e facile mostrare che il determinante e pari a 1:

    |I n | = 1 , n.Si noti che, date le matrici quadrate (n n) A e B , si ha:

    |A B | = |A | |B | .

    2.2.7 La matrice aggiuntaData la matrice quadrata (n n) A , si denisce A + ,matrice aggiunta di A , lamatrice che soddisfa:

    A + A = A A + = |A | I n .(la matrice aggiunta pre-moltiplicata o post-moltiplicata per A genera una matricediagonale con elementi tutti pari al determinante di A sulla diagonale).

    La matrice A + viene ottenuta come:

    A + = a+ij ,

    a+ij = ( 1)i+ j |A ji | .2.2.8 La matrice inversa

    Data la matrice quadrata (n n) A ,con |A | = 0 ,si denisce A 1la matrice inversatale per cui:

    A 1 A = A A 1 = I n .Data la matrice quadrata (n n) A ,con |A | = 0 , si ha:

    A 1 = |A |1

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    21/185

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    22/185

    22 CAPITOLO 2. RICHIAMI MATEMATICI

    2.2.10 Matrici idempotenti

    La matrice quadrata A (n n) si dice idempotente se:A k = A , k > 0.

    In altri termini, moltiplicando per s` e stessa la matrice A quante volte si vuole siottiene sempre A . Alcuni esempi di matrice idempotente sono i seguenti:

    A = [0 ](nn )

    ,

    A = I n ,

    A=

    in (

    in

    in )

    1

    in =

    1

    n in

    in =

    1

    n

    1 1 . . . 11 1 . . . 1

    . . . . . . . . . . . .1 1 . . . 1

    .

    Data la matrice (n k) A tale per cui:A A = 0 ,

    si noti che le matrici:

    B(nn )

    = A (A A )1 A ,C

    (nn )= I n A (A A )1 A

    sono idempotenti (lo si verichi moltiplicando ciascuna matrice per se stessa ).

    2.2.11 Spazio vettoriale

    Si consideri il vettore (k 1) a :

    a(k1)

    =

    a1a2. . .ak

    puo essere inteso come espressione delle coordinate del punto a nello spazio reale

    k-dimensionale ( R k ), cos come da gura (2.2.11) per k = 2 . Si noti che qualunquevettore ottenuto come risultato del prodotto tra uno scalare ed il vettore a (a = a ) rappresenta le coordinate di un punto a che si trova sulla semiretta che uniscelorigine degli assi e il punto a .

    Inoltre si noti (gura 2.2.11) che, dati due vettori (2 1) a e b , che la somma(C ) e la differenza ( d ) tra a e b rappresentano rispettivamente i punti c e d nellospazio reale bidimensionale.

    Deniamo spazio k-dimensionale R k linsieme di tutti i vettori reali di dimen-sione (k 1).

    Le propriet a elementari di R k sono:

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    23/185

    2.2. MATRICI E VETTORI 23

    0 1 2 3 4 5 6 7 8 9

    1

    2

    3

    5

    6

    7

    a

    b=2a

    1. Chiusura rispetto alla somma: dati a R k e b R k , il vettore derivantedalla somma c = a + b appartiene a R k .

    2. Chiusura rispetto al prodotto scalare: dato qualunque vettore a R k equalunque grandezza scalare , il vettore a = a appartiene a R k .

    Si denisce spazio vettoriale qualsiasi insieme di vettori chiuso rispetto alla

    moltiplicazione scalare ed alla somma.

    2.2.12 Base di uno spazio vettoriale

    Dato uno spazio vettoriale S , si denisce base di S un insieme di vettori a 1, a 2, . . . , a kche appartengono a S con la propriet`a che qualunque vettore appartenente a S puoessere ottenuto come combinazione lineare di a 1, a 2, . . . , a k :

    c = i a i , c S .Ad esempio, per lo spazio vettoriale R 2, i vettori:

    a 1 = 10 , a 2 = 01

    sono una base dato che qualunque vettore (2 1) puo essere ottenuto come com-binazione lineare di a 1e a 2.

    2.2.13 Sottospazio vettoriale

    Si denisce S (a 1, a 2, . . . , a k ), sottospazio vettoriale associato ad un insieme divettori a 1, a 2, . . . , a k lo spazio vettoriale coperto da tali vettori: qualunque vetto-re appartenente a S (a 1, a 2, . . . , a k ) puo essere espresso come combinazione lineare

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    24/185

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    25/185

    2.2. MATRICI E VETTORI 25

    ha dimensione pari a 1. Si noti infatti (gura 2.2.11) che sia la prima colonna che

    la seconda della matrice A rappresentano punti che giacciono sulla retta passantedallorigine di R 2 e avente inclinazione +2 . Qualunque combinazione lineare dellecolonne di A rappresenta punti su tale semiretta.

    Si noti che per ogni matrice A (m n) vale:Rango riga Rango colonna,

    ossia:

    dimensione(spazio riga ) dimensione (spazio colonna).Si noti inoltre che, date due matrici conformabili per prodotto A (m

    n) e B

    (n p), si ha:rango (A B ) min( rango (A ), rango (B )) .

    2.2.15 Indipendenza lineare di vettori

    Dati n vettori di dimensione ( n1) a 1, a 2, . . . , a n , tali vettori si dicono linearmenteindipendenti se:

    n

    i=1 i a i = 0

    vale solo per:1 = 2 = . . . = n = 0 .

    In altri termini i vettori a 1, a 2, . . . , a n sono linearmente indipendenti se nessu-no tra essi pu o essere espresso come combinazione lineare degli altri n 1.

    Si noti che data la matrice A (n n ), tale matrice avr a determinante diverso dazero se e solo se i suoi vettori riga (o, che ` e lo stesso, i suoi vettori colonna) sonolinearmente indipendenti. Ad esempio, per la matrice:

    A = 1 152 30

    ha determinante pari a zero e i suoi vettori colonna (riga) non sono linearmenteindipendenti: ad esempio la seconda riga pu o essere ottenuta moltiplicando per 2la prima.

    2.2.16 Autovalori e autovettori

    Data la matrice A , di dimensione (n n), il sistema:A

    (nn ) x

    (n1)=

    (11) x

    (n1)(A I n ) x = [0 ](n1)

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    26/185

    26 CAPITOLO 2. RICHIAMI MATEMATICI

    ammette soluzioni x = [0 ]

    (n1)se e solo se:

    |A I n | = 0 . (2.2)altrimenti la matrice (A I n ) puo essere invertita e lunica soluzione ` e x = [0 ].

    Le radici i (i = 1 , 2, . . . , n ) dellequazione (2.2): sono chiamati autovalori .Le soluzioni x i (i = 1 , 2, . . . , n ) associate ad ogni autovalore i :

    A x i = i x i , i = 1 , 2, . . . , n .sono detti autovettori .

    Ad esempio,per la matrice:

    A = 1 22 2

    , |A I 2| =1 22 2

    2 3 + 2 = 0 1 =32

    +1217, 2 = 32

    1217.

    Si noti che la relazioni tra autovalori, autovettori e la matrice A puo esserescritta in modo compatto come:

    A(nn ) X(nn ) = X(nn ) (nn ),X = [ x 1, x 2, . . . , x n ] ,

    =

    1 0 0 00 2 0 00 0 . . . 00 0 0 n

    Un utile risultato relativo agli autovalori e il seguente: se tutti gli autovalori1, 2, . . . , n sono distinti allora gli autovettori x 1, x 2, . . . , x n sono linearmen-te indipendenti. Data lindipendenza lineare delle colonne di X (e quindi la sua

    invertibilit a), e possibile scrivere:

    A = X X 1.Una importante propriet` a degli autovalori di una qualunque matrice quadrata

    A di dimensioni (n n) e che il determinante di tale matrice ` e pari al prodotto deisuoi autovalori:

    |A | =n

    i=1

    i

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    27/185

    2.2. MATRICI E VETTORI 27

    2.2.17 Serie geometriche di matrici

    Data la matrice quadrata (n n) A , si denisca la somma:

    S T = I n + A + A 2 + . . . A T =T

    i=0

    A i .

    Pre-moltiplicando S T per A , si ottiene:

    A S T = A + A 2 + . . . A T +1 =T +1

    i=0

    A i+1 .

    Sottraendo le due precedenti espressioni tra loro, si ricava:

    (I n A ) S T =T

    i=0

    A i T +1

    i=0

    A i+1 = ( I n A T +1 ).

    Se la matrice (I n A ) e invertibile (in termini equivalenti, se = 1 NON eautovalore di A ), allora e possibile pre-moltiplicare per (I n A )1 lespressioneprecedente ed ottenere:

    S T = ( I n A )1(I n A T +1 ).`E possibile mostrare che che se tutti gli autovalori di A sono minori di 1 inmodulo:

    | i| < 1, i = 1 , 2, . . . , n ,allora:

    limT

    A T +1 = [0 ](nn )

    ,

    e quindi:

    limT

    S T = ( I n A )1.

    2.2.18 Matrici denite, semidenite positive e negative

    La matrice A simmetrica (n n) viene detta denita positiva se:x

    (1n ) A(nn ) x

    (n1)> 0, x

    (n1)= [0 ]

    (n1).

    A simmetrica (n n) viene detta semidenita positiva se:x

    (1n ) A(nn ) x

    (n1)0, x

    (n1)= [0 ]

    (n1).

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    28/185

    28 CAPITOLO 2. RICHIAMI MATEMATICI

    A simmetrica (n n) viene detta denita negativa se:x

    (1n ) A(nn ) x

    (n1)< 0, x

    (n1)= [0 ]

    (n1).

    A simmetrica (n n) viene detta semi-denita negativa se:x

    (1n ) A(nn ) x

    (n1)0, x

    (n1)= [0 ]

    (n1).

    Gli autovalori di una matrice positiva sono tutti positivi, dato che:

    A x i = i x i ,x

    i A

    x

    i=

    i x

    i x

    i> 0=

    i> 0, i = 1 , 2, . . . , n .

    Con ragionamenti simili si pu` o mostrare che tutti gli autovalori di matrici se-midenite positive sono non-negativi, che tutti gli autovalori di matrici denitenegative sono negative e che tutti gli autovalori di matrici semidenite negativesono non positivi. Quindi un modo per vericare le propriet a di denitezza di unamatrice e quello di controllare il segno degli autovalori. Ci o non e molto agevoleper una matrice di dimensioni superiori a (2 2), dato che per trovare gli auto-valori e necessario in tali casi risolvere equazioni di grado superiore al secondoche non sempre sono risolubili senza lausilio di un computer. Per tale motivo epossibile fare riferimento ad un criterio alternativo, basato sulla verica del segnodei minori principali . Per minore principale di ordine i (i = 1 , 2, . . . , n ) di unamatrice quadrata A (n n) si intendono i determinanti della sottomatrice ottenutaconsiderando solo le prime i righe e i-colonne di A . Una matrice `e denita positivase tutti i suoi minori principali hanno segno positivo ed e denita negativa se i suoiminori principali hanno segni alternati a partire da .Fattorizzazione di una matrice denita positiva

    Qualunque matrice (n n) denita positiva pu o essere fattorizzata nel modoseguente:

    = A D A ,dove A e triangolare inferiore con elementi diagonali unitari:

    a ij = 0 , j > i, a ii = 1 , i = 1 , 2, . . . , n ,

    e D e una matrice diagonale con elementi diagonali posiivi:

    dij = 0 , i = j, d ii > 0, i = 1 , 2, . . . n .

    Tale scomposizione ` e unica.Da questa scomposizione ` e possibile ricavare la cosiddetta fattorizzazione di

    Choleski di :

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    29/185

    2.2. MATRICI E VETTORI 29

    = ( A D 1/ 2) (A D 1/ 2) = P P ,

    P = A D 1/ 2, D 1/ 2 =d11 0 . . . 0

    0 d22 . . . . . .. . . . . . . . . . . .0 . . . . . . dnn

    .

    Si noti che la matrice P , detta fattore di Choleski di , ha dimensione (n n) ed etriangolare inferiore con elementi diagonali positivi e pari a d11 , d22 , . . . , dnn .2.2.19 Prodotto di Kronecker (prodotto tensore)

    Date due matrici A , di dimensione (m n) e B , di dimensione ( pq), si denisceprodotto di Kronecker tra A e B la matrice C , di dimensione (m p n q) :

    C(m pn q)

    = A(mn )

    B( pq)

    =

    a11 B a12 B . . . a 1n Ba21 B a22 B . . . a 2n B. . . . . . . . . . . .

    an 1 B an 2 B . . . a nm B.

    Ad esempio:

    A = 1 23 4 , B =5 6 78 9 10

    11 12 13,

    C = A B = 1 23 4

    5 6 78 9 10

    11 12 13=

    =

    5 6 7 10 12 148 9 10 16 18 2011 12 13 22 24 2615 18 21 20 24 2824 27 30 32 36 4033 36 39 44 48 52

    .

    Le pi u importanti propriet a delloperatore prodotto di Kronecker sono le se-guenti:

    1) Date le matrici A , di dimensione (m n) e B , di dimensione ( p q):(A B ) = A B .

    2) Date le matrici A , di dimensione (m n) ,B , di dimensione ( p q) e C ,di dimensione (r s):

    (A B ) C = A (B C ).

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    30/185

    30 CAPITOLO 2. RICHIAMI MATEMATICI

    3) Date le matrici A e B , di dimensione (m n) e C , di dimensione (r s):

    (A + B ) C = A C + B C .

    4) Date le matrici A (m n), B ( p q), C (n r ) e D (q s) :

    A(mn )

    B( pq)

    C(nr )

    D(qs)

    =( A C )(mr )(B D )( ps)

    = E(m pr s)

    5) Date le matrici quadrate ed invertibili A (m m) e B (n n):

    (A B )1 = A 1 B 1.

    2.2.20 Loperatore vec

    Data una matrice (m n) A :A = [a 1, a 2, . . . , a n ] ,

    loperatore vec trasforma la matrice A in un vettore di dimensione (mn

    1),

    allineando uno sopra allaltra le colonne di A :

    vec(A ) =

    a 1a 2. . .a n

    .

    Ad esempio:

    A = 1 3 52 4 6 ,

    vec(A ) =

    123456

    .

    Una propriet`a rilevante delloperatore vec e la seguente: date le matrici con-formabili per prodotto A (m n), B (n p) e C ( p q), e possibile dimostrare

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    31/185

    2.3. FUNZIONI IN PI U VARIABILI 31

    che:

    vec A(mn )

    B(n p)

    C( pq)

    = d(m q1)

    =

    = I q (A B(m p)) vec (C )( pq1)

    =

    = C A(qm pn )

    vec (B ) ,(n p1)= (C B ) I m

    (qmn m )vec (A ) .(m n1)

    2.3 Funzioni in pi u variabiliData la grandezza scalare y e il vettore (n 1) x :

    y R 1,

    x

    x1x2. . .xn

    ,

    si denisce funzione R n R 1 (funzione scalare di un vettore) la funzione:y = f (x ) = f (x1, x2, . . . , x n ). (2.3)

    Ad esempio, si consideri la funzione di produzione Cobb-Douglas omogeneadi primo grado, che fa dipendere il prodotto Y dallutilizzazione di capitale ( K ) elavoro ( L):

    Y = f (K, L ) = A K L1 ,A > 0, 0 < < 1.

    2.3.1 Derivate parziali prime e seconde

    Si denisce la derivata prima parziale della funzione (2.3) rispetto al suo i-esimoargomento ( x i , i = 1 , 2, . . . , n ) la seguente espressione:

    f (x )x i

    = f i(x ) lim 0

    1 [f (x1, . . . , x i + ,..x n ) f (x1, . . . , x i ,..x n )] .Ad esempio, per la funzione di produzione Cobb-Douglas, la derivata parzialerispetto al capitale (produttivit a marginale del capitale) e:

    f K (K, L ) =f (K, L )

    K = A K 1 L1 .

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    32/185

    32 CAPITOLO 2. RICHIAMI MATEMATICI

    Si denisce gradiente il vettore delle derivate prime di una funzione scalare di

    un vettore:

    (n1)=

    f (x )x 1

    f (x )x 2. . .

    f (x )x n

    .Ad esempio, per la funzione lineare:

    f (x )(n1)

    = a(1n )

    x(n1

    + b(11)

    =n

    i=1

    a i x i + b,

    il gradiente e:

    (n1)=

    a1a2. . .an

    = a(n1)

    .

    Per la funzione di produzione Cobb-Douglas, il gradiente e invece:

    (21)=

    f (K,L )K

    f (K,L )L

    = A K 1 L1(1 ) A K L.

    Le derivate seconde di una funzione f (x ) scalare di un vettore R n R 1 sonodenite come:

    f ij = 2f

    x ix j=

    f x jx i

    , f ji = 2f

    x j x i=

    f x ix j

    ,

    f ij = f ji , i = 1 , 2, . . . , n , j = 1 , 2, . . . , n .

    E possibile denire una matrice (n n) H , chiamata matrice hessiana, checontiene le derivate parziali seconde della funzione f (x ):

    H(nn )

    =

    2 f x 1 x 1

    2 f x 1 x 2 . . .

    2 f x 1 x n

    2 f x 2 x 1

    2 f x 2 x 2 . . .

    2 f x 2 x n

    . . . . . . . . . . . . 2 f

    x n x 1 2 f

    x n x 2 . . . 2 f

    x n x n

    = f (x ) x

    x=

    x

    .

    Si noti che la matrice hessiana e naturalmente simmetrica, dato che:

    2f x i x j

    = 2f

    x j x ii,j.

    Ad esempio, per la funzione di produzione Cobb-Douglas. la matrice hessianae:

    H(22)

    = ( 1) A K 2 L1 (1 ) A K 1 L (1 ) A K 1 L (1 ) A K L1

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    33/185

    2.3. FUNZIONI IN PI U VARIABILI 33

    2.3.2 Alcune semplici regole di derivazione per funzioni in pi u varia-

    biliSi notino le seguenti regole di derivazione per funzioni scalari di vettori.

    1. Data la funzione f (x ) = a(1n)

    x(n1)

    , il gradiente di tale funzione e:

    f x

    = a(n1)

    .

    2. Data la funzione f (x ) = x(1n)

    a(n1)

    , il gradiente di tale funzione e:

    f x

    = a(n1)

    .

    3. Data la funzione f (x ) = x(1n) A(nn )

    x(n1)

    , il gradiente di tale funzione e:

    f x

    = A(nn )

    + A(nn )

    x(n1)

    Se la matrice A e simmetrica, ovviamente il gradiente ` e:

    f x

    = 2 A(nn )x

    (n1)

    2.3.3 Ottimizzazione

    Nel caso di una funzione scalare di uno scalare R 1 R 1, y = f (x), la condizionedel primo ordine per avere un massimo o un minimo e:

    f x

    = 0 ,

    mentre le condizioni del secondo ordine sono:

    2f x 2

    > 0 per un min imo,

    2f x 2

    < 0 per un massimo.

    Nel caso di funzione scalare di un vettore R n R 1, y = f (x ), le condizionidel primo ordine per avere un massimo o un minimo sono date dal sistema di nequazioni:

    f x

    = = [0 ](n1)

    ,

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    34/185

    34 CAPITOLO 2. RICHIAMI MATEMATICI

    mentre le condizioni del secondo ordine sono:

    H(nn )

    denita positiva per un minimo,

    H(nn )

    denita negativa per un massimo.

    2.3.4 Ottimizzazione vincolata

    Sia data la funzione scalare di un vettore R n R 1, y = f (x ) e si immagini didover massimizzare la funzione rispetto a x sotto un insieme di k vincoli su x :

    Maxx

    f (x )

    con :

    c1(x ) = d1c2(x ) = d2

    . . .ck (x ) = dk

    oppure : c(x )(k1)

    = d(k1)

    Un modo di procedere al calcolo del massimo vincolato x e quello di costruirela funzione lagrangiana :

    L(x , ) = f (x ) +n

    i=1

    i [ci(x ) di] = f (x ) + [c (x ) d ] ,

    =

    12. . .k

    .

    Gli elementi del vettore (k 1) sono detti moltiplicatori di Lagrange e con-sentono di tenere in considerazione i vincoli che la soluzione del problema di ot-timizzazione deve soddisfare. La costruzione della funzione lagrangiana consentedi impostare il problema di ottimizzazione vincolata come un problema di otti-mizzazione libera, semplicemente specicando le condizioni del primo ordine inrelazione ad un vettore di variabili di scelta di dimensione superiore:

    z(n + k)1

    = x .

    Le condizioni del primo ordine sono:

    L (x , ) x

    = [0 ](n1)

    f (x ) x

    (n1)+

    c (x ) x

    (nk) (k1)

    = [0 ](n1)

    ,

    L (x , )

    = [0 ](k1)

    c (x ) d(nk)= [0 ]

    (k1).

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    35/185

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    36/185

    36 CAPITOLO 2. RICHIAMI MATEMATICI

    La soluzione di queste due insiemi di equazioni con incognite x e fornisce il

    massimo vincolato della funzione: esplicitando lespressione (2.4) rispetto a x siottiene:

    x =12 A

    1 a + C . (2.8)Sostituendo questultima espressione nella (2.6) si ottiene:

    C 12 A

    1 a + C = [0 ] = C A 1 C 1

    C A 1 a .Sostituendo questultima espressione nella (2.8) si ottiene nalmente il valore dix :

    x =12 A

    1 a C C A 1 C 1

    C A 1 a .

    2.4 Esercizi su richiami di matematica

    1. Per le matrici:

    A = 1 3 32 4 1 , B =2 41 56 2

    si calcolino:

    A B ,A

    B ,

    B AB A

    2. Si espanda il prodotto matriciale:

    X = A B + ( C D ) (E F )1 + G H ,dove tutte le matrici sono quadrate ed invertibili.

    3. Data la matrice:

    A =1 4 73 2 55 8 8

    calcolarne il determinante, la traccia e linversa.

    4. Si calcoli la scomposizione di Choleski per la matrice:

    A = 25 77 13 .

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    37/185

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    38/185

    38 CAPITOLO 2. RICHIAMI MATEMATICI

    2. Si espanda il prodotto matriciale:

    X = A B + ( C D ) (E F )1 + G H == {A B F 1 E 1 + A B G H ++ D C F 1 E 1+ D C G H }

    = E 1 F 1 B A + H G B A ++ E 1 F 1 C D + H G C D

    3. Per la matrice A abbiamo:

    A =1 4 73 2 55 8 8

    |A | = 1 2 58 8 4

    3 55 8 + 7

    3 25 8 = 24 + 4 + 98 = 78 ,

    tr (A ) = 1 + 2 + 8 = 11 ,

    A + = 24 24 61 27 1614 12

    10

    , A 1 = |A |1 A + =1

    782

    397

    781

    261

    395

    785

    78

    4

    39

    4

    39

    =

    = 4

    134

    131

    131

    78 926 839739

    213 539

    .

    4. La matrice A e simmetrica e denita positiva. Per trovare gli autovalori diA si procede nel modo seguente:

    |A I 2| = 025 77 13

    = 0 (25 ) (13 ) 49 = 0,

    2

    38 + 276 = 0 = 19 85 = 19 9.21 : entrambi positivi.

    Il calcolo degli autovalori conferma che la matrice sia denita positiva. Epossibile quindi procedere alla scomposizione di Choleski:

    P = p11 0 p21 p22, p11 > 0, p22 > 0.

    A = P P =p211 p11 p21 p11 p21 p221 + p222

    .

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    39/185

    2.5. SOLUZIONI AGLI ESERCIZI 39

    Quindi uguagliando elemento per elemento le matrici A e P P si ottiene: p211 = 25 p11 = 5

    p11 p21 = 7 p21 =75

    ,

    p221 + p222 = 13 p22 = 13 4925 = 2569 .

    Si noti che per calcolare gli elementi diagonali della matrice P si prendonoradici positive 5 e 2569 (e non -5 e - 13), dato che il fattore di Choleskiper denizione ha elementi diagonali positivi.

    5. Post-moltiplicando una matrice A (m

    n) per una matrice diagonale di

    dimensione (n n) si ottiene:

    A = A(mn )=

    a11 a12 . . . a 1na21 a22 . . . a 2n. . . . . . . . . . . .am 1 am 2 . . . a mn

    11 0 . . . 00 22 . . . 0

    . . . . . . . . . . . .0 0 . . . nn

    =

    =

    a11 11 a12 22 . . . a 1n nna21 11 a22 22 . . . a 2n nn. . . . . . . . . . . .am 1 11 am 2 22 . . . a mn nn

    vale a dire si ricava una matrice A (m n) che risulta moltiplicando ognicolonna di A per il corrispondente elemento diagonale di . Se invece sipre-moltiplica A per una matrice diagonale di dimensione (m m) siottiene:

    A = A(mn )=

    =

    11 0 . . . 00 22 . . . 0

    . . . . . . . . . . . .0 0 . . . mm

    a11 a12 . . . a 1na21 a22 . . . a 2n. . . . . . . . . . . .am 1 am 2 . . . a mn

    =

    =

    a11

    11

    a12

    11

    . . . a1n

    11a21 22 a22 22 . . . a 2n 22. . . . . . . . . . . .

    am 1 nn am 2 nn ... a mn nnvale a dire si ricava una matrice A (m n) che risulta moltiplicando ogniriga di A per il corrispondente elemento diagonale di .

    6. Si scriva (a) come:

    y = x(12) A(22)

    x(21)

    = a11 x21 + 2 a12 x1 x2 + a22 x22,

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    40/185

    40 CAPITOLO 2. RICHIAMI MATEMATICI

    con A matrice simmetrica:

    A = a11 a12a12 a22.

    In questo caso si ha:

    A = 1 77 11

    ,

    con autovalori: = 6 74 = 2.602

    14.602 . Da ci o si ricava che la

    matrice A non e denita positiva e quindi la forma quadratica (a) non epositiva per qualunque valore di x1 e x2.

    Per quello che riguarda (b), essa pu o essere scritta come:

    y = x(13) A(33)

    x(31)

    = a11 x21 + 2 a12 x1 x2 + +2 a13 x1 x3 ++2 a23 x2 x3 + a22 x22 + a33 x23,

    A =5 2 32 1 43 4 7

    Per vericare se A e denita positiva occorrerebbe vericare se tutti i suoiautovalori sono positivi. Ci` o in generale non `e molto agevole per una matricedi dimensioni superiori a (2

    2), senza lausilio di un computer. Per tale

    motivo e possibile fare riferimento al segno dei minori principali . Nel casodella matrice A :

    5 > 0,5 22 1 = 5 4 > 0,

    5 2 32 1 43 4 7

    = 34 < 0.

    Da questo si deduce che la matrice A non e denita positiva e quindi che laforma quadratica (b) non e positiva per qualsiasi valori di x .

    7. Gli autovalori della matrice A vengono ottenuti come soluzione allequazio-ne:

    2 4 34 8 63 6 5= 0

    (2 )[(8 )(5 ) 36]4[4(5 ) 18]+3 [24 3 (8 )] = 05 + 15 2 3 = 0 5 15 + 2 = 0

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    41/185

    2.5. SOLUZIONI AGLI ESERCIZI 41

    =

    015

    2052 = 0 .341

    15+ 2052 = 14 .659

    Si noti comunque che la seconda colonna di A e pari a due volte la primacolonna. Questo implica che:

    |A | = 0

    e quindi, dato che il determinante di una matrice ` e dato dal prodotto dei suoiautovalori e ovvio che almeno uno degli autovalori di A sia nullo.

    8. La funzione lagrangiana pu` o essere scritta come:

    L(q , ) = u(q ) + p q y ,u(q ) = q1 q 2 , p =

    p1 p2

    , q = q1q2.

    Le condizioni del primo ordine sono:

    L (q , ) q

    = [0 ]u (q )

    q(21)

    + p = [0 ](21), (2.9)

    L (q , ) = 0 p q = y. (2.10)

    In questo caso conviene scrivere la (2.9) come :

    q11 q 2 + p1 = 0 , (2.11) q1 q 12 + p1 = 0 . (2.12)

    Si risolva la (2.11) a :

    =

    q11 q 2 p

    1

    ,

    e si sostituisca tale valore nella (2.12), risolvendo per q1:

    q1 =p2 p1

    q2. (2.13)

    Si utilizzino ora la (2.10) e la (2.13) per ottenere le soluzioni in termini di q1e q2:

    q = q1q2=

    ( + ) p1 y ( + ) p2 y

    .

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    42/185

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    43/185

    Capitolo 3

    Richiami di inferenza statistica

    3.1 Variabile casuale

    Per variabile casuale (VC) intendiamo la misurazione quantitativa del risultato diun esperimento casuale. Ad esempio, consideriamo il lancio di una moneta che conprobabilit a pari a 1/2 fornisce il risultato testa e con la stessa probabilit` a fornisceil risultato croce. Immaginiamo di attribuire il valore 0 allevento testa e il valore1 allevento croce. Abbiamo quindi che la variabile casuale X , risultato del lanciodi una moneta, pu`o essere descritta come segue:

    X =0 Pr( X = 0) = 1 / 21 Pr( X = 1) = 1 / 2

    In genere si utilizza la notazione X (la lettera maiuscola) per indicare una variabilecasuale e la corrispondente lettera minuscola ( x in questo caso) per indicare larealizzazione di una variabile casuale in un determinato esperimento casuale.

    A seconda dellinsieme dei valori che una variabile casuale pu o assumere (do-minio o supporto di una variabile casuale) si ` e soliti distinguere le variabili ca-suali in assolutamente continue e discrete. Una variabile casuale continua (VCC)assume valori appartenenti allinsieme dei numeri reali (o a suoi sottoinsiemi):

    X : x A , A R

    Le variabili casuali discrete (VCD) assumono valori discreti. Ad esempio la va-riabile casuale numero di risultati testa nel lancio ripetuto 10 volte di una monetaassume valori discreti compresi tra 0 e 10.

    3.2 Distribuzione di probabilit a

    Per una variabile casuale e importante poter attribuire una misura connessa allaprobabilit a del prodursi dei diversi risultati ammissibili. Ci` o viene fatto tramite laspecicazione di una distribuzione di probabilit a. La distribuzione di probabilit a e

    43

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    44/185

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    45/185

    3.3. FUNZIONE DI RIPARTIZIONE 45

    Figura 3.1: Funzione di ripartizione per VC discreta

    F(x)

    1

    x

    Figura 3.2: Funzione di ripartizione per VC continua

    0

    0.1

    0.2

    0.3

    0.4

    0.5

    0.6

    0.7

    0.8

    0.9

    1

    -3 -2 -1 0 1 2 3

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    46/185

    46 CAPITOLO 3. RICHIAMI DI INFERENZA STATISTICA

    3.4 Momenti di una variabile casuale

    Il valore atteso di una VC e:

    E (X ) =x i A

    x i f (x i ),

    per una VCD, e:

    E (X ) = + xf (x)dx.per una VCC. Loperatore E () che denisce loperatore atteso, dato che si riferi-sce allapplicazione di unoperazione di sommatoria o di integrale e un operatore

    lineare: data la VC x e le costanti a e b, si ha:

    E (a + bx) = a + bE (x).

    Il valore atteso costituisce la principale misura della posizione di una VC.Per sintetizzare le caratteristiche principali di una VC si pu o fare ricorso alla

    mediana , vale a dire ad una misura di tendenza centrale . Per mediana si intendequel valore xmed appartenente al supporto della VC tale per cui:

    pr(X < x med ) = pr (X > x med ) = 1 / 2.

    La mediana xmed e diversamente denita a seconda che si tratti di VCC o VCD:

    xmed : xmed f (x)dx = 12 (VCC) ,xmed :

    x i xmed p(x i)

    12

    (VCD).

    Piu in generale e possibile denire quantile di una VC corrispondente al valore di, 0 < < 1, quel valore x in corrispondenza del quale la massa di probabilit` aassegnata a valore minori di x e pari ad . In tal senso la mediana di una VC echiaramente il quantile corrispondente a = 1 / 2.

    Un altro concetto rilevante per una VC e la moda . Per moda (o valore modale)si intende un punto i massimo almeno locale della funzione di probabilit` a (se VCD)o della funzione di densit a di probabilit a per una VCC. Ad esempio, se la funzionedi densit a di una VCC X ammette un massimo interno nel punto xmo , tale punto evalore modale per X ed in corrispondenza di esso abbiamo:

    f (x)x x= xmo

    = 0 .

    A seconda che la VC ammetta uno o pi` u valori modali viene detta unimodale omultimodale .

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    47/185

    3.5. LA DISTRIBUZIONE NORMALE 47

    Unaltra importante classe di indicatori sono quelli che forniscono misure di

    quanto grande `e la variabilit`a insita nella VC in questione. Tali indicatori sonodetti misure della dispersione e tra esse assume particolare rilievo la varianza : pervarianza della VC X si intende il valore atteso dei quadrati delle deviazioni daE (X ):

    v(X ) = + [x E (x)]2 f (x)dx (per una VCC),v(X ) =

    x i A[x i E (x)]2 p(x) (per una VCD).

    Si noti che sia nel caso di una VCC che di una VCD la varianza pu` o essere

    alternativamente espressa come:

    v(X ) = E (X 2) [E (X )]2 ,vale a dire come differenza tra il valore atteso del quadrato di X e valore atteso diX al quadrato. Questa espressione pu` o essere facilmente ottenuta sviluppando ilquadrato [X E (X )]2 ed applicando il valore atteso a ciascun elemento.

    Le propriet a della varianza possono essere facilmente sintetizzate: data la VCX e le costanti a e b, dalla denizione di varianza di X e possibile ricavare facil-mente:

    v(a + bX ) = b2v(X ).

    Questo signica che aggiungere una costante ad una VC non ne modica la va-rianza e moltiplicare questa VC per una costante b comporta lottenimento di unavarianza che `e pari a b2 volte quella della VC di partenza: la varianza ` e infatti unoperatore quadratico.

    3.5 La distribuzione normale

    In statistica e particolarmente diffuso il riferimento alla VC normale o gaussiana :una VCC X si distribuisce come una normale o gaussiana con valore atteso evarianza 2 (con notazione sintetica X N (, 2)) se la sua funzione di densit` ae:

    f (x) =1

    2 exp 1

    22(x )2 , x R 1.

    Nella gura (3.5) viene rappresentata la funzione di densit a di una VC X N (, 2). Si noti che e possibile notare che tale VC ha moda e mediana che coin-cidono con , il valore atteso, e punti di esso corrispondenti a . Si noti pureche la funzione di densit a ha un asintoto orizzontale corrispondente allasse delleascisse:

    limx

    f (x) = limx+

    f (x) = 0 .

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    48/185

    48 CAPITOLO 3. RICHIAMI DI INFERENZA STATISTICA

    Figura 3.3: Funzione di densit a normale con media 0 e varianza 1

    0

    0.05

    0.1

    0.15

    0.2

    0.25

    0.3

    0.35

    0.4

    -3 -2 -1 0 1 2 3

    Dens. normale standard

    Una propriet a importante delle VC normali e che qualsiasi trasformazione li-neare di una VC normale ` e anchessa distribuita normalmente. Data infatti X N (, 2) e qualunque coppia di constanti a e b, abbiamo che:

    Y = ( a + bX ) N (a + b,b22).

    Ad esempio, se consideriamo:

    a =

    , b =1

    ,

    si ha:Y =

    1

    (X ) N (0, 1)La VC Y viene detta in questo caso normale standardizzata , vale a dire con valoreatteso nullo e varianza unitaria. Lottenimento di

    Y a partire di

    X viene detta

    operazione di standardizzazione di un VC normale.

    3.6 Inferenza statistica parametrica

    Linferenza statistica parametrica consiste nel ricavare informazioni relative ai pa-rametri incogniti della distribuzione di una popolazione a partire dallosservazio-ne di un campione di ampiezza n (n-pla campionaria) di elementi estratti da talepopolazione:

    x1, x2,...,x n .

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    49/185

    3.7. PROPRIET A DEGLI STIMATORI 49

    Linferenza pu o essere condotta con modalit a differenti che si possono ricondurre

    alle seguenti:

    1. Stima puntuale

    2. Stima per intervallo (costruzione di intervalli di condenza o intervalli du-ciari).

    3. Prova delle ipotesi.

    Per stimatore si intende un valore sintetico delle informazioni contenute nelln-pla campionaria. Ad esempio se si considera un campione di ampiezza n :

    x1, x2,...,x n ,

    uno stimatore possibile (e sensato) e la media campionaria, denita come:

    xn =1n

    n

    i=1x i

    Si noti che gli stimatori sono VC in quanto valori sintetici ottenuti sulla basedellosservazione di un campione, e ciascuno degli elementi del campione ` e unaVC.

    3.7 Propriet a degli stimatori

    3.7.1 Non distorsione o correttezza

    Uno stimatore g(x1, x2, ...x n ) (con questa notazione si intende sottolineare il fattoche lo stimatore e una VC ottenuta come funzione delle variabili casuali elementidel campione) viene detto non distorto o corretto per il parametro incognito dellapopolazione che si vuole stimare se vale:

    E [g(x1, x2,...x n )] =

    3.7.2 Efcienza

    Il concetto di efcienza di uno stimatore, in relazione alla stima di un parametroincognito della popolazione si riferisce alla precisione delle informazione relativea che possono essere ottenute dallo stimatore utilizzato. La propriet a dellef-cienza di uno stimatore ` e un concetto relativo e pertiene agli stimatori appartenentiad una determinata classe. Si considerino ad esempio gli stimatori non distorti.Lo stimatore g(x1, x2,...x n ) appartenente a tale classe che ha varianza minimaviene detto stimatore efciente (stimatore MVUE : Minimum Variance UnbiasedEstimator: stimatore corretto a varianza minima).

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    50/185

    50 CAPITOLO 3. RICHIAMI DI INFERENZA STATISTICA

    Nella classe degli stimatori lineari e corretti, lo stimatore pi u efciente viene

    detto BLUE ( Best Linear Unbiased Estimator, migliore stimatore lineare corretto).Ad esempio, avendo a disposizione un campione di n = 10 elementi estratti

    in modo identico ed indipendente da una popolazione distribuita normalmente conmomenti entrambi incogniti:

    x i N (, 2), i = 1 , 2, ..10,x i x j i = j.

    Si considerino gli stimatori:

    g10(x1, x2, ...x 10) =

    1

    10

    10

    i=1 x i ,

    g7(x1, x2, ...x 10) =17

    7

    i=1

    x i ,

    Notiamo che entrambi gli stimatori sono corretti:

    E [g10(x1, x2, ...x 10)] =110

    10

    i=1E (x i ) =

    110

    10

    i=1 = ,

    E [g7(x1, x2, ...x 10)] = 17

    7

    i=1 = ,

    ed e possibile mostrare che:

    V [g10(x1, x2,...x 10)] =1

    100

    10

    i=1

    V (x i ) =1

    100

    10

    i=1

    2 =110

    2,

    V [g7(x1, x2,...x 10)] =149

    7

    i=1

    V (x i ) =1

    49

    7

    i=1

    2 =17

    2.

    Il piu efciente tra questi due stimatori ` e quindi g10(x1, x2, ...x 10), dato che ha va-rianza pi u bassa. Si noti che questo non e sorprendente dato che g10(x1, x2,...x 10)utilizza tutte le informazioni provienienti dal campione mentre g7(x1, x2,...x 10)non assegna alcun ruolo allinformazione proveniente dalle osservazioni x8, x9 ex10 .

    3.7.3 Consistenza

    La consistenza `e una propriet`a asintotica, vale a dire che riguarda il comportamentodegli stimatori per campioni di grande ampiezza ( n ).

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    51/185

    3.7. PROPRIET A DEGLI STIMATORI 51

    Uno stimatore g() viene detto consistente per il parametro incognito dellapopolazione se per ogni coppia di valori > 0 e > 0, esiste un ampiezzacampionaria n0 tale per cui:

    prob[|gn | < ] > 1 , n > n 0.In altri termini:

    limn

    pr [|gn | < ] = 1, > 0Altre notazioni equivalenti per esprimere la consistenza sono:

    gn p

    , plim( gn ) La consistenza di uno stimatore pu o quindi essere indicata come la convergenza in probabilit a di tale stimatore al valore incognito dei parametri da stimare.

    Perch e si abbia consistenza ` e necessario che:

    limn

    E (gn )2 = 0Uno stimatore distorto pu o essere consistente purch e sia asintoticamente non di-storto:

    limn

    E (gn ) = .

    E possibile enumerare le principali propriet` a delloperatore plim :

    plimn

    i=1cix i =

    n

    i=1ci plim(x i ) ,

    plimn

    i=1

    x i =n

    i=1

    plim(x i ) ,

    plimx1x2

    =plim(x1)plim(x2)

    , se plim(x2) = 0 ,

    plim(g(x)) = g (plim( x)) se la funzione g () e continua in plim( x)

    3.7.4 La legge dei grandi numeri (Versione pi u semplice)

    Si consideri un campione di n elementi estratti indipendentemente da una distribu-zione con valore atteso e varianza 2:

    x1, x2, ...x n i.i.d. (, 2)

    Si consideri la media campionaria:

    xn =1n

    n

    i=1

    x i

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    52/185

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    53/185

    3.8. VARIABILI CASUALI IN PI U DIMENSIONI 53

    sappiamo che:

    E (X ) = p, V (X ) = p(1 p),E (xn ) = p, V (xn ) =

    p(1 p)n

    Quindi, applicando il TCL si ottiene:

    zn =n(xn p) p(1 p)

    d

    N (0, 1)

    3.8 Variabili casuali in pi u dimensioni

    Si consideri il vettore (2 1) x :x = x1x2

    dove sia x1 che x2 sono due variabili casuali, per semplicit` a di esposizione conti-nue. Il vettore x puo essere quindi denito una variabile casuale bidimensionale.Con riferimento ad x e possibile denire:

    La distribuzione congiunta di x1 e x2:f (X ) = f (x1, x2)

    Le distribuzioni marginali di x1 e x2:f (x1) = + f (x1, x2)dx2f (x2) = + f (x1, x2)dx1

    Le distribuzioni condizionali di x1 condizionata a x2 e di x2 condizionata adx1:

    f (x1|x2) =f (x1, x2)

    f (x2)

    f (x2|x1) =f (x1, x2)

    f (x1)

    Si ha indipendenza statistica tra x1e x2 quando la distribuzione condizionata dix1 dato x2 coincide con la distribuzione marginale di x1; oppure, in termini equiva-lenti quando la distribuzione di x2 condizionata su x1 coincide con la distribuzionemarginale di x2:

    f (x1|x2) = f (x1) f (x2|x1) = f (x2).

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    54/185

    54 CAPITOLO 3. RICHIAMI DI INFERENZA STATISTICA

    Si noti che le due condizioni di cui sopra sono del tutto equivalenti, data la de-

    nizione di densit`a di probabilit`a condizionale, e da questo si evince la natura sim-metrica del concetto di indipendenza statistica: dire che x1 e indipendente da x2equivale ad affermare che x2 e indipendente da x1:

    f (x1|x2) = f (x1)f (x1, x2)

    f (x2)= f (x1)

    f (x1, x2) = f (x1)f (x2),

    f (x2|x1) = f (x2)f (x1, x2)

    f (x1)= f (x2)

    f (x1, x2) = f (x1)f (x2).

    Entrambe le condizioni possono essere riscritte come la condizione che la den-sit a di probabilit a congiunta sia pari al prodotto tra le densit a marginali per ognicoppia di valori x1 e x2 appartenenti al dominio di X .

    3.8.1 La covarianza

    La covarianza misura quanto due variabili casuali tendano ad essere legate tra loroin modo lineare. La covarianza tra le variabili casuali x1, x2 e denita come:

    Cov(x1, x2) = E {[x1 E (x1)] [x2 E (x2)]}e facile mostrare che:Cov(x1, x2) = E {[x1 E (x1)] [x2 E (x2)]}=

    = E {x1x2 x1E (x2) x2E (x1) + E (x1) E (x2)}=E (x1x2) E (x1) E (x2)

    La covarianza tra x1 e x2 assume valori che sono compresi tra V (x1)V (x2)e + V (x1)V (x2). Per questo `e possibile costruire una misura relativa della di-pendenza lineare tra x1 e x2 opportunamente scalando la covarianza: si costruiscein questo modo l indice di correlazione lineare :

    =Cov(x1, x2)

    V (x1)V (x2)In assenza di correlazione lindice sar a pari a zero. Quando due variabilicasuali sono perfettamente correlate in senso positivo lindice di correlazione sar apari a uno e in caso di perfetta correlazione negativa lindice sar a pari a -1.

    La correlazione quindi deve essere intesa come misura della dipendenza linearetra due variabili casuali. Si noti che lindipendenza statistica implica assenza dicorrelazione. Infatti date x1 e x2 se x1 e x2 sono indipendenti si avr a:

    Cov(x1, x2) = E (x1x2) E (x1) E (x2) =

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    55/185

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    56/185

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    57/185

    3.10. ALCUNE DISTRIBUZIONI NOTEVOLI 57

    Si noti che nel caso di assenza di correlazione tra x 1 e x 2,quando cio e la

    matrice delle covarianze tra gli elementi di x 1 e gli elementi di x 2 e nulla:

    12 = E (x 1 1) (x 2 2) = [0 ](n 1 n 2 ),

    la distribuzione di x 1 condizionata a x 2 coincide con la distribuzione marginale dix 1 e la distribuzioni di x 2 condizionata a x 1 coincide con la distribuzione marginaledi x 2:

    2 = 2, 22 = 22 , 1 = 1, 11 = 11 ,

    in altri termini si ha indipendenza statistica tra x 1 e x 2. Nel caso in cui trattiamouna VC n -dimensionale gaussiana, lassenza di correlazione lineare e sinonimo diindipendenza statistici tra i blocchi di x che hanno covarianze nulle.

    3.10 Alcune distribuzioni notevoli

    3.10.1 La distribuzione 2

    Date n variabili casuali indipendenti ed identicamente distribuite come normalistandardizzate:

    x1, x2,...x n , f (x1, x2, . . . ,x n ) =n

    i=1

    f (x i ),

    xi

    N (0, 1), i = 1 , 2,...,n,

    la VC ottenuta come somma di queste variabili al quadrato ha distribuzione 2n(chi-quadro con n gradi di libert a ):

    z =n

    i=1x2i n , z R

    1+ .

    Si noti che dal modo in cui ricaviamo la distribuzione 2 e possibile dedurre chea partire da due VC z1 e z2 indipendenti aventi entrambe distribuzione 2 rispet-tivamente con n1 e n2 gradi di libert a, la VC risultante dalla somma e anchessadistribuita come una 2 con n = n1 + n2 gradi di libert a:

    z1 2n 1 , z2 2n 2 z = z1 + z2

    2n 1 + n 2 .

    Una distribuzione 2k con k gradi di libert a assume valori solamente positivi ed hauna funzione di densit a con le propriet a descritte dalla Figura (3.4).

    3.10.2 La distribuzione t di Student

    Data una VC x, distribuita come una normale standardizzata:

    x N (0, 1)

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    58/185

    58 CAPITOLO 3. RICHIAMI DI INFERENZA STATISTICA

    Figura 3.4: Funzione di densit` a di VC 2

    0

    0.02

    0.04

    0.06

    0.08

    0.1

    0.12

    0.14

    0.16

    0.18

    0.2

    0 2 4 6 8 10 12 14 16 18 20

    4 gdl8 gdl

    e data una seconda VC y indipendente da x e distribuita come una 2n :

    f (x, y ) = f (x)f (y), y 2n

    si denisca la VC:

    z =x

    y/nLa VC Z e distribuita come una t di Student con n gradi di libert a :

    Z tn .

    La distribuzione t di Student, la cui funzione di densit` a e rappresentata nellaFigura (3.5) per diversi valori di n , e chiaramente molto simile ad una distribuzionegaussiana standardizzata, vale a dire e simmetrica intorno a zero e assegna densit adi probabilit`a molto bassi a valori distanti da zero. Confrontandola con la distribu-zione Gaussiana standardizzata, e possibile concludere che la densit a t di Studenttende ad assegnare densit a di probabilit a piu alte ai valori sulle code rispetto alladistribuzione normale standardizzata. Per questo motivo si dice che la distribuzio-ne t di Student ha le code spesse ( fat tails nella dizione inglese). Le propriet a

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    59/185

    3.10. ALCUNE DISTRIBUZIONI NOTEVOLI 59

    Figura 3.5: Funzione di densit a di VC t di Student

    0

    0.05

    0.1

    0.15

    0.2

    0.25

    0.3

    0.35

    0.4

    -3 -2 -1 0 1 2 3

    2 gdl80 gdl

    essenziali della distribuzione t di Student sono le seguenti:

    E (Z ) = 0 ,v(Z ) = E (Z 2) =

    nn 2

    ,

    se n > 2, altrimenti la varianza non esiste,lim

    nf (Z ) = (Z ).

    Quindi al crescere del numero dei gradi di libert a la distribuzione converge indistribuzione a quella di una VC normale standardizzata.

    3.10.3 La distribuzione F di Fisher

    Date due variabili casuali X 1 e X 2 statisticamente indipendenti tra loro ed entram-be distribuite come 2 rispettivamente con n1 e n2 gradi di libert a:

    X 1 2n 1 , X 2 2n 2 , f (x1, x2) = f (x1)f (x2),

    la VC Z :Z =

    X 1/n 1X 2/n 2

    F n 1 ,n 2

    si distribuisce come una F di Fisher con n1 gradi di libert a al numeratore e n2gradi libert a al denominatore . Ovviamente il supporto di z e limitato a R 1+ , datoche si tratta del rapporto tra grandezze necessariamente positive. Le propriet` a dellafunzione di densit a della distribuzione F sono rappresentate nella gura (3.6).

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    60/185

    60 CAPITOLO 3. RICHIAMI DI INFERENZA STATISTICA

    Figura 3.6: Funzione di densit a di VC F di Fischer

    0

    0.1

    0.2

    0.3

    0.4

    0.5

    0.6

    0.7

    0.8

    0.9

    0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5

    3-50 gdl8-50 gdl

    3.11 La funzione di verosimiglianza

    Sia x1, x2, . . . ,x n un campione di n elementi estratti in modo indipendente ed iden-ticamente dalla stessa popolazione (indicati come IID , cioe distribuiti identica-mente e indipendentemente) la cui densit` a indichiamo con f (x , ) ad indicare chetale densit a e descritta dal vettore (k 1) di parametri incogniti :

    x1, x2, ...x n IID,f (x i , ),i = 1 , 2,...,n.

    Data lipotesi di indipendenza tra i diversi elementi del campione possiamo scriverela funzione di densit` a del campione come:

    f (x1, x2, ...x n , ) =n

    i=1

    f (x i , )

    Ad esempio, se la popolazione fosse distribuita normalmente con valore atteso e varianza 2, potremmo scrivere:

    f (x1, x2,...x n , ) = (2 )n/ 2 n exp 1

    22

    n

    i=1

    (x i )2 , =

    Questa e la funzione di densit` a dell n pla campionaria sulla base dei parametridella popolazione e . Questa funzione pu o essere vista sotto un diverso punto

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    61/185

    3.11. LA FUNZIONE DI VEROSIMIGLIANZA 61

    Figura 3.7: Funzione di verosimiglianza di

    0

    0.002

    0.004

    0.006

    0.008

    0.01

    0.012

    -3 -2 -1 0 1 2 3

    Si assume che 2 sia noto e pari a 1.

    di vista, cio e come una funzione del valore dei parametri stessi e quindi come funzione di verosimiglianza :

    L(x1, x2, ...x n , ) = (2 )n/ 2 n exp 1

    22

    n

    i=1

    (x i )2 . (3.1)

    Questa funzione esprime la verosimiglianza che ln-pla campionaria osservata siastata estratta in modo IID da una distribuzione normale con parametri e 2. Adesempio, dato il campione di ampiezza n = 5 :

    x1 = 1 .2, x2 = 1 .4, x3 = 1 .6, x4 = 0 .8, x5 = 0 .4,

    assumendo per semplicit` a che sia noto e pari a 1, possiamo calcolare in relazionea diversi valori di il valore di (3.1) (si veda la gura 3.7) ed effettivamente siha che la verosimiglianza calcolata in corrispondenza di = 0 .5 e pari a 0.0027,e calcolata in corrispondenza di = 3 e pari a (6.318) 107, indicando inquesto modo che il valore = 0 .5 e molto pi u verosimile del valore = 3 . Inaltri termini, sulla base del campione analizzato, e molto pi u verosimile che i datiosservati siano stati generati da una distribuzione normale con valore atteso pari a0.5, che da una distribuzione normale con valore atteso pari a 3.

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    62/185

    62 CAPITOLO 3. RICHIAMI DI INFERENZA STATISTICA

    3.12 Stima di massima verosimiglianza

    Dato un certo campione x1, x2, ...x n estratti a una determinata popolazione di cuisi conosce la forma funzionale della funzione di densit a f (x, ), che dipende da unvettore di parametri incogniti , la stima di massima verosimiglianza consiste nelcercare quei valori dei parametri del modello che rendono lestrazione de campioneosservato il pi u possibile verosimile. In altri termini, si massimizza la funzione diverosiglianza rispetto ai parametri da stimare:

    Max

    L(x1, x2, ...x n , ).

    La soluzione viene indicata come stimatore di massima verosimiglianza di .

    Spesso si ricorre allespediente di massimizzare il logaritmo della funzione diverosimiglianza, la cosiddetta funzione di log-verosimiglianza, al ne di ottenerecondizioni del primo ordine pi u semplici. Si ricordi infatti che se una funzioneviene sottoposta ad una trasformazione monotonica conserva i punti di massimo edi minimo della funzione di partenza. Ad esempi per il caso di un campione di nelementi estratti in modo IID da una popolazione normale N (, 2), la funzionedi log-verosimglianza e:

    log L(x1, x2,...x n , , 2) = n2

    log (2) n log() 1

    22

    n

    i=1(x i )2 .

    Le condizioni del primo ordine sono quindi:

    log L(x1, x2,...x n , , 2)

    = 02

    22

    n

    i=1

    (x i ) = 0

    = xn , xn =1n

    n

    i=1

    x i

    log L(x1, x2,...x n , , 2)

    = 0 n

    +1

    3

    n

    i=1

    (x i )2 = 0

    2 =1n

    n

    i=1

    (x i

    )2

    Si noti che lo stimatore del valore atteso e non distorto e consistente:

    E (xn ) = , v(xn ) =2

    n

    3.13 Metodo dei momenti

    Il medodo dei momenti ` e una modalit`a di stima che e utilizzata quando linteres-se del ricercatore e concentrato sullottenimento di stime consistenti. Il metodo

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    63/185

    3.14. PROPRIET A DEGLI STIMATORI OTTENUTI PER CAMPIONAMENTO DA UNA DISTRIBUZIONE G

    dei momenti consiste nelluguagliare i momenti teorici della distribuzione da cui

    proviene i campione ai momenti campionari. Dato che i momenti teorici della po-polazione dipendono dai parametri incogniti della popolazione, si risolve rispettoai parametri incogniti e si ottiene una stima dei parametri della popolazione. Adesempio, supponiamo di avere:

    x1, x2,...x n I.I.D.,f (x i , )i = 1 , 2,...,n.

    e la popolazione si distribuisce come una t- di Student con gradi di libert`a e eincognito. Sapendo che per una variabile casuale z distribuita come una t di Studentcon gradi di libert a vale:

    E (z) = 0 , V (z) =

    2, > 2,

    e possibile per stimare ricavare la varianza campionaria e uguagliarla alla va-rianza della popolazione, ed ottenere una stima di esplicitando rispetto a taleparametro:

    S 2 =

    2 = 2S 2

    S 2 13.14 Propriet a degli stimatori ottenuti per campionamen-

    to da una distribuzione gaussiana

    Supponiamo di avere un campione di n elementi x1, x2,...,x n estratti in modoIID da una popolazione avente distribuzione normale N (, 2). Si ricordino ledenizioni di media e di varianza campionaria:

    xn =1n

    n

    i=1

    x i ,

    S 2 =1

    n 1n

    i=1

    (x i )2

    Abbiamo visto che e facile denire le propriet a della media campionaria e stabilireche:

    xn N , 2

    ne quindi e possibile standardizzare xn ottenendo:

    n

    (xn ) N (0, 1) .Daltro canto `e possibile mostrare che S 2 si distribuisce indipendentemente da

    xn e che:

    (n 1)S 2

    2 2n1

  • 8/14/2019 (eBook - Ita - Economia Amisano, Gianni - Lezioni Di a

    64/185

    64 CAPITOLO 3. RICHIAMI DI INFERENZA STATISTICA

    Quindi e possibile ricavare che vale:

    n (xn ) (n 1) S 2 2 / (n 1) =

    nS

    (xn ) tn1

    Quindi si pu o standardizzare anche quando non si conosce utilizzandone unasua stima corretta ed in questo modo si ottiene una VC la cui distribuzione ` e notae tabulata.

    Nel caso in cui il campione fosse estratto in modo IID da una distribuzionenon normale, abbiamo visto che al crescere di n possiamo contare sul risultatofornito dal teorema centrale del limite:

    limn

    f (zn ) = (zn ), zn = n (xn )e quindi possiamo ritenere che per n sufcientemente grande (per molti problemicomuni n > 100 osservazioni), si abbia:

    nS

    (xn ) N (0, 1)dove con il simbolo si indica si distribuisce approssimativamente come. quin-di per n sufcientemente grande possiamo ritenenre valida il risultato di normalit` adella media campionaria asintoticamente alla grandezza

    nS (xn ) verr a consi-

    derata come distribuita normalmente dato che la distribuzione t di Student convergein distribuzione alla Normale standardizzata al crescere di n .

    3.15 Stima per intervallo

    Volendo stimare un parametro incognito sulla base di un campione di ampiezzan , x1, x2, . . . ,x n , si immagini di costruire due funzioni delln-pla campionaria:

    g1(x1, x2,...,x n ), g1() : R n R 1,g2(x1, x2,...,x n ), g2() : R n R 1

    con la propriet`a:

    pr [g1(x1, x2,...,x n ) g2(x1, x2, . . . ,x n )] = ,dove il valore di e dato ed e denominato livello di condenza o duciario . Lin-tervallo denito dalle funzioni g1() e g2() viene detto intervallo duciario o dicondenza .

    Ad esempio ,dato il campione:

    x1, x2,...,x n IIDN (, 2)

  • 8/14/2019 (eBook - Ita