dispense1-5 econometria

download dispense1-5 econometria

of 185

Transcript of dispense1-5 econometria

Lezioni di EconometriaGianni AmisanoFebbraio 19992PremessaQueste note, che costituiscono il materiale di riferimento per gli studenti del corsodi econometria attivato presso la Facolt` a di Economia dellUniversit` a di Brescia,sono il risultato della composizione di diverse fonti di riferimento.Un elenco (purtroppo non esaustivo) di tali fonti deve necessariamente comin-ciare con lottimo testo di Maddala (Maddala, 1992: Introductory Econometrics)che a tuttoggi rappresenta uno dei migliori testi di econometria adatti per un pri-mo corso. La trattazione di Maddala, carente sotto laspetto della rappresentazionematriciale degli argomenti, ` e stato integrata facendo riferimento ad altre fonti. Hoattinto largamente dallo splendido libro di W. Greene (Econometric Analysis, 3rdedition, 1997), dove si trovano trattati ad un ottimo livello teorico una vastissimagamma di tecniche econometriche. Le parti relative allanalisi delle serie stori-che sono ispirate alla lettura del libro di J.D.Hamilton (Time Series Analysis,Princeton University Press, 1994).Queste note si articolano in diverse parti. La prima parte copre tutti gli argo-menti fondamentali di un primo corso di econometria, mentre la seconda ` e una par-te monograca che ricomprende alcuni argomenti particolari e pi ` u avanzati. Cia-scun capitolo di queste note si chiude con un insieme di esercizi svolti che servonoad aiutare gli studenti nella preparazione per lesame. Un aspetto complementaredella preparazione allesame ` e costituito dalla parallela attivit` a di esercitazione chesar` a svolta in classe utilizzando i software applicativi Gauss e Microt disponi-bili presso il laboratorio informatico della Facolt` a di Economia dellUniversit` a diBrescia.Gli studenti sono caldamente invitati a contattarmi ogni volta che abbiano pro-blemi di comprensione o di ogni altro tipo. Sono contattabile presso il Diparti-mento di Scienze Economiche dellUniversit` a di Brescia (via San Faustino 74B)otramitee-mail [email protected]. Tuttoil materialedistribuito agli studenti sar` a depositato alla CLUB (corso Mameli) e disponibileelettronicamente alla mia pagina web:(http://www.eco.unibs.it/amisano/index.html)Desidero ringraziare gli studenti del corso di econometria dellanno accademi-co 1997/8 e anticipatamente quelli del corrente anno accademico, che mi hannosegnalato e sicuramente mi segnaleranno molti tra i refusi sicuramente presenti inqueste note.34Indice1 Modelli economici e modelli econometrici 91.1 Il signicato del termine econometria . . . . . . . . . . . . . . . 91.2 Forma usuale dei modelli econometrici . . . . . . . . . . . . . . . 101.3 Modelli econometrici . . . . . . . . . . . . . . . . . . . . . . . . 111.4 Aspetti essenziali dellanalisi econometrica . . . . . . . . . . . . 122 Richiami matematici 132.1 Operatori sommatoria e produttoria . . . . . . . . . . . . . . . . . 132.2 Matrici e vettori . . . . . . . . . . . . . . . . . . . . . . . . . . . 132.2.1 Tipologia di matrici . . . . . . . . . . . . . . . . . . . . . 142.2.2 Operazioni matriciali . . . . . . . . . . . . . . . . . . . . 162.2.3 Vettori particolari . . . . . . . . . . . . . . . . . . . . . . 172.2.4 Traccia di una matrice quadrata . . . . . . . . . . . . . . 192.2.5 Matrici partizionate . . . . . . . . . . . . . . . . . . . . . 192.2.6 Il determinante di una matrice quadrata . . . . . . . . . . 192.2.7 La matrice aggiunta . . . . . . . . . . . . . . . . . . . . . 202.2.8 La matrice inversa . . . . . . . . . . . . . . . . . . . . . 202.2.9 Alcune propriet` a rilevanti . . . . . . . . . . . . . . . . . 212.2.10 Matrici idempotenti . . . . . . . . . . . . . . . . . . . . . 222.2.11 Spazio vettoriale . . . . . . . . . . . . . . . . . . . . . . 222.2.12 Base di uno spazio vettoriale. . . . . . . . . . . . . . . . 232.2.13 Sottospazio vettoriale . . . . . . . . . . . . . . . . . . . . 232.2.14 Rango di una matrice. . . . . . . . . . . . . . . . . . . . 242.2.15 Indipendenza lineare di vettori . . . . . . . . . . . . . . . 252.2.16 Autovalori e autovettori . . . . . . . . . . . . . . . . . . 252.2.17 Serie geometriche di matrici . . . . . . . . . . . . . . . . 272.2.18 Matrici denite, semidenite positive e negative . . . . . . 272.2.19 Prodotto di Kronecker (prodotto tensore) . . . . . . . . . 292.2.20 Loperatore vec . . . . . . . . . . . . . . . . . . . . . . . 302.3 Funzioni in pi ` u variabili . . . . . . . . . . . . . . . . . . . . . . . 312.3.1 Derivate parziali prime e seconde . . . . . . . . . . . . . 312.3.2 Alcune semplici regole di derivazione per funzioni in pi ` uvariabili . . . . . . . . . . . . . . . . . . . . . . . . . . . 3356 INDICE2.3.3 Ottimizzazione . . . . . . . . . . . . . . . . . . . . . . . 332.3.4 Ottimizzazione vincolata. . . . . . . . . . . . . . . . . . 342.4 Esercizi su richiami di matematica . . . . . . . . . . . . . . . . . 362.5 Soluzioni agli esercizi . . . . . . . . . . . . . . . . . . . . . . . . 373 Richiami di inferenza statistica 433.1 Variabile casuale . . . . . . . . . . . . . . . . . . . . . . . . . . 433.2 Distribuzione di probabilit` a. . . . . . . . . . . . . . . . . . . . . 433.3 Funzione di ripartizione . . . . . . . . . . . . . . . . . . . . . . . 443.4 Momenti di una variabile casuale. . . . . . . . . . . . . . . . . . 463.5 La distribuzione normale . . . . . . . . . . . . . . . . . . . . . . 473.6 Inferenza statistica parametrica. . . . . . . . . . . . . . . . . . . 483.7 Propriet` a degli stimatori . . . . . . . . . . . . . . . . . . . . . . 493.7.1 Non distorsione o correttezza . . . . . . . . . . . . . . . . 493.7.2 Efcienza. . . . . . . . . . . . . . . . . . . . . . . . . . 493.7.3 Consistenza. . . . . . . . . . . . . . . . . . . . . . . . . 503.7.4 La legge dei grandi numeri (Versione pi ` u semplice) . . . . 513.7.5 Teorema centrale del limite . . . . . . . . . . . . . . . . . 523.8 Variabili casuali in pi ` u dimensioni . . . . . . . . . . . . . . . . . 533.8.1 La covarianza. . . . . . . . . . . . . . . . . . . . . . . . 543.9 Distribuzione normale multivariata. . . . . . . . . . . . . . . . . 553.10 Alcune distribuzioni notevoli . . . . . . . . . . . . . . . . . . . . 573.10.1 La distribuzione 2. . . . . . . . . . . . . . . . . . . . . 573.10.2 La distribuzione t di Student . . . . . . . . . . . . . . . . 573.10.3 La distribuzione F di Fisher . . . . . . . . . . . . . . . . 593.11 La funzione di verosimiglianza. . . . . . . . . . . . . . . . . . . 603.12 Stima di massima verosimiglianza . . . . . . . . . . . . . . . . . 623.13 Metodo dei momenti . . . . . . . . . . . . . . . . . . . . . . . . 623.14 Propriet` a degli stimatori ottenuti per campionamento da una distri-buzione gaussiana. . . . . . . . . . . . . . . . . . . . . . . . . . 633.15 Stima per intervallo. . . . . . . . . . . . . . . . . . . . . . . . . 643.16 Prova delle ipotesi . . . . . . . . . . . . . . . . . . . . . . . . . . 663.17 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 703.18 Soluzioni agli esercizi . . . . . . . . . . . . . . . . . . . . . . . . 724 Il modello di regressione lineare 814.1 Concetti fondamentali . . . . . . . . . . . . . . . . . . . . . . . . 814.1.1 Il ruolo del termine di disturbo e le sue propriet` a . . . . . 824.1.2 Ipotesi sui regressori . . . . . . . . . . . . . . . . . . . . 834.1.3 Rappresentazione matriciale del modello di regressione li-neare . . . . . . . . . . . . . . . . . . . . . . . . . . . . 844.1.4 Ricapitolando. . . . . . . . . . . . . . . . . . . . . . . . 854.2 Stima dei parametri . . . . . . . . . . . . . . . . . . . . . . . . . 864.2.1 Metodo dei momenti (MM) . . . . . . . . . . . . . . . . 86INDICE 74.2.2 Metodo della massima verosimiglianza. . . . . . . . . . . 884.2.3 Metodo dei minimi quadrati (OLS=ordinary least squares) 904.2.4 Aspetti algebrici dello stimatore OLS . . . . . . . . . . . 934.2.5 Ricapitolazione sulla stima OLS dei parametri . . . . . 964.2.6 Interpretazioni alternative della stima OLS di un MRL . . 964.3 Stima del momento secondo (2). . . . . . . . . . . . . . . . . . 1004.4 Analisi della varianza . . . . . . . . . . . . . . . . . . . . . . . . 1014.5 Regressione partizionata . . . . . . . . . . . . . . . . . . . . . . 1024.6 Anticipazione su test congiunti . . . . . . . . . . . . . . . . . . . 1034.7 Inferenza statistica sul modello di regressione . . . . . . . . . . . 1044.7.1 Costruzione di intervalli di condenza. . . . . . . . . . . 1044.7.2 Prova delle ipotesi . . . . . . . . . . . . . . . . . . . . . 1064.7.3 Un utile esempio: il MRL con 3 regressori . . . . . . . . 1094.7.4 Inferenza statistica nel modello di regressione multipla . . 1124.7.5 Esempio di regressione multipla con k = 3 regressori . . . 1144.8 La previsione . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1174.9 Diversi modi di costruire Test: Test LR, di Wald, LM. . . . . . . 1194.9.1 Il test LR . . . . . . . . . . . . . . . . . . . . . . . . . . 1194.9.2 Il test di Wald. . . . . . . . . . . . . . . . . . . . . . . . 1214.9.3 Test LM (Lagrange Multipliers) (test dei moltiplicatori diLagrange). . . . . . . . . . . . . . . . . . . . . . . . . . 1244.9.4 Ricapitolazione sulle modalit` a di costruzione dei test . . . 1264.10 Stima del modello soggetto a vincoli lineari sui parametri . . . . . 1274.10.1 Alcuni esempi . . . . . . . . . . . . . . . . . . . . . . . 1294.11 Effetti dellomissione di variabili rilevanti . . . . . . . . . . . . . 1314.12 Effetti dellinclusione di variabili irrilevanti . . . . . . . . . . . . 1344.13 Gradi di libert` a e indice R2. . . . . . . . . . . . . . . . . . . . . 1364.13.1 Relazione tra test di signicativit` a t, test Fe indiceR2. . 1374.14 Test di stabilit` a del MRL . . . . . . . . . . . . . . . . . . . . . . 1384.14.1 Test basati sullanalisi della varianza . . . . . . . . . . . . 1384.14.2 Test previsivo di stabilit` a. . . . . . . . . . . . . . . . . . 1394.14.3 Alcuni commenti ai test di stabilit` a strutturale. . . . . . . 1404.15 Eserciziario sulla regressione lineare . . . . . . . . . . . . . . . . 1414.15.1 Esercizio 1 . . . . . . . . . . . . . . . . . . . . . . . . . 1414.15.2 Esercizio 2 . . . . . . . . . . . . . . . . . . . . . . . . . 1414.15.3 Esercizio 3 . . . . . . . . . . . . . . . . . . . . . . . . . 1424.15.4 Esercizio 4 . . . . . . . . . . . . . . . . . . . . . . . . . 1424.15.5 Esercizio 5 . . . . . . . . . . . . . . . . . . . . . . . . . 1434.15.6 Esercizio 6 . . . . . . . . . . . . . . . . . . . . . . . . . 1434.16 Soluzioni agli esercizi . . . . . . . . . . . . . . . . . . . . . . . . 1434.16.1 Esercizio 1 . . . . . . . . . . . . . . . . . . . . . . . . . 1434.16.2 Esercizio 2 . . . . . . . . . . . . . . . . . . . . . . . . . 1454.16.3 Esercizio 3 . . . . . . . . . . . . . . . . . . . . . . . . . 1454.16.4 Esercizio 4 . . . . . . . . . . . . . . . . . . . . . . . . . 1478 INDICE4.16.5 Esercizio 5 . . . . . . . . . . . . . . . . . . . . . . . . . 1494.16.6 Esercizio 6 . . . . . . . . . . . . . . . . . . . . . . . . . 1505 Variabili di comodo e variabili troncate 1535.1 Variabili di comodo come variabili esplicative . . . . . . . . . . . 1535.1.1 Variabili di comodo a correzione di intercetta . . . . . . . 1535.1.2 Variabili dummy a correzione di intercetta per trattare daticon stagionalit` a. . . . . . . . . . . . . . . . . . . . . . . 1555.1.3 Variabili dummy a correzione di intercetta per outliers . 1565.1.4 Variabili dummy a correzione di intercetta e di pendenza . 1575.1.5 Variabili dummy per provare lipotesi di stabilit` a dei coef-cienti di regressione. . . . . . . . . . . . . . . . . . . . 1585.1.6 Test di Chow del secondo tipo (o test di validit` a previsiva) 1595.2 Variabili dummy come variabili dipendenti . . . . . . . . . . . . . 1605.2.1 Modello di probabilit` a lineare . . . . . . . . . . . . . . . 1615.2.2 Alcuneanticipazioni sullastimadi modelli condisturbieteroschedastici . . . . . . . . . . . . . . . . . . . . . . . 1625.2.3 Stima del modello di probabilit` a lineare . . . . . . . . . . 1645.2.4 Modelli probit e logit . . . . . . . . . . . . . . . . . . . . 1655.2.5 Modello Probit . . . . . . . . . . . . . . . . . . . . . . . 1695.2.6 Effetti di variazioni delle variabili esplicative . . . . . . . 1705.2.7 Indici di bont` a di adattamento del modello . . . . . . . . . 1715.3 Il modello Tobit . . . . . . . . . . . . . . . . . . . . . . . . . . . 1735.4 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1765.5 Soluzioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178Capitolo 1Modelli economici e modellieconometrici1.1 Il signicato del termine econometriaIl termine econometria signica letteralmente misurazione in economia. Con iltermine econometria ci si riferisce ad una disciplina scientica basata sullapplica-zione di metodi statistici e matematici per lanalisi di dati economici con lintentodi dare riscontro empirico alle teorie economiche.Nel 1933 viene pubblicato il primo numero della rivista scientica Econometri-ca , fondata dalla Econometric Society. Nel primo numero della rivista leditorialestabiliva:obiettivo della Econometric Society ` e la promozione di studi cheunichino gli aspetti teorico-quantitativo e empirico quantitativo e chesiano caratterizzato dal modo di pensare rigoroso proprio delle scienzenaturali.Leconometria quindi si compone dellunione di matematica, statistica, teoriaeconomicaediaspetticomputazionaliperiquali ` estatosicuramenterilevantelenorme sviluppo delle capacit` a di calcolo degli elaboratori elettronici avvenutonegli ultimi venti anni.Leconometria si basa sullo studio formalizzato di modelli economici. Per mo-dello economico intendiamo una rappresentazione schematizzata della realt` a di unfenomeno economico, quali ad esempio il comportamento individuale o collettivodei consumatori, lofferta di lavoro, le modalit` a operative delle autorit` a di politicamonetaria.Generalmente, un modello economico fornisce una rappresentazione sempli-cata della realt` a che intende spiegare. La semplicit` a del modello ` e funzionale aconsentire di comunicare facilmente i risultati ottenuti dallanalisi del modello. Lasemplicit` a del modello deriva dalladozione di ipotesi di partenza semplicatrici,nalizzate ad astrarre da quegli aspetti della realt` a osservata che non sono rilevanti910 CAPITOLO 1. MODELLI ECONOMICI E MODELLI ECONOMETRICIper il fenomeno che si intende studiare. In sintesi, per modello economico si inten-de un insieme di assunzioni nalizzate alla descrizione di un particolare fenomenoeconomico.Negli ultimi decenni la teoria economica ha assunto aspetti di crescente forma-lizzazione. Molto spesso i modelli economici prendono la forma di equazioni checonnettono misurazioni dei fenomeni che si intendono spiegare (ad esempio la di-soccupazione, il consumo aggregato, i protti di un settore industriale . . . ) ai valoriassunti da una serie di variabili che si intendono misurare le cause del fenomenooggetto di indagine. Quando il modello economico prende la forma di relazionimatematiche, ` e possibile utilizzare i dati disponibili sul fenomeno studiato per ve-ricare la rispondenza del modello stesso alla realt` a osservata. La verica empirica(sulla base dei dati disponibili) della validit` a dei modelli economici costituisce unodegli scopi fondamentali dellanalisi econometrica.1.2 Forma usuale dei modelli econometriciIn generale, un modello econometrico assume la forma:yt = f (xt) +t, t = 1, 2, . . . , T,dove yt ` e un vettore (n 1) di variabili che il modello intende spiegare (variabiliendogene) che si riferiscono allosservazione t-esima del campione in esame, f ` euna funzione che fa dipendere ytda un vettore (k1) di variabili esogene xt(variabili esplicative),etrappresenta un vettore (n1) di termini di disturbocasuali. La componente f (xt) viene detta parte sistematica del modello, mentre lacomponente t inviene indicata come parte stocastica (o casuale) del modello.Il pi ` u semplice esempio di modello econometrico ` e il seguente, dove yt, xt e tsono tutte grandezze scalari:yt = +xt +t, t = 1, 2, . . . , T.Tale modello viene detto modello di regressione lineare semplice:la variabile di-pendente yt viene fatta dipendere in modo lineare da ulla grandezza esplicativa xted ` e inuenzata dalla variabile casuale t.La presenza della componente stocastica implica che il modello debba esseretrattato con tecniche inferenziali. Laspetto fondamentale ` e quello della stima, cio` edellutilizzazione di un campione di dati osservabili sulle variabili yt e xt per de-terminare quale sia la congurazione della parte sistematica del modello meglio ingrado di spiegare il comportamento campionario delle variabili endogene.Accanto allo scopo di verica empirica dei modelli economici, leconometria sirivolge tradizionalmente anche alla produzione di modelli previsivi utilizzati da di-verse istituzioni. Gli intermediari nanziari, e pi` u in generale ogni impresa produt-tiva in grado di dedicare risorse alla programmazione delle proprie attivit` a futuretrova naturalmente utile disporre di scenari sul valore futuro delle variabili econo-miche che inuiscono sullandamento dei costi e dei ricavi. Accanto alle istituzioni1.3. MODELLI ECONOMETRICI 11private, anche le autorit` a di politica economica (governi e banche centrali) e le isti-tuzioni di coordinamento internazionale (Fondo Monetario Internazionale, BancaMondiale ecc. . . ) necessitano di disporre di previsioni afdabili sullandamento digrandezze economiche di rilievo nazionale o internazionale (cambi, prezzi, entrateed uscite del settore pubblico). Tali previsioni possono essere fondate sullutilizzodi modelli econometrici adattati ai dati osservati per i fenomeni di interesse.1.3 Modelli econometriciPer modello econometrico intendiamo:un insieme di equazioni comportamentali che collegano tra loro pi ` u variabilieconomiche e una struttura di componenti casuali, detti termini di disturbo;un insieme di affermazioni relative alla qualit` a dei dati utilizzati per la stimadel modello: per esempio la presenza o la rilevanza di errori di misurazionenelle variabili utilizzate;la specicazione della distribuzione di probabilit` a dei disturbi e degli erroridi misurazione nelle variabili utilizzate.Ad esempio, il famoso modello di M. Friedman del comportamento dei consu-matori basato sul reddito permanente pu` o essere formalizzato nel modo seguente:ci= yi+iyi= yi +ip(i) N(0, 2)p(i) N(0, 2)In questo esempio la spesa per consumo individuale dellindividuo i-esimo (ci) vie-ne ipotizzata proporzionale al reddito permanente di tale individuo (yi ). Inoltre siipotizza che le decisioni di consumo individuali siano inuenzata da un termine didisturbo i che rappresenta le caratteristiche individuali non esplicitamente misu-rabili dellindividuo i-esimo. Il reddito permanente dellindividuo i-esimo yinon ` eosservabile e differisce dal suo livello di reddito corrente (yi) per via di un terminecasualeiche costituisce necessariamente lerrore di misurazione quando si in-tenda spiegare il comportamento di consumo sulla base del reddito osservabile.Siipotizza che i termini di disturboie gli errori di misurazioneisiano variabilicasuali distribuite secondo una legge di distribuzione gaussiana (o Normale). Ilsimbolo indica si distribuisce come.Un altro esempio ` e dato dalla funzione di domanda di un determinato bene:qdt= +pt +utut N(0, 2u)12 CAPITOLO 1. MODELLI ECONOMICI E MODELLI ECONOMETRICIIn questo esempio, la quantit` a domandata del bene allistante t-esimo (qdt ) vieneipotizzata dipendere linearmente dal prezzo del bene allo stesso istante (pt). Inoltresi ipotizza che la domanda sia inuenzata da un termine di disturbo ut distribuitonormalmente.Nei modelli econometrici i termini di disturbo sono variabili inosservabili chedescrivono leffetto sulla varibile dipendente di tutto quello che non pu` o esserericompreso nella parte sistematica del modello.1.4 Aspetti essenziali dellanalisi econometricaLe fasi dellanalisi econometrica sono le seguenti.1. Formulare un modello in forma empiricamente vericabile attraverso la scel-ta di alcuni aspetti fondamentali quali:forma funzionale della relazione. A questo proposito, nella maggiorparte delle applicazioni econometriche si ` e soliti ricorrere ad una for-ma funzionale di tipo lineare. Tale scelta risponde essenzialmente allanecessit` a di rendere pi ` u semplici gli aspetti computazionali.Variabili da inserire: si tratta di denire linsieme di variabili esplicati-ve (dette regressori) contenute nel vettore xt. Struttura probabilistica dei disturbi. Nellanalisi econometrica tradi-zionale` econsuetamenteutilizzatalipotesididistribuzionenormaledei termini di disturbo.2. Stima del modello. I dati disponibili vengono utilizzati per generare stimedel modello econometrico. Nella maggior parte dei casi, la stima si concretanellottenimento di valori per i parametri del modello.3. Uso del modello: il modello viene utilizzato per vericare la validit` a di teorieeconomiche, perprodurreprevisioni, persvolgeresimulazionidipoliticaeconomica, cio` e per simulare gli effetti di manovre di politiche economichealternative.Capitolo 2Richiami matematiciIn questo capitolo esponiamo gli elementi di algebra matriciale e di matematica chesono necessari allanalisi econometrica oggetto degli argomenti trattati nel corso.Gli argomenti sono raggruppati per omogeneit` a e sono trattati al livello di formaliz-zazione richiesto dalla loro successiva utilizzazione. Gli studenti sono caldamenteinvitati a svolgere molti esercizi per impratichirsi con le operazioni matriciali.2.1 Operatori sommatoria e produttoriaLoperatore sommatoria ` e indicato con il simbolo

e serve ad indicare operazionidisommainmodocompatto. Loperatoresommatoria` eaccompagnatodaunacoppia di indici che determinano linsieme degli addendi. Ad esempio:n

i=1ai = a1 +a2 +. . . +anLoperatore produttoria ` e indicato con il simbolo e serve ad indicare ope-razioni di prodotto in modo compatto. Loperatore produttoria ` e accompagnato dauna coppia di indici che determinano linsieme dei fattori. Ad esempio:n

i=1ai = a1 a2 . . .anLe propriet` a di questi operatori sono intuitive e facilmente vericabili.2.2 Matrici e vettoriIn questa sezione vengono descritti alcuni elementi fondamentali dellalgebra dellematrici necessari per la trattazione degli argomenti ricompresi allinterno del corso.Per matrice si intende un insieme di numeri ordinati su m 1 righe e n 1colonne. Per indicare una matrice si utilizza la notazione:1314 CAPITOLO 2. RICHIAMI MATEMATICIA(mn)= aij =__a11a12. . . a1na21a22. . . a2n. . . . . . . . . . . .an1an2. . . ann__Si noti che gli elementi della matrice A sono caratterizzati da due indici, ilprimo dei quali identica la riga ed il secondo identica la colonna di appartenza.Ad esempio, lelemento sulla quarta riga, sesta colonna` e indicato cona46. Unamatrice si dice di ordini m e n quando ha m righe e n colonne.Per vettore si indica una matrice particolare caratterizzata dallavere una solariga (vettore riga) o una sola colonna (vettore colonna ). Ad esempio:a(41)=__1247__,b(15)= _4 3 2 5 7 2.2.1 Tipologia di matriciUna matrice (nn) si dice quadrata di ordine n quando il numero di righe ` e parial numero delle sue colonne.Una matrice quadrata A(n n) si dice simmetrica quando:aij = aji, i, jAd esempio la matrice:A(33)=__1 2 42 5 74 7 4__` e simmetrica, mentre la matriceA(33)=__1 2 52 5 74 7 4__non lo ` e (confrontate gli elementi a13 e a31).Una matrice quadrata A, di dimensione (n n) si dice diagonale quando:A = aij , aij = 0, i ,= j.Ad esempio, la matrice2.2. MATRICI E VETTORI 15A =__2 0 00 4 00 0 7__` e chiaramente diagonale.Una matrice quadrata A, di dimensione (nn) si dice triangolare inferiorequando:A = aij , aij = 0, i < j.Ad esempio, la matriceA =__3 0 0 04 7 0 05 5 2 08 5 6 4__` e triangolare inferiore.Una matrice quadrata A, di dimensione (nn) si dice triangolare superiorequando:A = aij , aij = 0, i > j.Ad esempio, la matriceA =__3 4 5 80 7 3 30 0 2 60 0 0 4__` e triangolare superiore.Una matrice quadrata A, di dimensione (nn) si dice matrice identit` a e siindica In se:A = aij ,aij= 0, i ,= j,aii= 1, i.Ad esempio:I4 =__1 0 0 00 1 0 00 0 1 00 0 0 1__.Data una matrice Adi dimensioni (nm), la matrice B, di dimensione (mn)si dice trasposta di A, e si indica con il simbolo A

ed ` e denita come:16 CAPITOLO 2. RICHIAMI MATEMATICIB = A

= bij , bij = aji, , i, j.La matrice A

viene quindi ottenuta trasformando le colonne di Ain righe di A

.Ad esempio:A =_1 24 3_, A

=_1 42 3_.2.2.2 Operazioni matricialiSomma e differenza tra matriciDate due matrici A e B, entrambe di dimensioni (m n), ` e possibile denire lamatrice (mn) C, denita comme somma di Ae B:C = A+B = cij ,cij= aij +bij, i, j.Nello stesso modo si denisce la differenza tra due matrici A e B, entrambe didimensioni (mn), la matrice (mn) C:C = AB = cij ,cij= aijbij, i, j.ProdottoDati duevettori (n1)aeb, si denisceprodottointernotratali vettori lagrandezza scalare:a

b = b

a =n

i=1(ai bi) .Date le matrici A, di dimensioni (mn) e B, di dimensioni (np), il prodottomatriciale tra Ae B ` e la matrice C, di dimensione (mp)denita come:C = A B = cij ,cij=n

k=1aik bkj, i = 1, 2, . . . m, j = 1, 2, . . . , p.In altri termini C` e una matrice il cui elemento genericocij` e dato dal prodottointerno tra la i-esima riga di Ae la j-esima colonna di B. Ad esempio:2.2. MATRICI E VETTORI 17_1 3 62 3 4_

__1 01 10 3__=_4 215 15_.Si noti che loperazione di prodotto matriciale non ` e denita per qualsiasi cop-pia di matrici A e B, ma tali matrici debbono vericare la condizione di confor-mabilit` a per il prodotto: il numero di colonne del primo fattore Adeve essere parial numero di righe del secondo fattore B.Si noti che ovviamente, ABin generale` e diverso da B A: in generalequando il prodotto A B ` e possibile non ` e neppure detto che B Alo sia.Il prodotto e la somma matriciale hanno le seguenti propriet` a:1. Propriet` a distributiva: se A` e una matrice (mn) e B e C sono matrici(n q):A(B+C) = A B+A C.2. Propriet` a associativa: date le matrici A, B, C di dimensioni opportune, siha:(A+B) +C = A+ (B+C),(A B) C = A (B C)Moltiplicazione per una grandezza scalareData la matrice (mn) Ae la grandezza scalare c, ` e possibile denire la matriceC, di dimensioni (mn) derivante dal prodotto scalare di c per A:C = cA = Ac = cij , cij = caij, i = 1, 2, . . . , m, , j = 1, 2, . . . n.2.2.3 Vettori particolariIl vettore sommaSi denisca il vettore somma di dimensione (n 1):in =__11. . .1__Tale vettore se post-moltiplica una matrice A di dimensione (m n) generaun vettore c (m 1) che contiene le somme degli elementi sulle singole righe diA:A in = c = ci , ci =n

j=1aij, i = 1, 2, . . . , m.18 CAPITOLO 2. RICHIAMI MATEMATICIAd esempio:_1 2 1 43 6 1 0_

__1111__=_810_.Il vettore somma di dimensione (m 1), se trasposto e utilizzato a premolti-plicare una matrice A di dimensione (mn), genera un vettore c

, di dimensione(1 n) che contiene le somme degli elementi sulle singole colonne di A:i

n A = c

= cj , cj =n

i=1aij, j = 1, 2, . . . , n.Il vettore estrazioneIl vettore estrazione uin, di dimensione (n1), ` e denito come un vettore di ele-menti tutti pari a zero tranne lelemento i-esimo che ` e pari a uno. In altri termini ` ela colonna i-esima della matrice In:uin =__00. . .1. . .0__i-esimo elementoIl vettore estrazione uin, se utilizzato per post-moltiplicare una matrice A didimensione (m n) genera un vettore c di dimensione (n1) che coincide conla i-esima colonna di A. Ad esempio:A u34 =_1 2 1 43 6 1 0_

__0010__=_11_.Se invece il vettore estrazione uim viene trasposto e utilizzato per pre-moltiplicareuna matrice Adi dimensione (mn) genera un vettore di dimensione (1n) checoincide con la i-esima riga di A. Ad esempio:_0 0 1 __1 0 5 62 0 4 34 5 5 4__=_4 5 5 4 .2.2. MATRICI E VETTORI 192.2.4 Traccia di una matrice quadrataSia data una matrice quadrata A di dimensione (nn). Si denice traccia di A(indicata come tr(A)) la somma degli elementi diagonali di A:tr(A) =n

i=1aii.Le propriet` a delloperatore traccia sono le seguenti:tr(A B) = tr(B A),tr(A B C) = tr(C A B) = tr(B C A),(invarianza rispetto a permutazioni cicliche),tr(A) = tr(A), dove ` e una grandezza scalare.2.2.5 Matrici partizionateData la matrice A, di dimensione (mn), ` e possibile partizionare tale matrice indiversi blocchi. Ad esempio:A =__A11(m1n1)A12(m1n2)A21(m2n1)A22(m2n2)__, m = m1 +m2, n = n1 +n2In caso di prodotto matriciale tra matrici conformabili per il prodotto allinternodelle quali siano stati deniti blocchi conformabili per prodotto, si pu` o ricavare:A(mn)B(np)=__A11(m1n1)A12(m1n2)A21(m2n1)A22(m2n2)__

__B11(n1p1)B12(n1p2)B21(n2p1)B22(n2p2)__==_(A11 B11 +A12 B21) (A11 B12 +A12 B22)(A21 B11 +A22 B21) (A21 B12 +A22 B22)_,m1 +m2= m, n1 +n2 = n, p1 +p2 = p.2.2.6 Il determinante di una matrice quadrataData una matrice quadrata A, di dimensione (n n), si denisce determinante diA(e lo si indica con [A[) la quantit` a scalare:[A[ =n

j=1(1)i+j aij [Aij[ , (2.1)20 CAPITOLO 2. RICHIAMI MATEMATICIdove Aij` e la matrice che si ottiene a partire da A sopprimendone la riga i-esima ela colonna j-esima. Ad esempio:[A[ =__1 2 43 1 01 0 1__= 1 1 00 12 3 01 1+ 4 3 11 0== 1 6 4 = 9Data lespressione con cui si ricava il determinante, risulta particolarmente fa-cile calcolare il determinante di una matrice triangolare. Infatti se A, di dimensione(n n), ` e triangolare (superiore o inferiore), data la (2.1), allora si ha:[A[ =n

i=1aiiIn altri termini, per una matrice triangolare, il determinante ` e pari al prodotto deglielementi diagonali.Nel caso della matrice identit` a, ` e facile mostrare che il determinante ` e pari a 1:[In[ = 1, n.Si noti che, date le matrici quadrate (n n) Ae B, si ha:[A B[ = [A[[B[ .2.2.7 La matrice aggiuntaData la matrice quadrata (nn) A, si denisce A+,matrice aggiunta di A, lamatrice che soddisfa:A+ A = A A+= [A[In.(la matrice aggiunta pre-moltiplicata o post-moltiplicata per A genera una matricediagonale con elementi tutti pari al determinante di A sulla diagonale).La matrice A+viene ottenuta come:A+=_a+ij_,a+ij= (1)i+j [Aji[ .2.2.8 La matrice inversaData la matrice quadrata (nn) A,con [A[ , = 0,si denisce A1la matrice inversatale per cui:A1 A = A A1= In.Data la matrice quadrata (n n) A,con [A[ , = 0, si ha:A1= [A[12.2. MATRICI E VETTORI 21(il determinante dellinversa ` e pari al reciproco del determinante, quando il deter-minante ` e diverso da zero).Si noti che ` e possibile ottenere la matrice inversa di A come:A1= [A[1 A+.(la matrice inversa pu` o essere calcolata a partire dalla matrice aggiunta dividendociascun elemento della matrice aggiunta per il determinante di A ). Si noti che ` epossibile calcolare la matrice inversa solo per matrici con determinante diverso dazero. Tali matrici vengono per questo motivo dette invertibili. Ad esempio, data lamatrice:A =__1 3 50 1 02 1 0__,si ha:A+=__0 5 50 10 02 5 1__,[A[ = 10,A1=__0 12120 1 01512110__.2.2.9 Alcune propriet` a rilevantiDate due matrici conformabili per prodotto A(mn) e B (n p) :(A B)

= B

A

(si noti linversione di ordine tra i fattori)Date due matrici quadrate, di dimensioni (nn) ed invertibili A (mn) e B (np),vale:(A B)1= B1 A1(si noti linversione di ordine tra i fattori).Data una matrice quadrata ed invertibile A(nn), la trasposta della matriceinversa ` e uguale allinversa della trasposta:(A1)

= (A

)1.Data una matrice quadrata ed invertibile A(n n) ed uno scalare c, si ha:(cA)1=1cA1, c ,= 0.22 CAPITOLO 2. RICHIAMI MATEMATICI2.2.10 Matrici idempotentiLa matrice quadrata A(n n) si dice idempotente se:Ak= A, k > 0.In altri termini, moltiplicando per s` e stessa la matrice A quante volte si vuole siottiene sempre A. Alcuni esempi di matrice idempotente sono i seguenti:A = [0](nn),A = In,A = in (i

n in)1 i

n =1nin i

n =1n __1 1 . . . 11 1 . . . 1. . . . . . . . . . . .1 1 . . . 1__.Data la matrice (n k) Atale per cui:A

A,= 0,si noti che le matrici:B(nn)=A (A

A)1 A

,C(nn)= InA (A

A)1 A

sono idempotenti (lo si verichi moltiplicando ciascuna matrice per se stessa ).2.2.11 Spazio vettorialeSi consideri il vettore (k 1) a:a(k1)=__a1a2. . .ak__pu` o essere inteso come espressione delle coordinate del punto a nello spazio realek-dimensionale (Rk), cos` come da gura (2.2.11) per k = 2. Si noti che qualunquevettore ottenuto come risultato del prodotto tra uno scalare ed il vettore a (a=a) rappresenta le coordinate di un punto a che si trova sulla semiretta che uniscelorigine degli assi e il punto a.Inoltre si noti (gura 2.2.11) che, dati due vettori (2 1) a e b, che la somma(C) e la differenza (d) tra a e b rappresentano rispettivamente i punti c e d nellospazio reale bidimensionale.Deniamo spazio k-dimensionale Rklinsieme di tutti i vettori reali di dimen-sione (k 1).Le propriet` a elementari di Rksono:2.2. MATRICI E VETTORI 230 1 2 3 4 5 6 7 8 91234567ab=2a1. Chiusura rispetto alla somma: dati a Rke b Rk, il vettore derivantedalla somma c = a +b appartiene a Rk.2. Chiusurarispettoal prodottoscalare: datoqualunquevettoreaRkequalunque grandezza scalare , il vettore a =a appartiene a Rk.Si denisce spazio vettoriale qualsiasi insieme di vettori chiuso rispetto allamoltiplicazione scalare ed alla somma.2.2.12 Base di uno spazio vettorialeDato uno spazio vettoriale S, si denisce base di S un insieme di vettori a1, a2, . . . , akche appartengono a S con la propriet` a che qualunque vettore appartenente a S pu` oessere ottenuto come combinazione lineare di a1, a2, . . . , ak:c =

i ai, c S.Ad esempio, per lo spazio vettoriale R2, i vettori:a1 =_10_, a2 =_01_sono una base dato che qualunque vettore (21) pu` o essere ottenuto come com-binazione lineare di a1e a2.2.2.13 Sottospazio vettorialeSi denisce S(a1, a2, . . . , ak), sottospazio vettoriale associato ad un insieme divettori a1, a2, . . . , ak lo spazio vettoriale coperto da tali vettori: qualunque vetto-re appartenente a S(a1, a2, . . . , ak) pu` o essere espresso come combinazione lineare24 CAPITOLO 2. RICHIAMI MATEMATICI2 1 0 1 2 3 4 5 6 71234567abcddi a1, a2, . . . , ak:c =

i ai, c S(a1, a2, . . . , ak).Ad esempio, i vettori:a =__120__, b =__230__,non coprono R3. Infatti il vettore:c =__123__,non pu` o essere espresso come combinazione lineare di a e b. Il sottospazio vet-toriale generato da a e b ` e invece linsieme di tutti i vettori appartenenti a R3chehanno terzo elemento pari a zero.2.2.14 Rango di una matriceSi denisce spazio colonna di una matrice A di dimensione (mn), lo spaziovettoriale coperto dai vettori colonna contenuti nella matrice. Si denisce rangocolonna la dimensione di tale spazio vettoriale. Ad esempio, data la matrice:A =_3 84 6_2.2. MATRICI E VETTORI 25ha dimensione pari a 1.Si noti infatti (gura 2.2.11) che sia la prima colonna chela seconda della matrice A rappresentano punti che giacciono sulla retta passantedallorigine di R2e avente inclinazione +2. Qualunque combinazione lineare dellecolonne di Arappresenta punti su tale semiretta.Si noti che per ogni matrice A(mn) vale:Rango riga Rango colonna,ossia:dimensione(spazio riga)dimensione(spazio colonna).Si noti inoltre che, date due matrici conformabili per prodotto A(mn) e B(n p), si ha:rango(A B) min(rango(A), rango(B)).2.2.15 Indipendenza lineare di vettoriDati n vettori di dimensione (n1) a1, a2, . . . , an, tali vettori si dicono linearmenteindipendenti se:n

i=1i ai = 0vale solo per:1 = 2 = . . . = n = 0.In altri termini i vettori a1, a2, . . . , an sono linearmente indipendenti se nessu-no tra essi pu` o essere espresso come combinazione lineare degli altri n 1.Si noti che data la matrice A(nn), tale matrice avr` a determinante diverso dazero se e solo se i suoi vettori riga (o, che ` e lo stesso, i suoi vettori colonna) sonolinearmente indipendenti. Ad esempio, per la matrice:A =_1 152 30_ha determinante pari a zero e i suoi vettori colonna (riga) non sono linearmenteindipendenti:ad esempio la seconda riga pu` o essere ottenuta moltiplicando per 2la prima.2.2.16 Autovalori e autovettoriData la matrice A, di dimensione (n n), il sistema:A(nn) x(n1)=(11) x(n1)(AIn)x =[0](n1)26 CAPITOLO 2. RICHIAMI MATEMATICIammette soluzioni x ,=[0](n1)se e solo se:[AIn[ = 0. (2.2)altrimenti la matrice (A In) pu` o essere invertita e lunica soluzione ` e x = [0].Le radici i (i = 1, 2, . . . , n) dellequazione (2.2): sono chiamati autovalori.Le soluzioni xi (i = 1, 2, . . . , n) associate ad ogni autovalore i :A xi = i xi, i = 1, 2, . . . , n.sono detti autovettori.Ad esempio,per la matrice:A =_1 22 2_, [AI2[ =1 22 2 2 3 +2= 0 1 =32 + 1217, 2 =32 1217.Si noti che la relazioni tra autovalori, autovettori e la matrice A pu` o esserescritta in modo compatto come:A(nn)

X(nn)=X(nn)

(nn),X =[x1, x2, . . . , xn] , =__10 0 00 20 00 0 . . . 00 0 0 n__Un utile risultato relativo agli autovalori` e il seguente: se tutti gli autovalori1, 2, . . . , nsono distinti allora gli autovettori x1, x2, . . . , xnsono linearmen-te indipendenti. Data lindipendenza lineare delle colonne di X (e quindi la suainvertibilit` a), ` e possibile scrivere:A = X X1.Una importante propriet` a degli autovalori di una qualunque matrice quadrataAdi dimensioni (nn) ` e che il determinante di tale matrice ` e pari al prodotto deisuoi autovalori:[A[ =n

i=1i2.2. MATRICI E VETTORI 272.2.17 Serie geometriche di matriciData la matrice quadrata (n n) A, si denisca la somma:ST= In +A+A2+. . . AT=T

i=0Ai.Pre-moltiplicando STper A, si ottiene:A ST= A+A2+. . . AT+1=T+1

i=0Ai+1.Sottraendo le due precedenti espressioni tra loro, si ricava:(InA)ST=T

i=0AiT+1

i=0Ai+1= (InAT+1).Se la matrice (In A) ` e invertibile (in termini equivalenti, se = 1 NON` eautovalore di A), allora ` e possibile pre-moltiplicare per (InA)1lespressioneprecedente ed ottenere:ST= (InA)1(InAT+1).`E possibile mostrare che che se tutti gli autovalori di A sono minori di 1 inmodulo:[i[ < 1, i = 1, 2, . . . , n,allora:limTAT+1=[0](nn),e quindi:limTST= (InA)1.2.2.18 Matrici denite, semidenite positive e negativeLa matrice Asimmetrica (n n) viene detta denita positiva se:x

(1n)

A(nn) x(n1)> 0, x(n1),=[0](n1).Asimmetrica (n n) viene detta semidenita positiva se:x

(1n)

A(nn) x(n1) 0, x(n1),=[0](n1).28 CAPITOLO 2. RICHIAMI MATEMATICIAsimmetrica (n n) viene detta denita negativa se:x

(1n)

A(nn) x(n1)< 0, x(n1),=[0](n1).Asimmetrica (n n) viene detta semi-denita negativa se:x

(1n)

A(nn) x(n1) 0, x(n1),=[0](n1).Gli autovalori di una matrice positiva sono tutti positivi, dato che:A xi= i xi,x

i A xi= i x

i xi>0=i> 0, i = 1, 2, . . . , n.Con ragionamenti simili si pu` o mostrare che tutti gli autovalori di matrici se-midenitepositivesononon-negativi, chetuttigliautovaloridimatricidenitenegative sono negative e che tutti gli autovalori di matrici semidenite negativesono non positivi. Quindi un modo per vericare le propriet a di denitezza di unamatrice ` e quello di controllare il segno degli autovalori. Ci ` o non ` e molto agevoleper una matrice di dimensioni superiori a (22), dato che per trovare gli auto-valori ` e necessario in tali casi risolvere equazioni di grado superiore al secondoche non sempre sono risolubili senza lausilio di un computer. Per tale motivo ` epossibile fare riferimento ad un criterio alternativo, basato sulla verica del segnodei minori principali. Per minore principale di ordinei (i=1, 2, . . . , n) di unamatrice quadrata A(nn) si intendono i determinanti della sottomatrice ottenutaconsiderando solo le prime i righe e i-colonne di A. Una matrice ` e denita positivase tutti i suoi minori principali hanno segno positivo ed ` e denita negativa se i suoiminori principali hanno segni alternati a partire da .Fattorizzazione di una matrice denita positivaQualunque matrice (nn) denita positiva pu` o essere fattorizzata nel modoseguente: = A D A

,dove A ` e triangolare inferiore con elementi diagonali unitari:aij = 0, j> i, aii = 1, i = 1, 2, . . . , n,e D ` e una matrice diagonale con elementi diagonali posiivi:dij = 0, i ,= j, dii> 0, i = 1, 2, . . . n.Tale scomposizione ` e unica.Da questa scomposizione` e possibile ricavare la cosiddetta fattorizzazione diCholeski di :2.2. MATRICI E VETTORI 29 = (A D1/2)(A D1/2)

= P P

,P = A D1/2, D1/2=__d110 . . . 00d22. . . . . .. . . . . . . . . . . .0 . . . . . .dnn__.Si noti che la matrice P, detta fattore di Choleski di , ha dimensione (nn) ed ` etriangolare inferiore con elementi diagonali positivi e pari ad11,d22, . . . ,dnn.2.2.19 Prodotto di Kronecker (prodotto tensore)Date due matrici A, di dimensione (mn) e B, di dimensione (pq), si denisceprodotto di Kronecker tra Ae Bla matrice C, di dimensione (m p nq) :C(mpnq)=A(mn)B(pq)=__a11 B a12 B . . . a1n Ba21 B a22 B . . . a2n B. . . . . . . . . . . .an1 B an2 B . . . anm B__.Ad esempio:A =_1 23 4_, B =__5 6 78 9 1011 12 13__,C = AB =_1 23 4___5 6 78 9 1011 12 13__==__5 6 7 10 12 148 9 10 16 18 2011 12 13 22 24 2615 18 21 20 24 2824 27 30 32 36 4033 36 39 44 48 52__.Le pi ` u importanti propriet` a delloperatore prodotto di Kronecker sono le se-guenti:1) Date le matrici A, di dimensione (mn) e B, di dimensione (p q):(AB)

= A

B

.2) Date le matrici A, di dimensione (m n) ,B, di dimensione (pq) e C,di dimensione (r s):(AB) C = A(BC).30 CAPITOLO 2. RICHIAMI MATEMATICI3) Date le matrici Ae B, di dimensione (mn) e C, di dimensione (r s):(A+B) C = AC+BC.4) Date le matrici A(mn), B (p q), C (n r) e D(q s) :_A(mn)B(pq)_

_C(nr)D(qs)_=(A C)(mr) (B D)(ps)=E(mprs)5) Date le matrici quadrate ed invertibili A(mm) e B (n n):(AB)1= A1B1.2.2.20 Loperatore vecData una matrice (mn) A :A = [a1, a2, . . . , an] ,loperatorevectrasforma la matriceAin un vettoredi dimensione (mn1),allineando uno sopra allaltra le colonne di A:vec(A) =__a1a2. . .an__.Ad esempio:A =_1 3 52 4 6_,vec(A) =__123456__.Una propriet` a rilevante delloperatorevec ` e la seguente: date le matrici con-formabili per prodotto A (mn), B (n p) e C (p q), ` e possibile dimostrare2.3. FUNZIONI IN PI `U VARIABILI 31che:vec_A(mn)

B(np)

C(pq)_=d(mq1)==_Iq (A B(mp))_ vec (C)(pq1)==_C

A(qmpn) vec (B) ,(np1)= _(C

B

) Im(qmnm) vec (A) .(mn1)2.3 Funzioni in pi ` u variabiliData la grandezza scalare y e il vettore (n 1) x:y R1,x __x1x2. . .xn__,si denisce funzione RnR1(funzione scalare di un vettore) la funzione:y = f(x) = f(x1, x2, . . . , xn). (2.3)Ad esempio, si consideri la funzione di produzione Cobb-Douglas omogeneadi primo grado, che fa dipendere il prodotto Ydallutilizzazione di capitale (K) elavoro (L):Y = f(K, L) = A K L1,A > 0, 0 < < 1.2.3.1 Derivate parziali prime e secondeSi denisce la derivata prima parziale della funzione (2.3) rispetto al suo i-esimoargomento (xi, i = 1, 2, . . . , n) la seguente espressione:f(x)xi= fi(x) lim01 [f(x1, . . . , xi + , ..xn) f(x1, . . . , xi, ..xn)] .Adesempio, perlafunzionedi produzioneCobb-Douglas, laderivataparzialerispetto al capitale (produttivit` a marginale del capitale) ` e:fK(K, L) =f(K, L)K= A K1 L1.32 CAPITOLO 2. RICHIAMI MATEMATICISi denisce gradiente il vettore delle derivate prime di una funzione scalare diun vettore:(n1)=__f(x)x1f(x)x2. . .f(x)xn__.Ad esempio, per la funzione lineare:f(x)(n1)= a(1n)

x(n1+b(11)=n

i=1ai xi +b,il gradiente ` e:(n1)=__a1a2. . .an__= a(n1).Per la funzione di produzione Cobb-Douglas, il gradiente ` e invece:(21)=_f(K,L)Kf(K,L)L_=_A K1 L1(1 )A K L_.Le derivate seconde di una funzione f(x) scalare di un vettore RnR1sonodenite come:fij=2fxixj=_fxj_xi, fji =2fxjxi=_fxi_xj,fij= fji, i = 1, 2, . . . , n, j = 1, 2, . . . , n.`E possibile denire una matrice (nn) H, chiamata matrice hessiana, checontiene le derivate parziali seconde della funzione f(x):H(nn)=__2fx1x12fx1x2. . .2fx1xn2fx2x12fx2x2. . .2fx2xn. . . . . . . . . . . .2fxnx12fxnx2. . .2fxnxn__=__f(x)x_

_x=__

_x.Si noti che la matrice hessiana ` e naturalmente simmetrica, dato che:2fxixj=2fxjxii, j.Ad esempio, per la funzione di produzione Cobb-Douglas. la matrice hessiana` e:H(22)=_( 1)A K2 L1(1 )A K1 L(1 )A K1 L(1 )A K L1_2.3. FUNZIONI IN PI `U VARIABILI 332.3.2 Alcune semplici regole di derivazione per funzioni in pi ` u varia-biliSi notino le seguenti regole di derivazione per funzioni scalari di vettori.1. Data la funzione f(x) =a

(1n) x(n1), il gradiente di tale funzione ` e:fx= a(n1).2. Data la funzione f(x) =x

(1n) a(n1), il gradiente di tale funzione ` e:fx= a(n1).3. Data la funzione f(x) =x

(1n)

A(nn) x(n1), il gradiente di tale funzione ` e:fx=_A

(nn)+A(nn)_ x(n1)Se la matrice A ` e simmetrica, ovviamente il gradiente ` e:fx= 2A(nn)x(n1)2.3.3 OttimizzazioneNel caso di una funzione scalare di uno scalare R1R1, y = f(x), la condizionedel primo ordine per avere un massimo o un minimo ` e:fx= 0,mentre le condizioni del secondo ordine sono:2fx2> 0 per unmin imo,2fx2< 0 per un massimo.Nel caso di funzione scalare di un vettore Rn R1, y =f(x), le condizionidel primo ordine per avere un massimo o un minimo sono date dal sistema dinequazioni:fx= =[0](n1),34 CAPITOLO 2. RICHIAMI MATEMATICImentre le condizioni del secondo ordine sono:H(nn)denita positiva per un minimo,H(nn)denita negativa per un massimo.2.3.4 Ottimizzazione vincolataSia data la funzione scalare di un vettore Rn R1, y=f(x) e si immagini didover massimizzare la funzione rispetto a x sotto un insieme di k vincoli su x:Maxxf(x)con :___c1(x) = d1c2(x) = d2. . .ck(x) = dk___oppure :_c(x)(k1)=d(k1)_Un modo di procedere al calcolo del massimo vincolato x ` e quello di costruirela funzione lagrangiana:L(x, ) = f(x) +n

i=1i [ci(x) di] = f(x) +

[c(x) d] , =__12. . .k__.Gli elementi del vettore (k 1) sono detti moltiplicatori di Lagrange e con-sentono di tenere in considerazione i vincoli che la soluzione del problema di ot-timizzazione deve soddisfare.La costruzione della funzione lagrangiana consentedi impostare il problema di ottimizzazione vincolata come un problema di otti-mizzazione libera, semplicemente specicando le condizioni del primo ordine inrelazione ad un vettore di variabili di scelta di dimensione superiore:z(n+k)1=_x_.Le condizioni del primo ordine sono:L(x, )x= [0](n1)f(x)x(n1)+__c(x)

x(nk)__

(k1)=[0](n1),L(x, )= [0](k1)_c(x) d(nk)_=[0](k1).2.3. FUNZIONI IN PI `U VARIABILI 35Dallarisoluzionedelsistemadellecondizionidelprimoordinesiricavalasoluzione x che ottimizza la funzione f(x) sotto i vincoli c(x) = d.Le propriet` a dellottimo vincolato sono le seguenti:la funzione valutata nel punto di massimo (minimo) vincolato x` e non su-periore (non inferiore) alla funzione valutate nel punto di massimo (minimo)libero x :f(x) f(x) nel caso di massimo vincolato,f(x) f(x) nel caso di minimo vincolato.Infatti:_f(x)x_x=x+_c

(x)x_x=x =[0](n1)e quindi il gradiente valutato in corrispondenza di x=x,_f(x)x_x=x, ` ediverso da [0](n1).Quando lottimo vincolato coincide con quello vincolato, si ha: =[0](k1): x = x =[0](k1).Ad esempio, si consideri il seguente problema di massimizzazione vincolata:Maxxf(x) = a

(13) x(31) x

(31)

A(33) x(31),con :_x1x2 +x3 = 0x1 +x2 +x3 = 0_,oppure :_C(23) x(31)=d(21)_Questo ` e il caso di ottimizzazione di una funzione quadratica in x con vincolilineari (e omogenei, dato che d = [0]). Le condizioni del primo ordine sono:L(x, )x= [0](31) (2.4)a(31)2A(33) x(31)+ C

(32)

(21)= [0](31), (2.5)L(x, )= [0](21) (2.6)C(23) x(31)= [0](21). (2.7)36 CAPITOLO 2. RICHIAMI MATEMATICILa soluzione di queste due insiemi di equazioni con incognite x e fornisce ilmassimo vincolato della funzione: esplicitando lespressione (2.4) rispetto a x siottiene:x =12A1

_a +C

_. (2.8)Sostituendo questultima espressione nella (2.6) si ottiene:C 12A1

_a +C

_= [0] = _C A1 C

_1 C A1 a.Sostituendo questultima espressione nella (2.8) si ottiene nalmente il valore dix:x =12A1

_a C

_C A1 C

_1 C A1 a_.2.4 Esercizi su richiami di matematica1. Per le matrici:A =_1 3 32 4 1_, B =__2 41 56 2__si calcolino:A B,A

B

,B AB

A2. Si espanda il prodotto matriciale:X =__A B+ (C D)

_(E F)1+G H__

,dove tutte le matrici sono quadrate ed invertibili.3. Data la matrice:A =__1 4 73 2 55 8 8__calcolarne il determinante, la traccia e linversa.4. Si calcoli la scomposizione di Choleski per la matrice:A =_25 77 13_.2.5. SOLUZIONI AGLI ESERCIZI 375. Qualeoperazionesi compiepost-moltiplicandounamatriceA(m n)per unamatricediagonaledi dimensione(n n)?Eseinvecelasipre-moltiplica per una matrice diagonale di dimensione (mm)?6. Date le seguenti forme quadratiche:a) y = x2114x1 x2 + 11x22b) y = 5x21 +x22 + 7x23 + 4x1 x2 + 6x1 x3 + 8x2 x3,dire se sono positive per tutti i valori di x1, x2, x3.7. Si calcolino gli autovalori della matrice:A =__2 4 34 8 63 6 5__.8. Si risolva, scrivendo la funzione lagrangiana e le condizioni del primo ordi-ne, il problema di massimizzazione vincolata dellutilit` a del consumatore:Max U(q)q= q1q2, 0 < < 1, 0 < < 1, q =_q1q2_,con il vincolo : p1 q1 +p2 q2 = y,dove q1 e q2 sono le quantit` a dei beni 1 e 2, p1 e p2 sono i prezzi di tali benie y ` e il reddito monetario dellindividuo.2.5 Soluzioni agli esercizi1. Le matrici richieste sono:A B =_1 3 32 4 1_

__2 41 56 2__=_23 2514 30_,A

B

=__1 23 43 1__

_2 1 64 5 2_=__10 11 1022 23 2610 8 20__,B A =__2 41 56 2__

_1 3 32 4 1_=__10 22 1011 23 810 26 20__,B

(23)

A(22)non conformabili per prodotto.Si noti che:B A =_A

B

_

(B A)

= A

B

.38 CAPITOLO 2. RICHIAMI MATEMATICI2. Si espanda il prodotto matriciale:X =__A B+ (C D)

_(E F)1+G H__

== A B F1 E1+A B G H++D

C

F1 E1+D

C

G H

= E1 F1 B

A

+H

G

B

A

++E1 F1

C D+H

G

C D3. Per la matrice Aabbiamo:A =__1 4 73 2 55 8 8__[A[ = 1 2 58 84 3 55 8+ 7 3 25 8= 24 + 4 + 98 = 78,tr(A) = 1 + 2 + 8 = 11,A+=__24 24 61 27 1614 12 10__, A1= [A[1 A+=__178239778126139578578439439__==__413413113178926839739213539__.4. La matrice A ` e simmetrica e denita positiva. Per trovare gli autovalori diAsi procede nel modo seguente:[AI2[ = 0 25 77 13 = 0 (25 )(13 ) 49 = 0,238 + 276 = 0 = 19 85 = 19 9.21 : entrambi positivi.Il calcolo degli autovalori conferma che la matrice sia denita positiva.`Epossibile quindi procedere alla scomposizione di Choleski:P =_p110p21p22_, p11> 0, p22> 0.A = P P

=_p211p11 p21p11p21p221 +p222_.2.5. SOLUZIONI AGLI ESERCIZI 39Quindi uguagliando elemento per elemento le matrici Ae P P

si ottiene:p211 = 25 p11 = 5p11 p21 = 7 p21 =75,p221 +p222 = 13 p22 =_13 4925=2569 .Si noti che per calcolare gli elementi diagonali della matrice P si prendonoradici positive 5 e2569 (e non -5 e -13), dato che il fattore di Choleskiper denizione ha elementi diagonali positivi.5. Post-moltiplicando una matrice A (m n) per una matrice diagonale didimensione (n n) si ottiene:A =A(mn)=__a11a12. . . a1na21a22. . . a2n. . . . . . . . . . . .am1am2. . . amn__

__110 . . . 00 22. . . 0. . . . . . . . . . . .0 0 . . . nn__==__a11 11a12 22. . . a1n nna21 11a22 22. . . a2n nn. . . . . . . . . . . .am1 11am2 22. . . amn nn__vale a dire si ricava una matrice A (m n) che risulta moltiplicando ognicolonna di A per il corrispondente elemento diagonale di . Se invece sipre-moltiplica A per una matrice diagonale di dimensione (mm) siottiene:A = A(mn)==__110 . . . 00 22. . . 0. . . . . . . . . . . .0 0 . . . mm__

__a11a12. . . a1na21a22. . . a2n. . . . . . . . . . . .am1am2. . . amn__==__a11 11a12 11. . . a1n 11a21 22a22 22. . . a2n 22. . . . . . . . . . . .am1 nnam2 nn... amn nn__vale a dire si ricava una matrice A (mn) che risulta moltiplicando ogniriga di Aper il corrispondente elemento diagonale di .6. Si scriva (a) come:y =x

(12)

A(22) x(21)= a11 x21 + 2a12 x1 x2 +a22 x22,40 CAPITOLO 2. RICHIAMI MATEMATICIcon Amatrice simmetrica:A =_a11a12a12a22_.In questo caso si ha:A =_1 77 11_,conautovalori: =6 74=_ 2.60214.602_.Daci ` osiricavachelamatriceAnon` edenitapositivaequindilaformaquadratica (a)non` epositiva per qualunque valore di x1 e x2.Per quello che riguarda (b), essa pu` o essere scritta come:y =x

(13)

A(33) x(31)= a11 x21 + 2a12 x1 x2 + +2a13 x1 x3 ++2a23 x2 x3 +a22 x22 +a33 x23,A =__5 2 32 1 43 4 7__Per vericare se A ` e denita positiva occorrerebbe vericare se tutti i suoiautovalori sono positivi. Ci ` o in generale non ` e molto agevole per una matricedi dimensioni superiori a (22), senza lausilio di un computer. Per talemotivo ` e possibile fare riferimento al segno dei minori principali. Nel casodella matrice A:5 > 0,5 22 1= 5 4 > 0,5 2 32 1 43 4 7= 34 < 0.Da questo si deduce che la matrice A non ` e denita positiva e quindi che laforma quadratica (b) non ` e positiva per qualsiasi valori di x.7. Gli autovalori della matrice Avengono ottenuti come soluzione allequazio-ne:2 4 34 8 63 6 5 = 0 (2 ) [(8 )(5 ) 36]4 [4 (5 ) 18]+3 [24 3 (8 )] = 0 5 + 1523= 0 _5 15 +2_= 0 2.5. SOLUZIONI AGLI ESERCIZI 41 =_0152052= 0.34115+2052= 14.659_Si noti comunque che la seconda colonna di A ` e pari a due volte la primacolonna. Questo implica che:[A[ = 0e quindi, dato che il determinante di una matrice ` e dato dal prodotto dei suoiautovalori ` e ovvio che almeno uno degli autovalori di Asia nullo.8. La funzione lagrangiana pu` o essere scritta come:L(q, ) = u(q) + _p

q y_,u(q) = q1q2, p =_p1p2_, q =_q1q2_.Le condizioni del primo ordine sono:L(q, )q= [0] u(q)q(21)+p = [0](21), (2.9)L(q, )= 0 p

q = y. (2.10)In questo caso conviene scrivere la (2.9) come :q11 q2+p1 = 0, (2.11)q1q12+p1 = 0. (2.12)Si risolva la (2.11) a : = q11 q2p1,e si sostituisca tale valore nella (2.12), risolvendo per q1:q1 =p2p1

q2. (2.13)Si utilizzino ora la (2.10) e la (2.13) per ottenere le soluzioni in termini di q1e q2:q =_q1q2_=_(+)p1 y(+)p2 y_.42 CAPITOLO 2. RICHIAMI MATEMATICISi noti che con la funzione di utilit` a specicata le domandeq1eq2sonofunzioni lineari del reddito monetario y. Inne si noti che ` e possibile dareinterpretazione geometrica alle condizioni (2.9):_u(q)q1= p1u(q)q2= p2_u(q)q1u(q)q2=p1p2,che stabilisce la condizione di tangenza (uguaglianza delle pendenze) tra lacurva di indifferenza e la retta di bilancio.Capitolo 3Richiami di inferenza statistica3.1 Variabile casualePer variabile casuale (VC) intendiamo la misurazione quantitativa del risultato diun esperimento casuale. Ad esempio, consideriamo il lancio di una moneta che conprobabilit` a pari a 1/2 fornisce il risultato testa e con la stessa probabilit` a fornisceil risultato croce. Immaginiamo di attribuire il valore 0 allevento testa e il valore1 allevento croce. Abbiamo quindi che la variabile casuale X, risultato del lanciodi una moneta, pu` o essere descritta come segue:X =_0 Pr(X = 0) = 1/21 Pr(X = 1) = 1/2_In genere si utilizza la notazione X (la lettera maiuscola) per indicare una variabilecasualeelacorrispondenteletteraminuscola(xinquestocaso)perindicarelarealizzazione di una variabile casuale in un determinato esperimento casuale.A seconda dellinsieme dei valori che una variabile casuale pu` o assumere (do-minio o supporto di una variabile casuale) si ` e soliti distinguere le variabili ca-suali in assolutamente continue e discrete. Una variabile casuale continua (VCC)assume valori appartenenti allinsieme dei numeri reali (o a suoi sottoinsiemi):X : x A, A RLe variabili casuali discrete (VCD) assumono valori discreti. Ad esempio la va-riabile casuale numero di risultati testa nel lancio ripetuto 10 volte di una monetaassume valori discreti compresi tra 0 e 10.3.2 Distribuzione di probabilit` aPer una variabile casuale` e importante poter attribuire una misura connessa allaprobabilit` a del prodursi dei diversi risultati ammissibili.Ci ` o viene fatto tramite laspecicazione di una distribuzione di probabilit` a. La distribuzione di probabilit` a ` e4344 CAPITOLO 3. RICHIAMI DI INFERENZA STATISTICAdiversamente trattata a seconda che si consideri una VCC o una VCD. Nel caso diuna VCD ` e possibile attribuire ad ogni possibile realizzazione della VC un deter-minato valore che misura la probabilit` a del prodursi di quel determinato evento. Intal caso si parla di probabilit` a associata al valore x, che indichiamo con f(x):f(x) = pr(X = x), x A,

xiAf(xi) = 1.Per le VCC invece si parla di densit` a di probabilit` a assegnata ad ogni puntoappartenentealsupporto AdellaVCesideniscelaprobabilit` achelaVCinquestione assuma valori compresi in un qualunque intervallo come:_baf(x)dx = pr(a x b), a bLa funzionef(x) viene detta funzione di densit` a di probabilit` a. Si noti quindiche per una VCC la probabilit` a di essere uguale ad un determinato valore` e perdenizione nulla dato che:prob(X = x0) =_x0x0f(x)dx = 0, x0In altri termini, la massa di probabilit` a sottesa da un unico punto ` e identicamen-te nulla per ogni punto del supporto di una VCC, a prescindere dallentit` a delladensit` a di probabilit` a assegnata a tale punto. Questo perch` e lintegrale di una qua-lunque funzione denito su di un intervallo di misura nulla ` e identicamente ugualea zero.3.3 Funzione di ripartizionePer funzione di ripartizione di una variabile casuale Xsi intende la funzione cheper ogni valore x appartenente al dominio della variabile casuale assegna una mi-sura della probabilit` a che la variabile casuale stessa assuma valori inferiori a x. Intermini formali abbiamo:F(x) = pr(X x) =_xf(t)dtper una VCC e :F(x) = pr(X x) =

xixf(xi)per una VCD. Si noti che, ovviamente la funzione di ripartizione, sia per una VCCche per VCD assume valori compresi nellinsieme [0,1]; in altri termini la funzionedi ripartizione ` e una funzione A [0, 1], ed in pi ` u valgono le seguenti propriet` a:limxF(x) = 0, limx+F(x) = 1.Le gure (3.1) e (3.2) presentano rispettivamente un esempio di funzione di ripar-tizione per una VCC e la funzione di ripartizione di una VCD.3.3. FUNZIONE DI RIPARTIZIONE 45Figura 3.1: Funzione di ripartizione per VC discretaF(x)1xFigura 3.2: Funzione di ripartizione per VC continua00.10.20.30.40.50.60.70.80.91-3 -2 -1 0 1 2 346 CAPITOLO 3. RICHIAMI DI INFERENZA STATISTICA3.4 Momenti di una variabile casualeIl valore atteso di una VC ` e:E(X) =

xiAxif(xi),per una VCD, e:E(X) =_+xf(x)dx.per una VCC. Loperatore E() che denisce loperatore atteso, dato che si riferi-sce allapplicazione di unoperazione di sommatoria o di integrale ` e un operatorelineare: data la VC x e le costanti a e b, si ha:E (a +bx) = a +bE(x).Il valore atteso costituisce la principale misura della posizione di una VC.Per sintetizzare le caratteristiche principali di una VC si pu` o fare ricorso allamediana, vale a dire ad una misura di tendenza centrale. Per mediana si intendequel valore xmed appartenente al supporto della VC tale per cui:pr(X< xmed) = pr(X> xmed) = 1/2.La mediana xmed ` e diversamente denita a seconda che si tratti di VCC o VCD:xmed:_xmedf(x)dx =12 (VCC),xmed:

xixmedp(xi) 12 (VCD).Pi ` u in generale ` e possibile denire quantile di una VC corrispondente al valore di, 00 e >0, esiste un ampiezzacampionaria n0 tale per cui:prob [[gn[ < ] > 1 , n > n0.In altri termini:limnpr [[gn[ < ] = 1, > 0Altre notazioni equivalenti per esprimere la consistenza sono:gnp, plim(gn) La consistenza di uno stimatore pu` o quindi essere indicata come la convergenza inprobabilit` a di tale stimatore al valore incognito dei parametri da stimare.Perch` e si abbia consistenza ` e necessario che:limnE (gn)2= 0Uno stimatore distorto pu` o essere consistente purch` e sia asintoticamente non di-storto:limnE(gn) = .`E possibile enumerare le principali propriet` a delloperatore plim:plim_n

i=1cixi_=n

i=1ci plim(xi) ,plim_n

i=1xi_=n

i=1plim(xi) ,plim_x1x2_=plim(x1)plim(x2), seplim(x2) ,= 0,plim(g(x)) = g (plim(x)) se la funzione g () ` e continua inplim(x)3.7.4 La legge dei grandi numeri (Versione pi ` u semplice)Si consideri un campione di n elementi estratti indipendentemente da una distribu-zione con valore atteso e varianza 2:x1, x2, ...xn i.i.d.(, 2)Si consideri la media campionaria:xn =1nn

i=1xi52 CAPITOLO 3. RICHIAMI DI INFERENZA STATISTICALa legge dei grandi numeri ci assicura che la media campionaria converge inprobabilit` a al valore atteso incognito della popolazione:p lim(xn) = 3.7.5 Teorema centrale del limiteConsideriamo le stesse ipotesi che abbiamo avanzato a proposito della legge deigrandi numeri, vala a dire che ci sia un campione di n elementi estratti in modoindipendente dalla stessa popolazione con valore atteso e varianza 2:x1, x2, ...xn i.i.d.(, 2)Se consideriamo la variabile casuale:zn =n(xn)e con f(zn) indichiamo la sua funzione di densit` a di probabilit` a, il teorema centraledel limite (TCL) afferma che al crescere di n la funzione di densit` a di zn convergea quella dellaVC gaussiana standardizzata:limnf (zn) = (zn)dove () ` e la funzione di densit` a della VC normale standardizzata N(0, 1). Connotazione del tutto equivalente si pu` o affermare che:zndz N(0, 1).La notazioned indica convergenza in distribuzione e si dice che zn converge indistribuzione ad una VC normale standardizzata. Il TCL si pu` o parimenti enun-ciare nei termini della funzione di ripartizione: denendoF(zn) la funzione diripartizione di zn, il TCL afferma che al crescere di n la funzione di ripartizione dizn converge a quella dellaVC gaussiana standardizzata:limnF (zn) = (zn)dove () ` e la funzione di ripartizione della VC normale standardizzata N(0,1).In altri termini, qualunque sia la distribuzione della popolazione X, la VC zn(la media campionaria standardizzata) ha una distribuzione limite che coincide conquella della Normale standardizzata. Ad esempio, se consideriamo la seguente VC(VC bernoulliana):X =_0 con probabilit` a 1 p1 con probabilit` a p, 0 < p < 1_3.8. VARIABILI CASUALI IN PI `U DIMENSIONI 53sappiamo che:E(X) = p, V (X) = p(1 p),E(xn) = p, V (xn) =p(1 p)nQuindi, applicando il TCL si ottiene:zn =n(xnp)_p(1 p)dN(0, 1)3.8 Variabili casuali in pi ` u dimensioniSi consideri il vettore (2 1) x :x =_x1x2_dove sia x1 che x2 sono due variabili casuali, per semplicit` a di esposizione conti-nue. Il vettore x pu` o essere quindi denito una variabile casuale bidimensionale.Con riferimento ad x ` e possibile denire:La distribuzione congiunta di x1 e x2:f(X) = f(x1, x2)Le distribuzioni marginali di x1 e x2:f(x1) =_+f(x1, x2)dx2f(x2) =_+f(x1, x2)dx1Le distribuzioni condizionali di x1 condizionata a x2 e di x2 condizionata adx1:f(x1[x2) =f(x1, x2)f(x2)f(x2[x1) =f(x1, x2)f(x1)Si ha indipendenza statistica tra x1e x2 quando la distribuzione condizionata dix1 dato x2 coincide con la distribuzione marginale di x1; oppure, in termini equiva-lenti quando la distribuzione di x2 condizionata su x1 coincide con la distribuzionemarginale di x2:f(x1[x2) = f(x1) f(x2[x1) = f(x2).54 CAPITOLO 3. RICHIAMI DI INFERENZA STATISTICASi noti che le due condizioni di cui sopra sono del tutto equivalenti, data la de-nizione di densit` a di probabilit` a condizionale, e da questo si evince la natura sim-metrica del concetto di indipendenza statistica: dire che x1` e indipendente da x2equivale ad affermare che x2 ` e indipendente da x1:f(x1[x2) = f(x1) f(x1, x2)f(x2)= f(x1) f(x1, x2) = f(x1)f(x2),f(x2[x1) = f(x2) f(x1, x2)f(x1)= f(x2) f(x1, x2) = f(x1)f(x2).Entrambe le condizioni possono essere riscritte come la condizione che la den-sit` a di probabilit` a congiunta sia pari al prodotto tra le densit` a marginali per ognicoppia di valori x1 e x2 appartenenti al dominio di X.3.8.1 La covarianzaLa covarianza misura quanto due variabili casuali tendano ad essere legate tra loroin modo lineare. La covarianza tra le variabili casuali x1, x2 ` e denita come:Cov(x1, x2) = E [x1E (x1)] [x2E (x2)]` e facile mostrare che:Cov(x1, x2) = E [x1E (x1)] [x2E (x2)] == E x1x2x1E (x2) x2E (x1) +E (x1) E (x2) =E(x1x2) E (x1) E (x2)La covarianza tra x1 e x2 assume valori che sono compresi tra _V (x1)V (x2)e +_V (x1)V (x2). Per questo ` e possibile costruire una misura relativa della di-pendenza lineare tra x1 e x2 opportunamente scalando la covarianza: si costruiscein questo modo lindice di correlazione lineare: =Cov(x1, x2)_V (x1)V (x2)In assenza di correlazione lindice sar` a pari a zero. Quando due variabilicasuali sono perfettamente correlate in senso positivo lindice di correlazione sar` apari a uno e in caso di perfetta correlazione negativa lindice sar` a pari a -1.La correlazione quindi deve essere intesa come misura della dipendenza linearetra due variabili casuali. Si noti che lindipendenza statistica implica assenza dicorrelazione. Infatti date x1 e x2 se x1 e x2 sono indipendenti si avr` a:Cov(x1, x2) = E(x1x2) E (x1) E (x2) =3.9. DISTRIBUZIONE NORMALE MULTIVARIATA 55=_+_+x1x2f(x1, x2)dx1dx2E (x1) E (x2) ==_+_+x1x2f(x1)f(x2)dx1dx2E (x1) E (x2) ==_+x1f(x1)dx1_+x2f(x2)dx2E (x1) E (x2) == E (x1) E (x2) E (x1) E (x2) = 0Lassenzadicorrelazionenonimplicaper` olindipendenzastatisticatraduevariabili casuali1: x1 e x2 possono essere non indipendenti in senso statistico macon correlazione nulla qualora il legame di dipendenza tra le due variabili sia ditipo non lineare.3.9 Distribuzione normale multivariataLa variabile casuale n-variata x, dove x ` e un vettore (n1) di variabili casuali,ha distribuzione Normale n-variata e si indica tale propriet` a come:x(n1)=__x1x2...xn__ N_(n1),(nn)_dove` e un vettore (n1) i cui singoli elementi sono i valori attesi dei corri-spondenti elementi di x e ` e una matrice (nn) simmetrica almeno semidenitapositiva: =__E(x1)E(x2)...E(xn)__=__12...n__, = E_(X) (X)

=1Nel casodi duevariabili casuali distribuitenormalmente, lassenzadi correlazioneimplicalindipendenza statistica. Vedi oltre.56 CAPITOLO 3. RICHIAMI DI INFERENZA STATISTICA=__E_(x11)2_... E [(x11) (xnn)]E [(x22) (x11)] ... E [(x22) (xnn)]... ... ...E [(xnn) (x11)] ... E_(xnn)2___==__v(x1) ... cov(x1, xn)cov(x2, x1) ... cov(x2, xn)... ... ...cov(xn, x1) ... v(xn)__=__1112... 1n2122... 2n... ... ... ...n1n2... nn__,ji= iji, j.La funzione di densit` a di x pu` o essere scritta come:f(x) =_12_n[[1/2exp_12 (x )

1(x )_,f(x) : RnR1+Dalla distribuzione congiunta ` e possibile ottenere le distribuzioni condizionalie marginali di sottoinsiemi di x. Ad esempio, partizionando il vettore x nel modo:x =__x1(n11)x2(n21)__, n1 +n2 = nPartizionando nello stesso modo il vettore e la matrice : =__1(n11)2(n21)__, =__11(n1n1)12(n1n2)21(n2n1)21(n2n2)__,21=

12riusciamo a denire le distribuzioni marginali di x1 e x2:x1 N(1, 11),x2 N(2, 22),e le distribuzioni condizionali di x1 dato x2 e di x2 dato x1:x1[x2 N(1, 11),1= 1 +12122(x22) , 11 = 1112122 21,x2[x1 N(2, 22),2= 2 +21111(x11) , 22 = 2221111 12,3.10. ALCUNE DISTRIBUZIONI NOTEVOLI 57Si noti chenel casodi assenzadi correlazionetrax1ex2,quandocio` elamatrice delle covarianze tra gli elementi di x1 e gli elementi di x2 ` e nulla:12 = E_(x11) (x22)

= [0](n1n2),la distribuzione di x1 condizionata a x2 coincide con la distribuzione marginale dix1 e la distribuzioni di x2 condizionata a x1 coincide con la distribuzione marginaledi x2:2 = 2, 22 = 22, 1 = 1, 11 = 11,in altri termini si ha indipendenza statistica tra x1 e x2. Nel caso in cui trattiamouna VC n-dimensionale gaussiana, lassenza di correlazione lineare ` e sinonimo diindipendenza statistici tra i blocchi di x che hanno covarianze nulle.3.10 Alcune distribuzioni notevoli3.10.1 La distribuzione 2Datenvariabilicasualiindipendentiedidenticamentedistribuitecomenormalistandardizzate:x1, x2, ...xn, f(x1, x2, ..., xn) =n

i=1f(xi),xi N(0, 1), i = 1, 2, ..., n,la VC ottenuta come somma di queste variabili al quadrato ha distribuzione2n(chi-quadro con n gradi di libert` a):z =n

i=1x2i n, z R1+.Si noti che dal modo in cui ricaviamo la distribuzione 2` e possibile dedurre chea partire da due VC z1 e z2 indipendenti aventi entrambe distribuzione 2rispet-tivamente con n1 en2 gradi di libert` a, la VC risultante dalla somma ` e anchessadistribuita come una 2con n = n1 +n2 gradi di libert` a:z1 2n1, z2 2n2 z = z1 +z2 2n1+n2.Una distribuzione 2k con k gradi di libert` a assume valori solamente positivi ed hauna funzione di densit` a con le propriet` a descritte dalla Figura (3.4).3.10.2 La distribuzione t di StudentData una VC x, distribuita come una normale standardizzata:x N(0, 1)58 CAPITOLO 3. RICHIAMI DI INFERENZA STATISTICAFigura 3.4: Funzione di densit` a di VC 200.020.040.060.080.10.120.140.160.180.20 2 4 6 8 10 12 14 16 18 204 gdl8 gdle data una seconda VC y indipendente da x e distribuita come una 2n:f(x, y) = f(x)f(y), y 2nsi denisca la VC:z =x_y/nLa VC Z` e distribuita come una t di Student con n gradi di libert` a:Z tn.La distribuzionet di Student, la cui funzione di densit` a ` e rappresentata nellaFigura (3.5) per diversi valori di n, ` e chiaramente molto simile ad una distribuzionegaussiana standardizzata, vale a dire ` e simmetrica intorno a zero e assegna densit` adi probabilit` a molto bassi a valori distanti da zero. Confrontandola con la distribu-zione Gaussiana standardizzata, ` e possibile concludere che la densit` a t di Studenttende ad assegnare densit` a di probabilit` a pi ` u alte ai valori sulle code rispetto alladistribuzione normale standardizzata. Per questo motivo si dice che la distribuzio-net di Student ha le code spesse (fat tails nella dizione inglese). Le propriet` a3.10. ALCUNE DISTRIBUZIONI NOTEVOLI 59Figura 3.5: Funzione di densit` a di VC t di Student00.050.10.150.20.250.30.350.4-3 -2 -1 0 1 2 32 gdl80 gdlessenziali della distribuzione t di Student sono le seguenti:E(Z) = 0,v(Z) = E(Z2) =nn 2,se n > 2, altrimenti la varianza non esiste,limnf(Z) = (Z).Quindi al cresceredel numerodei gradi di libert` aladistribuzioneconvergeindistribuzione a quella di una VC normale standardizzata.3.10.3 La distribuzione F di FisherDate due variabili casuali X1 e X2 statisticamente indipendenti tra loro ed entram-be distribuite come 2rispettivamente con n1 en2 gradi di libert` a:X1 2n1, X2 2n2, f(x1, x2) = f(x1)f(x2),la VC Z:Z =X1/n1X2/n2 Fn1,n2si distribuisce come una F di Fisher conn1gradi di libert` a al numeratore en2gradi libert` a al denominatore. Ovviamente il supporto di z` e limitato a R1+, datoche si tratta del rapporto tra grandezze necessariamente positive. Le propriet` a dellafunzione di densit` a della distribuzione F sono rappresentate nella gura (3.6).60 CAPITOLO 3. RICHIAMI DI INFERENZA STATISTICAFigura 3.6: Funzione di densit` a di VC Fdi Fischer00.10.20.30.40.50.60.70.80.90 0.5 1 1.5 2 2.5 3 3.5 4 4.5 53-50 gdl8-50 gdl3.11 La funzione di verosimiglianzaSia x1, x2, ..., xn un campione di n elementi estratti in modo indipendente ed iden-ticamente dalla stessa popolazione (indicati comeIID, cio` e distribuiti identica-mente e indipendentemente) la cui densit` a indichiamo con f(x, ) ad indicare chetale densit` a ` e descritta dal vettore (k 1) di parametri incogniti :x1, x2, ...xn IID, f(xi, ),i = 1, 2, ..., n.Data lipotesi di indipendenza tra i diversi elementi del campione possiamo scriverela funzione di densit` a del campione come:f(x1, x2, ...xn, ) =n

i=1f(xi, )Ad esempio, se la popolazione fosse distribuita normalmente con valore atteso e varianza 2, potremmo scrivere:f(x1, x2, ...xn, ) = (2)n/2nexp_122n

i=1(xi)2_, =__Questa ` e la funzione di densit` a delln pla campionaria sulla base dei parametridella popolazione e . Questa funzione pu` o essere vista sotto un diverso punto3.11. LA FUNZIONE DI VEROSIMIGLIANZA 61Figura 3.7: Funzione di verosimiglianza di 00.0020.0040.0060.0080.010.012-3 -2 -1 0 1 2 3Si assume che 2sia noto e pari a 1.divista, cio` ecomeunafunzionedelvaloredeiparametristessiequindicomefunzione di verosimiglianza:L(x1, x2, ...xn, ) = (2)n/2nexp_122n

i=1(xi)2_. (3.1)Questa funzione esprime la verosimiglianza che ln-pla campionaria osservata siastata estratta in modo IID da una distribuzione normale con parametri e 2. Adesempio, dato il campione di ampiezza n = 5:x1 = 1.2, x2 = 1.4, x3 = 1.6, x4 = 0.8, x5 = 0.4,assumendo per semplicit` a che sia noto e pari a 1, possiamo calcolare in relazionea diversi valori di il valore di (3.1) (si veda la gura 3.7) ed effettivamente siha che la verosimiglianza calcolata in corrispondenza di = 0.5 ` e pari a 0.0027,ecalcolataincorrispondenzadi =3` eparia(6.318)107, indicandoinquesto modo che il valore=0.5 ` e molto pi ` u verosimile del valore=3. Inaltri termini, sulla base del campione analizzato, ` e molto pi` u verosimile che i datiosservati siano stati generati da una distribuzione normale con valore atteso pari a0.5, che da una distribuzione normale con valore atteso pari a 3.62 CAPITOLO 3. RICHIAMI DI INFERENZA STATISTICA3.12 Stima di massima verosimiglianzaDato un certo campione x1, x2, ...xn estratti a una determinata popolazione di cuisi conosce la forma funzionale della funzione di densit` a f(x, ), che dipende da unvettore di parametri incogniti , la stima di massima verosimiglianza consiste nelcercare quei valori dei parametri del modello che rendono lestrazione de campioneosservato il pi` u possibile verosimile. In altri termini, si massimizza la funzione diverosiglianza rispetto ai parametri da stimare:MaxL(x1, x2, ...xn, ).La soluzione viene indicata come stimatore di massima verosimiglianza di .Spesso si ricorre allespediente di massimizzare il logaritmo della funzione diverosimiglianza, la cosiddetta funzione di log-verosimiglianza, al ne di ottenerecondizioni del primo ordine pi` u semplici. Si ricordi infatti che se una funzioneviene sottoposta ad una trasformazione monotonica conserva i punti di massimo edi minimo della funzione di partenza. Ad esempi per il caso di un campione di nelementi estratti in modo IID da una popolazione normale N(, 2), la funzionedi log-verosimglianza ` e:log L(x1, x2, ...xn, , 2) = n2 log (2) nlog() 122n

i=1(xi)2.Le condizioni del primo ordine sono quindi: log L(x1, x2, ...xn, , 2)= 0 222n

i=1(xi) = 0 = xn, xn =1nn

i=1xi log L(x1, x2, ...xn, , 2)= 0 n +13n

i=1(xi)2= 0 2=1nn

i=1(xi )2Si noti che lo stimatore del valore atteso ` e non distorto e consistente:E(xn) = , v(xn) =2n3.13 Metodo dei momentiIl medodo dei momenti ` e una modalit` a di stima che ` e utilizzata quando linteres-se del ricercatore` e concentrato sullottenimento di stime consistenti. Il metodo3.14. PROPRIET `ADEGLI STIMATORI OTTENUTI PERCAMPIONAMENTODAUNADISTRIBUZIONE GAUSSIANA63dei momenti consiste nelluguagliare i momenti teorici della distribuzione da cuiproviene i campione ai momenti campionari. Dato che i momenti teorici della po-polazione dipendono dai parametri incogniti della popolazione, si risolve rispettoai parametri incogniti e si ottiene una stima dei parametri della popolazione. Adesempio, supponiamo di avere:x1, x2, ...xn I.I.D., f(xi, )i = 1, 2, ..., n.e la popolazione si distribuisce come una t- di Student con gradi di libert` a e ` eincognito. Sapendo che per una variabile casuale z distribuita come una t di Studentcon gradi di libert` a vale:E(z) = 0, V (z) = 2, > 2,` e possibile per stimarericavare la varianza campionaria e uguagliarla alla va-rianza della popolazione, ed ottenere una stima di esplicitando rispetto a taleparametro:S2= 2 = 2S2S213.14 Propriet` a degli stimatori ottenuti per campionamen-to da una distribuzione gaussianaSupponiamodiavereuncampionedi nelementi x1, x2, ..., xnestrattiinmodoIID da una popolazione avente distribuzione normaleN(, 2). Si ricordino ledenizioni di media e di varianza campionaria:xn=1nn

i=1xi,S2=1n 1n

i=1(xi )2Abbiamo visto che ` e facile denire le propriet` a della media campionaria e stabilireche:xn N_, 2n_e quindi ` e possibile standardizzare xn ottenendo:n(xn) N (0, 1) .Daltro canto ` e possibile mostrare che S2si distribuisce indipendentemente daxne che:(n 1)S22 2n164 CAPITOLO 3. RICHIAMI DI INFERENZA STATISTICAQuindi ` e possibile ricavare che vale:n(xn)_(n 1)S22/(n 1)=nS(xn) tn1Quindi si pu` o standardizzare anche quando non si conosce utilizzandone unasua stima corretta ed in questo modo si ottiene una VC la cui distribuzione ` e notae tabulata.Nel caso in cui il campione fosse estratto in modoIID da una distribuzionenon normale, abbiamo visto che al crescere di n possiamo contare sul risultatofornito dal teorema centrale del limite:limnf (zn) = (zn), zn =n(xn)e quindi possiamo ritenere che per n sufcientemente grande (per molti problemicomuni n > 100 osservazioni), si abbia:nS(xn) N (0, 1)dove con il simbolo si indica si distribuisce approssimativamente come. quin-di per n sufcientemente grande possiamo ritenenre valida il risultato di normalit` adella media campionaria asintoticamente alla grandezzanS(xn) verr` a consi-derata come distribuita normalmente dato che la distribuzione t di Student convergein distribuzione alla Normale standardizzata al crescere di n.3.15 Stima per intervalloVolendo stimare un parametro incognito sulla base di un campione di ampiezzan, x1, x2, ..., xn, si immagini di costruire due funzioni delln-pla campionaria:g1(x1, x2, ..., xn), g1() : RnR1,g2(x1, x2, ..., xn), g2() : RnR1con la propriet` a:pr [g1(x1, x2, ..., xn) g2(x1, x2, ..., xn)] = ,dove il valore di ` e dato ed ` e denominato livello di condenza o duciario. Lin-tervallo denito dalle funzionig1() eg2() viene detto intervallo duciario o dicondenza.Ad esempio ,dato il campione:x1, x2, ..., xn IIDN(, 2)3.15. STIMA PER INTERVALLO 65Figura 3.8: Quantili corrispondenti al 5% e al 95% per una VC 21900.010.020.030.040.050.060.070 5 10 15 20 25 30 35 40 45 50se abbiamo:n = 20, xn = 5, S2= 9ricordando che:(n 1)S22 2n1e scegliendo ad esempio =0.90 (90% ), si ha che:Pr_zn1(0.05) (n 1)S22 zn1(0.95)_= 0.90 Pr_(n 1)S2zn1(0.95) 2 (n 1)S2zn1(0.95)_= 0.90 Pr_(19)930.144 2 (19)910.117_= 0.90 Pr_5.67 2 16.90= 0.90dove zn1(0.05) = 10.117 e zn1(0.95) = 30.144 sono i quantili corrispondentirispettivamente a 0.05 e 0.95 di una variabile casuale 219 che sono ricavabili dallaconsultazione delle tavole statistica della distribuzione 2. (si veda la Figura 3.8).Dalla considerazione precedente si ricava che:Pr_(n 1)S2zn1_12_ 2 (n 1)S2zn1_1 12__= In questo modo si ottiene lintervallo di condenza al livello di condenza per lavarianza nel caso in cui il campione sia di elementi IID estratti da una popolazione66 CAPITOLO 3. RICHIAMI DI INFERENZA STATISTICAnormale. Per dimostrare di aver capito il concetto di intervallo duciario il lettoredovrebbe provare a costruire un intervallo di condenza al livello 95% per il valoreatteso incognito della popolazione .3.16 Prova delle ipotesiSupponiamo di avere un campione x1, x2, ..., xn di elementi tratti da una popola-zione distribuita normalmente con valore atteso e varianza 2, dal quale si sianoricavati i seguenti indicatori sintetici:xn = 0.52, S2n = 0.09, n = 20.Si immagini che il ricercatore formuli unipotesi relativa al parametro incognito formalizzata come la congettura che sia pari ad un determinato valore 0 (adesempio 0= 3). Per ipotesi statistica parametrica (nellaccezione di Neyman ePearson, gli statistici che hanno formulato lo schema concettuale della prova delleipotesi) si intende quindi unaffermazione relativa ad un certo parametro incognitodella popolazione. Si possono avere ipotesi puntuali (come ad esempio = 0.6),oppure ipotesi che riguardino un intervallo di valori per un parametro incognito,come ad esempio:0.55 0.60.Si possono avere ipotesi semplici che riguardano un singolo parametro della popo-lazione e ipotesi composte che riguardano pi ` u parametri congiuntamente.Per prova delle ipotesi si intende una procedura statistica per vericare se unadeterminata ipotesi possa essere accettata o meno. La procedura di prova delle ipo-tesi si basa sulla formulazione di unipotesi di interesse, chiamata ipotesi nulla (in-dicata comeH0) e di unipotesi alternativa (indicata comeH1) che viene specicataappunto come alternativa a H0. Ad esempio lipotesi:H0 : = 0.6pu` o essere provata avendo come riferimento lipotesi alternativa:H1 : = 0.7.La prova statistica di ipotesi ` e quindi un criterio decisionale per scegliere tra H0eH1. In connessione ad entrambe scelte ` e possibile commettere due tipi distintidierrore. IlprimotipodierroreconsistenelriutareH0quandolipotesi H0` e vera. Il secondo tipo di errore consiste nel riutareH1quando lipotesiH1` evera. Immaginiamo di utilizzare un determinato criterio per scegliere tra accettareo meno H0 e si deniscano come probabilit` a dellerrore di prima specie e laprobabilit` a dellerrore di seconda specie. Il complemento a uno della probabilit` adellerrore di seconda specie viene chiamato potenza del test (1 ) e misura laprobabilit` a di correttamente riutare unipotesi nulla H0 non vera.3.16. PROVA DELLE IPOTESI 67Figura 3.9: Distribuzioni sottoH0eH1di una statistica utilizzata per condurreprova di ipotesi00.050.10.150.20.250.30.350.42 0 2 4 6La gura sulla destra rappresenta la distribuzione sotto H0 mentre la gura sulla sinistra rappresen-ta la distribuzione sotto H1. La semiretta verticale corrisponde al valore critico utilizzato. Quindilarea alla destra di tale valore, sottesa alla distribuzione sotto H0 ` e pari ad (errore di prima spe-cie), mentre larea alla sinistra di tale valore, sottesa alla distribuzione sotto H1 ` e pari ad (erroredi seconda specie)68 CAPITOLO 3. RICHIAMI DI INFERENZA STATISTICAFigura 3.10: Esempio sulla prova di ipotesi sul valore atteso: test a una coda00.050.10.150.20.250.30.350.44 3 2 1 0 1 2 3 4NeymanePearsonpropongonouncriterioperdeciderequandoaccettareoriutare H0 in modo tale che scelto , la probabilit` a dellerrore di prima specie siminimizza , la probabilit` a dellerrore di seconda specie. Ad esempio, nella Figura(3.9) notiamo le distribuzioni sotto H0 e H1 di una statistica utilizzata per condurreprova delle ipotesi.A proposito dellesempio riportato allinizio di questa sezione, ipotizzando chesia soggetta a prova lipotesi H0 : = 0 contro H1 : > 0, sappiamo che:nxn N(0, 1),(n 1)S22 2n1 =nxnS tn1Quindi possiamo ricavare:pr ( a) = 0.95 pr_nxnS tn10.05H0_= 0.95 pr_nxn0S tn10.05_= 0.95.3.16. PROVA DELLE IPOTESI 69Figura 3.11: Esempio sulla prova di ipotesi sul valore atteso: test a due code00.050.10.150.20.250.30.350.44 3 2 1 0 1 2 3 4In questo contesto` e quindi possibile utilizzare criterio per condurre la provadelle ipotesi la seguente regola: se la VC:nxn0Srisulta minore di tn10.05 si accetta H0; viceversa si riuta H0. Si noti che tale criterio` e connesso naturalmente ad una probabilit` a dellerrore di prima specie pari a =0.05.Nel nostro caso abbiamo:nxn0S=200.52 0.60.3= 1.1926,tn10.05= 1.729,ed quindi ` e possibile accettare H0 (si veda Figura 3.10).Nel caso lipotesi alternativa fosse stata specicata come: H1: ,= 0, avrem-mo ricavato:pr_tn10.025 nxnS tn10.025H0_= 0.95 pr_tn10.025 nxn0S +tn10.025_= 0.95.In questo modo si costruisce una criterio decisionale in base al quale i punti:tn10.025, tn10.025 2.093, +2.09370 CAPITOLO 3. RICHIAMI DI INFERENZA STATISTICAcostituiscono gli estremi di un intervallo allinterno del quale se cade la VC:nxn0Ssi perviene allaccettazione di H0, avendo probabilit` a di errore di prima specie paria = 0.05 (si veda la gura 3.11). Nel nostro esempio abbiamo:nxn0S= 1.1926,e quindi si accetta H0.In questo caso si parla di test a due code mentre per il testutilizzato per vericare H0 contro H1: > 0 si parla di test ad una coda.3.17 Esercizi1. Data la seguente distribuzione normale bivariata:x =_x1x2_ N [, ] , =_12_, =_11121222_Dimostrare che la distribuzione marginale di x1 e la distribuzione condizio-nale di x2 dato x1 sono normali. (esercizio difcile ma istruttivo).2. Dato il seguente campione di elementi estratti in modo IID da una distribu-zione normale con momenti e 2:x1= 1.3, x2 = 2.1, x3 = 0.4, x4 = 1.3, x5 = 0.5,x6= 0.2, x7 = 1.8, x8 = 2.5, x9 = 1.9, x10 = 3.2.(a) si calcolino media, mediana e varianza campionaria.(b) Si verichino le seguenti ipotesi:H0 : = 2,H0 : = 0.7,H0 : 2= 0.5,(per le ipotesi sul valore atteso si calcolino i test a una coda e quelli adue code).(c) Si trovino gli intervalli di condenza al 95% per e 2.3. Dato un campione di ampiezza n estratto da una popolazione avente la se-guente distribuzione:f(x) = exp(x), x R1+, > 0.3.17. ESERCIZI 71(a) Si scriva la funzione di verosimiglianza del campione e si ricavi lo sti-matore di massima verosimiglianza di . Quale stimatore si otterrebbeutilizzando il metodo dei momenti?4. Dato il vettore (p 1) x:x N(, )(a) ottenere una trasformazione lineare di x che sia distribuita nel seguentemodo:y N(0, Ip).5. Immaginamo di avere a disposizione un programma che genera estrazionida una distribuzione che pu` o assumere solo valori pari a uno o a zero conprobabilit` a rispettivamente pari a p e 1 p (distribuzione bernoulliana:x = 1 con probabilit` a pari a p, 0 p 1x = 0 con probabilit` a pari a 1-p.Descriverecomesarebbepossibileottenereestrazioni casuali daunadi-stribuzionenormalestandardizzata, sfruttandolenotepropriet` adi grandicampioni.6.`E estratto un campione di 30 elementi IID da una distribuzione incognita.Si ipotizzi che in relazione al campione osservato si abbia:x30=13030

i=1xi = 0.07,S2=12930

i=1(xix30)2= 0.112.Calcolare un intervallo di condenza approssimativo al 95% per il valoreatteso incognito della popolazione facendo riferimento al teorema centraledel limite.7. Il vettore di variabili casuali x, di dimensione (31), si distribuisce nelmodo seguente:x =__x1x2x3__ N (, )Si descriva la distribuzione delle seguenti variabili casuali:z1= x1 +x2 +x3,z2= x1x2x3,y = P1(x ) ,P = fattore di Choleski di .72 CAPITOLO 3. RICHIAMI DI INFERENZA STATISTICA8. Dato il vettore di variabili casuali:x =_x1x2_ N [, ] , =_12_, =_11121222_Ricavare la fattorizzazione di Choleski di e darne uninterpretazione intermini di regressione. (esercizio difcile ma istruttivo).3.18 Soluzioni agli esercizi1. Si consideri:f(x1, x2) =_12_2[[1/2exp_12 (x )

1(x )_,f(x1) =_+f(x1, x2)dx2, 1=1_22121211_, = [[ = 1122212La parte esponenziale della funzione di densit` a pu` o essere scritta come:exp_12_y2122212y1y2 +y2211_,y1= x11, y2 = x22` e possibile trasformare i termini dove appare y2 nello sviluppo di un quadra-to, aggiungendo e togliendo la quantit` a_1212y1_2:exp_12_y2122_1212y1_2+_1212y1_2212y1y2 +y2211__=exp_12_y2122_1211y1_2+11_y21211_2__.Si noti che la quantit` a:exp_112_y21211_2_descrive la parte esponenziale di una variabile casuale normale con valoreatteso pari a1211e varianza pari a11e quindi:_+exp_112_y21211_2_dx2 =_2113.18. SOLUZIONI AGLI ESERCIZI 73Dato che:f(x1) =_+f(x1, x2)dx2 ==_12_2[[1/2_211 exp_1211_1122212_y21_=_1211_exp_1211(x11)2_,si pu` o concludere che x1 N(1, 11).Ora veniamo alla distribuzione di x2 condizionata su x1:f(x1[x2) =f(x1, x2)f(x2)=_12_2[[1/2_12_1/211

exp_1211_y2122212y1y2 +y2211_+y21211_=_12__1122212_1/2

exp_1211_y21112221112y1y2 +y22211y21(1122212)_==_12__1122212_1/2exp_[y2(12/11)y1]22(22212/11)_Quindi, ricordando le denizioni di y1 e y2 possiamo concludere che:x1[x2 N_2 +1211(x11) , 22212/11_.2. (a) In relazione ai dati, si ha:x10=11010

i=1xi = 1.52,S2=1910

i=1(xix10)2= 0.9418,S =S2= 0.97.La stima della mediana ` e tra i valori 1.3 e 1.8.74 CAPITOLO 3. RICHIAMI DI INFERENZA STATISTICA(b) Per la verica dellipotesi = 2 si ottiene:x102_S2/10=1.52 2_0.9418/10== 1.5641Il valore critico al 5% del test a due code ` e t90.025 = 2.262 .Quindi il test conduce allaccettazione di H0. Se si considera il test aduna coda:H0 : = 2, contro H1 : < 2,il valore critico ` e -t90.05= 1.833 ed anche in questo caso si accettaH0.Considerando la prova dellipotesi:H0 : = 0.7controH1 : ,= 0.7,si ottiene:x100.7_S2/9=1.52 0.7_0.9418/10= 2.672.Dato che il valore critico per il test ` e ancora t90.025 = 2.262,si riutaH0. A maggior ragione, se si considera lipotesi alternativa:H1 : > 0.7,dato che il valore critico ` e t90.05 = 1.833, si arriva al riuto di H0.Passando alla prova delle ipotesi sulla varianza:H0 : 2= 0.5, contro H1 : 2,= 0.5,si ricordi che :(n 1)S22 2n1Quindi se vale H0 si ha:z = (n 1)S20.5 2n1.Possiamo denire, sulla base della distribuzione 29 di riferimento:pr(b < z< a[H0) = = 0.05In questo modo si deniscono a e b (si veda la gura 3.12). Dalla tavoladella distribuzione 29 si ricava:a = 2.70, b = 19.0.3.18. SOLUZIONI AGLI ESERCIZI 75Figura 3.12: Test a due code per la varianza; distribuzione di riferimento 29, =0.0500.020.040.060.080.10.120 5 10 15 20 25 30Figura 3.13: Test a una coda per la varianza; distribuzione di riferimento 29, =0.0500.020.040.060.080.10.120 5 10 15 20 25 3076 CAPITOLO 3. RICHIAMI DI INFERENZA STATISTICAIn questo contesto abbiamo:z = 90.94180.5= 16.952,e quindi si accetta H0. Se invece si considera come ipotesi alternativa:H1 : 2> 0.5,dalla tavola della distribuzione 29 di riferimento si determina il valorec = 16.9 che soddisfa (gura 3.13):pr(z> c[H0) = = 0.05Quindi in questo esercizio il test ad una coda comporta il riuto di H0.(c) Per costruire lintervallo di condenza per , si ricordi che:=xn_S2/n tn1quindi ` e possibile determinare il valore t90.025 = 2.262 (si veda la gura3.13) tale per cui: pr(t90.025 0,PP

= _p211p11p21p21p11p222 +p211_=_11121222_.Quindi, risolvendo luguaglianza appena scritta ` e facile trovare i valori deglielementi di P corrispondenti:p11 =11, p21 =1211, p22 =_221211Si denisca ora la variabile casuale bidimensionale:z = P1(x ) N(0, I2)80 CAPITOLO 3. RICHIAMI DI INFERENZA STATISTICADato che si ha:P1= [P[1P+=_p1110p21p11p22p122_la variabile casuale z ` e:z =_z1z2_=_p111 (x11)p21p11p22(x11) +p122 (x22)_Notate che:z1 N(0, 1) x1111 N(0, 1),z2 N(0, 1) 1p22_(x22) 1211(x11)_ N(0, 1).Quindi11z1 d` a i termini di disturbo di una regressione di x1 su una co-stante (con coefciente pari a 1) e tali termini