Appendice A.978-88-470-0348...Appendice A. Tabella dei simboli Simbolo Significato numeri reali...

41
Appendice A. Tabella dei simboli Simbolo Significato numeri reali n-ple reali varipbili aleatorie prima di una prova valore assunto dalle variabili dopo una prova campione casuale di dimensione n di X: X = (X1,X2, ... Xn) - vettore di m variabili aleatorie: X = (XI, Xz , . . . X,) campione casuale di dimensione n di X: X = (X1,X2, ... Xn) - osservazione di un campione casuale operatore media o valore atteso di X valore dell'operatore (X) operatore varianza di X valore dell'operatore Var[X] deviazione standard di X: 1/Var[X] r o[X] valore dell'operatore a[X] operatore covarianza di X e Y valore dell'operatore Cov[X, Y] media campionaria valore di M dopo una prova varianza campionaria valore di S2 dopo una prova deviazione standard c&npionaria valore della deviazione standard stimata dopo una prova o errore statistic0 (a volte detto scarto quadratic0 medio) valore di Cov[X, Y] dopo una prova valore vero del coefficiente di correlazione valore campionario del coefficiente di correlazione approssimativamente uguale distribuito come implica

Transcript of Appendice A.978-88-470-0348...Appendice A. Tabella dei simboli Simbolo Significato numeri reali...

  • Appendice A. Tabella dei simboli

    Simbolo Significato numeri reali n-ple reali varipbili aleatorie prima di una prova valore assunto dalle variabili dopo una prova campione casuale di dimensione n di X: X = (X1,X2, ... Xn) - vettore di m variabili aleatorie: X = (XI, Xz , . . . X,) campione casuale di dimensione n di X: X = (X1 ,X2, ... Xn) - osservazione di un campione casuale operatore media o valore atteso di X valore dell'operatore (X) operatore varianza di X valore dell'operatore Var[X] deviazione standard di X: 1/Var[X] r o[X] valore dell'operatore a[X] operatore covarianza di X e Y valore dell'operatore Cov[X, Y] media campionaria valore di M dopo una prova varianza campionaria valore di S2 dopo una prova deviazione standard c&npionaria valore della deviazione standard stimata dopo una prova o errore statistic0 (a volte detto scarto quadratic0 medio) valore di Cov[X, Y] dopo una prova valore vero del coefficiente di correlazione valore campionario del coefficiente di correlazione approssimativamente uguale distribuito come implica

  • 460 Appendice A. Tabella dei simboli

    Simbolo Significato

    p x ( x ) funzione di densit2 di probabilith di X Fx (2) f (x) f (-) N(P, a2) d x ; P, a ) @(x) t o, U ( a , b) x2 (v) Q (v) x2

    2 Xo, x; (v) QR(v) x;

    2 X R ~ L(@; :) e

    funzione cumulativa o h i ripartizione di X espressione matematica contenente x forma funzionale di una variabile distribuzione normale di parametri ,u e (T funzione densith di X - N ( p , a2) funzione cumulativa di X - N(p, a2) quantile della densit& di Gauss o di Student distribuzione uniforme in [a, b] distribuzione chi-quadrat0 (o chi-quadro) con v gradi di liberta variabile distribuita come X2 (v) valori assunti da Q(v) dopo una prova quantile della densith di x2 distribuzione chi-quadrat0 ridotto con v gradi di libertb variabile distribuita come x;(v); QR(v) = Q(u) /u valori assunti da QE1(v) dopo una prova quantile della densith di X; funzione di verosimiglianza stima puntuale di massima verosimiglianza (ML) o dei minimi quadrati (LS) del parametro 0.

  • Appendice B. Funzioni generatrici

    In questa appendice accenniamo brevemente ad uno dei metodi di analisi piu importanti del calcolo delle probabilith, il metodo delle funzioni generatrici, che consente di risolvere in mod0 sintetico ed elegante molti problemi, senza ricorrere a complicate somme od integrazioni.

    I1 metodo associa alla variabile aleatoria X una nuova variabile, definita dalla funzione etx, dove t it una variabile reale che non ha un particolare significato statistico. I1 valor medio ( e t x ) it una funzione Gx(t ) che pren- de il nome di funzione generatrice dei momenti o Mgf (Moment generating function):

    xi pietxi variabili discrete Gx(t ) = ( e t x ) = P.1)

    J etxp(x) d z variabili continue

    Per t = 0 la somma e l'integrale sono ovviamente sempre convergenti. Per t # 0 le (B.l) possono non risultare convergenti. Qui tratteremo alcuni casi, relativi alle distribuzioni piil importanti, in cui si ha la convergenza per valori (tl < M, dove M it un numero positivo arbitrario. Per variabili continue la funzione generatrice, a meno di un segno nell'esponente che compare nella seconda delle (B.l), it la trasformata di Laplace della densit2 di X.

    Sviluppando in serie Gx e sfruttando le proprieth di linearit2 della media

    e quindi l'importante relazione:

    che lega la derivata n-esima di G calcolata nell'origine al momento di ordine n di X.

    Risolvendo gli integrali o le somme della (B.1)' si possono ottenere abba- stanza facilmente le funzioni generatrici delle distribuzioni di probabilith pih importanti. Alcune di queste sono riportate in Tab. B.1.

    L'importanza della funzione generatrice sta nella proprieta seguente: se Y = XI + Xz e le variabili aleatorie XI e Xz sono indipendenti, dalla (4.9) di pagina 113 segue che la Mgf di Y

  • 462 Appendice B. Funzioni generatrici

    W t ) = ( et(X1+X2)) = (etxl) (etX2) = GXl (t)GX2 (t) , (B-4) i! il prodotto delle Mgf di X1 e X2.

    Tabella B.1. Funzioni generatrici (Mgf) di alcune distribuzioni di probabilita

    densit funzione aeneratrice G a (t'l c 2 - - \ ,

    binomiale b(x; n, p) [pet + (1 - p)ln poissoniana p(x; p) expb(et - I)] esponenziale e(z; A) X / ( X - t ) , t < X gaussiana g(x; p, a) exp (pt + v2t2/2) chi-quadrat0 X2(v) (1 - 2t ) - ' j 2

    Utilizzando la Mgf, si pub dimostrare facilmente il teorema Limite Cen- trale (3.1) di pagina 82 per una somma di n variabili Xi indipendenti aventi tutte la stessa densith di parametri ,u e a. Infatti, se

    dalla (B.4) si ottiene:

    Dato che (2) = 0 e (z2) = 1, passando a1 limite si trova il risultato t2/2 l i m G y ( t ) = lim

    n-00 12-00

    che mostra come, per n grande, la Mgf di Y tenda a quella di una densit& gaussiana standard (si veda la Tab. B.l).

    Dimostriamo anche, facendo uso della Mgf, il teorema di additivith (3.4) delle variabili X2 di pagina 94. Se

    Y = Q(v1) + Q(v2) (B-8) e Q(vl) - X2 (vl), Q(u2) N X2 (v2) sono indipendenti, allora G,, (t)G, ( t ) = G y ( t ) e quindi

    Gy (t) = (1 - 2t)-("1+U2)/2 =+ Y ~ ~ ~ ( u 3 ) U ~ = U I + V ~ 03-91 dalla Tab. B.1. Se invece Q ( q ) - x2(v1) e Q(v2) - x2 (VZ), i3 facile mostrare, invertendo la (B.4), che se Y e Q(v2) sono indipendenti, vale la proprietk

    Q(v1) = Y + Q ( m ) =+ Y-x2(v l - ~ 2 ) - (B.10)

  • Appendice C. Soluzioni dei problemi

    Capitolo 1.

    1.1. Se C 5 il carnbio di porta, A l'auto dietro la prima porta scelta e C e A gli eventi complementarj, dalla partizione dell'evento certo si ha: P(C) = P(CIA)P(A) + P(c~)P(A) = 0.113 + 1 .2/3 = 213, P ( c ) = P(CJA)P(A) + P(CIA)P(A) = 1 . 113 + 0.213 = 113. Conviene cambiare porta. 1.2. Dalla (1.30) si ricava che il numero di possibili partite i: (4!-53!)/(13!)~ 2.

    1.287-lo3'. Poichd il numero di partite giocate 5 --- 5.475.1014, P -- 4 . 2 5 . 1 0 ~ ~ ~ .

    1.4. a) Gli elementi 1 e 2 sono in parallelo, in serie col parallelo degli elementi 3 e 4. b) P = [l - (1 - p ) 2 ] 2 = 0.922.

    1.7. Delineiamo la non semplice soluzione: si pub immaginare l'arrivo di uno dei due amici come un punto x o y localizzato a caso entro un intervallo lungo 60 minuti. X e Y non si incontrano se accade l'evento {X @ [y, y + 121, Y @ [x, x + 101). Quindi P = 1 - (48/60)(50/60) = 1 - 213 = 113. 1.8. Dalla formula delle probabilith totali: P(T) = 0.14. Dal teorema di

    Bayes: P (BJT) = 0.678. Si pub usare anche il metodo g r a f ~ o di Fig. 1.6.

    1.9. P{X 5 Y } = 1 /2 . Infatti, B ragionevole assumere la probabilith come il rapport0 tra l'area sopra la diagonale e l'area totale di un quadrat0 di lato unitario.

    1.10. Con ovvia notazione:

    1.12. Si ottiene P(H1) -- P(H2) -- 0, P(H3) = 0.03, P(H4) = 0.22, P(H5) = 0.47, P(&) = 0.28. Confrontate i risultati con quelli della tab 1.2.

    1.13. Dalla (1.38), se Vn 5 l'evento in cui l'amico vince n volte conse- cutive (VI f V), definendo le ipotesi B =bar0 e 0 =onesto, assumendo P(B) = P ( 0 ) = 0.5, e P ( V ( 0 ) = 0.5, P(V1B) = 1, si ottiene la formula ricorsiva: P(BIK) = P(BIV,-l)/[P(BIVn-1) + 0.5(1 - P(BIVn-I))]. Si ottie- ne P(BIV6) = 0.97, P(BIVlo) = 0.999, P(Blv15) = 0.99997. Verificate come cambiano i risultati cambiando P(B) e P (0 ) .

  • 464 Appendice C. Soluzioni dei problemi

    Capitolo 2.

    2.2. I1 numero di casi favorevoli B 10!/(3!7!) = 120, quello dei casi possibili 2'' = 1024. La probabilitk vale 72011024 = 0.117, in accord0 con la densitk binomiale.

    2.3. Dalla densitii binomiale: 1 - b(0; 10,O.l) - b(1; 10,O.l) - b(2; 10,O.l) = 0.0702, pari a circa il 7%.

    2.4. ( X + Y) = (X) + (Y)= 100 000.18/37 + 0.19137 + 360 000.1/37 t 0 . 36/37 = 58 378. Se si immagina un insieme molto grande (al limite infinito) di N giocatori, ognuno con un capitale iniziale di 60 000 lire, dopo una puntata il capitale medio di questo insieme sar& sceso a 58 378 lire, con un guadagno medio per giocatore a favore del banco di 1622 lire.

    2.5. (X) = 6, u[X] = 2.83, (Y) = 13, a[Y] = 5.66.

    2.6. T 1 0 1 2 3 p(r) 1 6/720 126/720 378/720 210/720

    Si noti che la densit2 B normalizzata. (R) = 0.9, u[R] = 0.7.

    2.7. p(x) = 2z, F(x) = x2, (X) = 213, a[X] = 1/.(3&).

    2.8. F(x0.25) = xi,25 = 0.25, da cui 20.25 = 0.5. La probabilita di osservare valori < 0.5 B pari a1 25%. 2.9. I1 viaggio dura 6 ore, 4 in andata e 2 a1 ritorno. Se si considera la velocitk V come una variabile a due valori, si ha: (V) = 25.4/6+50.2/6 = 20016 = 33.3 Km/h. Si noti che il risultato (V) = (50 + 25)/2 = 37.5 Km/h 6 errato. 2.10. Le prove sono 1000 (invece che 100) e i valori dello spettro sono due

    x = 0 , l (testa o croce, appunto, invece degli 11 valori x = 0,1, ... 10). Dalla Tab. 2.2, sommando i prodotti della prima colonna per la seconda (0 . 0 + 1 . 0 + 2 . 5 + 3 . 13 + . . .), otteniamo 521 teste, e, ovviamente, 479 croci, a fronte di un valore atteso di 1000 . b(l,0.5,0) = 1000. b(l,0.5,1) = 1000 .0.5 = 500.

    Capitolo 3.

    3.2. La densit2 di X B binomiale (gaussiana), quindi (X) = 500. 0.5 = 250, a[X] = d m = 11.18. Vale la legge 3-sigma. 3.3. Dopo n passi, il percorso X ha uno spettro X = n , n - 2,. . . , -n di

    valori discreti che differiscono tra lor0 di 2 unitk. La variabile Y = (X + n)/2 B allora binomiale e assume valori interi nell'intervallo [0, n]. Si ha quindi: (Y) = ((X) + n)/2 = np = n/2 e Var[Y] = Var[X]/4 = np(1 - p) = 125. Risulta allora: (X) = 0 e a[X] = 2 m = 22.36. Vale la legge %sigma.

    3.5. p = 200 . 0.2 = 40, a = 6200 .0 .2 . 0.8 = 5.66. Utilizzando l'ap- prossimazione gaussiana e la Tab. D.l si ha P{-1.77 < t < 1.77) = 0.923.

  • A ~ ~ e n d i c e C. Soluzioni dei ~roblemi 465

    Basta notare che InY i: gaussiana e tenere presente che d ln y = dy/y. Una distribuzione avente questa densita i: detta logonormale.

    3.8. a) 0.0695 -- 7% ; b) 0.7165 2: 70%, indipendentemente dagli 8 mesi precedenti.

    3.9. X 2 / ~ = 7/10 = 0.7, corrispondente ad una probabilit& (live110 di significativit8) -- 28010, dalla Tab. D.3. 3.10. (8500 - 8100)/- = 4.34. La riduzione & significativa.

    3.12. Dalla densita di Poisson: P{X = 0) = exp(-1012) = 0.0067. La pro- babilita di sbagliarsi & allora 2. 7%.

    3.13. Se {XI + X2 = n} & la somma dei conteggi registrati in intervalli di tempo disgiunti, utilizzando la formula del binomio di Newton si dimostra facilmente che P{XI+ X2 = n} = C,[P{XI = k)'P{X2 = n - k}] quando le probabilita sono calcolate con la densita di Poisson (3.47).

    3.14. [-0.675,0.675], interpolando linearmente dalla Tab. D.l

    3.15. Dalla tabella D.1 si ottiene interpolando: P{t > 0.806) = 0.21 e P{t > 1.55) = 0.06: Dalle relazioni (4.41 - p)/a = 0.806 e (6.66 - p)/u = 1.55 si ottiene poi p = 2 e a = 3. Potete fare anche qualche verifica numerica con la funzione cdfnor di SCILAB.

    3.16. Assumendo I'ora come unitb di misura, At = 100/120 = 0.8333 e quindi, dalla distribuzione di Poisson: p(4) = (At)4 exp(-At)/4! = 0.00873. I1 tempo in ore i: dato da 1/0.00873=114.5 ore pari a 4.77 -- 5 giorni. 3.17. La funzione cumnlativa & F(x) = J:(2x - 2) dx = x2 - 2% + 1. D d

    teorema 3.5, x2 - 2X + 1 = R dove R U(0,l). L'equazione di secondo grado, per 1 5 x 5 2, fornisce la soluzione X = 1 + a. Per generare X secondo la densita assegnata basta l'istruzione X = 1 + 4Random dove 0

  • 466 Appendice C. Soluzioni dei problerni

    4.5. Cov[Z, U ] = ( Z U ) - (2) ( U ) = ((ax + b) (cY + d ) ) - (a ( X ) + b) (c ( Y ) + d ) = a c ( ( X Y ) - ( X ) (Y)) . Dato che a [ Z ] = a a [ X ] e a[U] = c u [ Y ] , si ha P[-% Ul = - ( X ) ( Y ) ) / ( a [ X l f l [ Y I ) = P[X, Yl. 4.6. Basta rifarsi alla (4.77) cambiando i limiti: P { X 2 180, Y 2 170) =

    [0.5- E(0.625)] . [0.5 - E(0.833)] = 0.266.0.202 = 0.0537 2 5.4%. I valori della funzione E(. . .) si ricavano dalla Tab. D.1.

    4.7. Occorrerebbe integrare per via numerica la (4.40) nella regione X E [180, +m), Y E [170, +m). Si noti anche che I'ellisse di concentrazione non fornisce in questo caso la soluzione giusta. Per una soluzione col metodo Monte Carlo si veda anche il problema 7.11 a pagina 284.

    4.8. La densit& p x y B data dalla tabella

    Le densitb marginali p x e pu valgono:

    da cui risulta che la variabile X , corrispondente al primo dado, i: uniformemente distribuita, mentre la Y , che i: correlata alla X , ha una densitb diversa. Dalle (4.17, 4.18) B possibile ricavare i valori delle medie e delle deviazioni standard: p. = 3.5, p, = 3 . 2 5 , ~ ~ = 1 . 7 0 8 , ~ ~ = 1.726. Calcolando infine la covarianza tramite la (4.21) e i valori della tabella di p x y , otteniamo il valore aZy = 1.458.

    Capitolo 5.

    5.1. F z ( z ) = P{-lnX 5 z } = P { X 2 e- ' ) = 1 - e-* , da cui dF/dz = p ~ ( z ) = e-', z > 0. 5.2. Per x 2 0 c'B una sola radice x = &. Si ottiene pertanto: p z ( z ) =

    2(1 - &)/(2+) = I/+ - 1, 0 < z < 1. 5.3. Definendo la variabile ausiliaria W = Y , si ha X = ZW e Y = W;

    le derivate d f ; ' / d Z = W, a f ; ' / d ~ = z , d f g l / d Z = 0 , d f c l / d w = 1, permettono di calcolare la jacobiano IJI = IWI. I1 risultato 5 quindi p z = .f lwl p x y ( z w , w) dw.

    5.4. Dalla (5.32) si ha p z ( z ) = PY ( Z - x) PX (z) dx, con x 2 0 , ( z - z) 2 0 , da cui pz ( z ) = p y ( z - x) p~ (x) dz = z e q - z ] .

    5.5. Si deve estendere per induzione la procedura del problema precedente e si trova la distribuzione di Erlang o gamma r ( n , A ) , avente densitk: e k ( t ) = X ( ~ t ) " - ' e - ' ~ / ( n - I)!.

  • Appendice C. Soluzioni dei problemi 467

    5.6. Valgono le condizioni 0 5 Z 5 1, W > 0, e le funzioni inverse sono: X = Z W e Y = W ( l - 2 ) . Lo jacobiano vale IJI = ITVI = W e la densit& cercata b: pzw (z, w) dz dw = w exp[-w] dz dw. In base al teorema 4.1, Z e W sono indipendenti e Z k una variabile uniforme.

    5.7. Dalla (5.27), tenendo presente che z = f (x , y) = xy, f-'(2, y ) = zly, af- ' /az = l l y e che nel rapport0 z = z/y si deve avere y > z per assicu-

    1 rare i limiti 0 5 x 5 1, otteniamo: p z (z) = JZ ( l ly) dy = - In z , 0 5 z < 1. Dall'integrale notevole zn In z dz = In z zn+'/ (n+ 1) - zn+ l / (n+ 1)' si ottiene poi facilmente (2 ) = 114 = 0.25 e Var[q = (2') - (2)' = (119) - (1116) F! 0.049.

    5.8. Se TI e T2 sono i tempi di guasto, il sistema cessa di funzionare ad un tem- po T = TI +Tz. La densit& di probabilita B quindi data dalla convoluzione delle due densith. Si ha pertanto X2 1 exp[-X(t - u)] exp(-Xu) du = X2t exp(-At), che B la densit& gamma (3.55). I1 tempo medio di vita del sistema i. (T) = 2/X. Si confronti il risultato con quello dell'esercizio 4.1.

    5.9. Caso a): (21) = 0, (Z2) = 0, Var[Zl] = 13 e, dalla (5.69), Var[Zz] = 1. Si noti che in approssimazione lineare si avrebbe, dalla (5.66), Var[Zz] = 0. Utilizzando il metodo della (5.84) si ottiene facilmente Cov[Zl,Zz] = 0. La covarianza e il coefficiente di correlazione lineare sono nulli, pur esistendo una relazione di dipendenza tra le variabili. Caso b): (21) = 5, (22) = 1, Var[Zl] = 13, Var[Zz] = 3, Cov[Zi,Z2] = 5, p[Z1, 2 2 1 = 0.8. . 5.10. Dato che X e Y sono gaussiane, in base all'esercizio 5.3 lo i: anche Y - X .

    Dalla (5.66) risulta a[Y - X] = d . 0 2 0 ~ + 0.0202 = 0.0283. Utilizzando il me- todo della vaxiabile standard otteniamo i valori t l = (0.050 - 0.100)/0.0283 = -1.768, t2 = (0.150 - 0.100)/0.0283 = 1.768, corrispondenti ad un intervallo di probabilith di P(0.050 5 (Y - X ) 5 0.150) = 2 .0.4614 = 0.923, interpolando dalla Tab. D.1. La percentuale richiesta B pertanto: 1 - 0.923 = 0.077 7.7%. 5.11. In base all'esercizio 5.4, la densitb del numero totale di veicoli B pois-

    soniana di media p + A. Dalla densitb binomiale si ha poi: P(k) = n!/[k!(n - ~!)I[P/(P + Allk P / (P + 41("-".

    Capitolo 6.

    6.1. a) 13 < R 5 120, b) 26 < R 2 133, c) 17 < R 5 116. 6.2. La soluzione B il valore p che soddisfa p - 1.28& - 20 = 0 con p > 20,

    quindi p = 26.6.

    6.3. I1 valore atteso dello scarto quadratic0 medio (deviazione standard) coincide col valore vero: ( S ) = 12 Kg. Si ha invece: a[S] = a / m = 0.6 Kg.

    6.4. Dalla relazione Np = 215 f d215(1 - 0.2) = 215 zt 13 segue N = 21510.2 f 1.65 .13/0.2 = 1075 f 108, CL = 90%.

    6.5. I1 risultato segue dal teorema 6.1, dato che la varianza campionaria S2 B funzione dello scarto, e dal teorema 4.3. Si pub anche mostrare direttamente che Cov[M, (X i - M)] = (x:) / N - ( M ~ ) = a 2 / ~ - a 2 / N = 0, poichk in un campione casuale le estrazioni sono indipendenti: ( X i X j ) = 0 se i # j. 6.6. a) 9.8 & 0.2; b) (x - 245)/5 -- 1.645, da cui x = 253.2, pari ad un limite

    superiore di 10.13 per la media. Si puob anche scrivere (p - 9.8)IO.Z 1.645 da cui p < 10.13, CL = 95%.

  • 468 Appendice C. Soluzioni dei problemi

    6.7. Occorre applicare la (6.99), con s l = s2 = 0 . 0 5 m = 0.16. Risulta t, = 2.12 con 18 gradi di liberth, corrispondente, dalla Tab. D.2, ad un SL osservato ( p - v a k e ) N 2.5%. Questo valore piuttosto piccolo autorizza a nutrire qualche dubbio sulla omogeneith delle due macchine, che andrebbero tenute sotto controllo. Confrontare il risultato col test gaussiano delle medie.

    6.8. Supponendo che le differenze siano dovute a1 caso (ipotesi nulla), le (6.126, 6.127) forniscono il valore Xg( l ) = 0.993, corrispondente, interpolando dalla Tab. D.3, ad un SL -. 34%. Non k lecito scartare l'ipotesi, quindi non si pub affermare che il farmaco k efficace.

    6.9. Si applica la (6.115), dove N p i = 100mxi exp[-m]/x;! ed m = 4.58 B il valore della media campionaria ricavata dai dati. Occorre raggruppare i primi due e gli ultimi tre canali, per avere Npi > 5. Si trova X 2 = 2.925 con 6 gradi di liberti, pari a ~ g ( 6 ) = 0.49. Interpolando da Tab. D.3 si trova P{QR 2 0.49) ci 0.82, pari a un p-value di 2(1 - 0.82) r 0.36. Risulta che in media axrivano 4.6 autobus in 5 minuti e che i dati sono compatibili con la distribuzione di Poisson, perch6 se scartiamo questa ipotesi abbiamo un' alta probabilith (36%) di sbagliare.

    6.10. x2(1) = (356 - 375)'/375 + (144 - 125)'/125 = 3.85. P{Q > 3.85) < 0.05 da Tab. D.3. I1 modello i: quindi rifiutato.

    6.11. a) I1 metodo non parametric0 delle tabelle di contingenza fornisce, con 5 gradi di liberti, Xi = ~ ~ ( 5 ) / 5 = 0.8415 N 0.2, P{QR 1 N 0.96 dalla Tab. D.3. I1 test di compatibilith k superato, ma i dati vanno guardati con sospetto, per via del X2 troppo piccolo. b) Applicando la (6.115) con N p i = 100 per tutti i 12 canali, si ottiene X 2 = 2.52. Ogni dado contribuisce con 5 gradi di liberti, per cui xg(10) = 2.52110 = 0.252, P{QR 2 &) N 0.99. Se affermiamo che i dadi o i lanci sono truccati, abbiamo una probabilith di sbagliarci 5 1%. In effetti, con 100 eventi attesi per canale, le fluttuazioni statistiche a la valgono N 100 f = 100 f 10, e i 12 valori osservati sono tutti entro la. E quindi ragionevole scartare l'ipotesi, perchb i dati "fluttuano troppo poco".

    6.12. p E [-0.013,0.305]. Dalla formula approssimata (6.139) si ottiene p E [-0.011,0.311].

    6.13. Dal test della differenza si ottiene t = (60 - 33 60 + 33 = 2.8, da P-- cui, in approsimazione gaussiana, P{T > 2.8) = 2.6 10- . Capitolo 7.'

    7.1. No.

    7.2. I1 valore vero della probabilitk i: 213.

    7.3. Occorre generare due variabili uniformi X = 60 * rndm, Y = 60 * rndm e contare il numero di volte che -10 < X - Y < 12. I1 risultato deve essere statisticamente compatibile col valore di 113.

    7.4. I1 risultato esatto, che si pub ricavare con considerazioni geometriche non banali, 6: 1 - 3&/(4~) = 0.586503. Utilizzando il metodo del problema 7.9 abbiarno ottenuto una frazione di coppie pari a 3 614 28916 164 195, corrispon- dente a una probabilith di 0.58634 i 0.00020.

    I valori che il lettore ottiene con codici di simulazione devono essere statistica- mente compatibili con le soluzioni qui riportate. La compatibilztci va verificata con i test statistici descritti in particolare ne i pas-agrafi 6.12, 6.14 e 6.15.

  • Appendice C. Soluzioni dei problemi 469

    7.5. La massima efficienza di generazione (21 78%) viene ottenuta in corri- spondenza del minimo valore di k che soddisfa la relazione kex > p(x) Vx 2 0, che 6 verificata per k 2 @. Per ottenere una variabile Z N .N(O,l) 6 ne- cessario utilizzare un nuovo numero t e porre z = -x se 0 < t 5 0.5; z = x se 0.5 < [ 5 1. In alternativa, si pub anche utilizzare il metodo descritto in [59]. 7.6. Si esegue un ciclo di n = 5 tentativi in cui si ottiene la frequenza f = xln ,

    dove x i! il numero di volte che si verifica la condizione 0 < rndrn 5 0.25. Si incrementano di 1 i contatori t l , tq, t3 quando p B contenuto nell'intervallo della 6.21, calcolato col valore trovato per f e con t = 1,2,3 rispettivarnente. Questo ciclo va ripetuto per un numero grande N di volte e i valori finali di t l /N, tz/N e t3/N forniscono i livelli cercati. Con N = 10000 abbiamo ottenuto: t l = 6570, tz = 9852, t3 = 9994. Calcolate le frequenze risultanti col relativo errore e confrontatele con i livelli di probabilitL della legge 3-sigma.

    7.7. Per variabili uniformi p = 0.5 e la media campionaria ha incertezza a = 1 / m . Se N = 12 si ottiene il valore standard t = Ciz, & - 6. Questo algoritmo B usato dalla routine Gauss1 presente sul nostro sito.

    7.8. Y = pX + J ~ Y R , dove X e YR sono variabili standard generate con la routine gauss2 (0,l).

    7.9. Si estraggono a caso in mod0 uniforme -R < X 5 R, -R 5 Y < R, e si accettano le coordinate quando d m 5 R. 7.10. L'istogramma proviene da una popolazione di densitb p ~ ( z ) = T(1:22),

    detta di Cauchy, che non possiede media ed ha varianza infinita.

    7.11. Bisogna generare due variabili gaussiane di media, deviazione standard e correlazione assegnata: X = 8 . gl + 175, Y = (p . gl + JV. g2) . 6 + 165, dove gl e g2 sono valori normali standard dati dalle routine gauss o gauss2. Si trova poi, tra le coppie generate, la percentuale di quelle in cui X > 180 e Y 2 170. Con 10 milioni di coppie abbiamo ottenuto (10.71 10.01)%. 7.12. I risultati devono essere compatibili con la soluzione 5.9 di pagina 467.

    7.13. Si generano due numeri x = J1 e q5 = 2 ~ 5 2 . Si registra il numero n di successi x + cos(q5) < 0 oppure x + cos(q5) > 1 su un totale di N tentativi. La stima di .ir 6 2N/n f ( 2 ~ l n ' ) J m . Si veda la routine

    7.14. Una possibile soluzione B la nostra routine As5m . Si ricordi che l'errore sulla deviazione standard di N, eventi vale -- (r/a (capitol0 6). 7.15. P{r* > 0) -- 6% (r = coefficiente di correlazione campionario). I1

    model10 (anche se per poco) va rifiutato

    Capitolo 8.

    8.1. Una soluzione B il nostro codice che genera n = 100 valori gaussiani e calcola la differenza A = in t ra il valore massimo e minimo. I1 procedimento viene ripetuto un numero N molto grande di volte per ottenere, alla fine del ciclo, l'istograrnma della variabile A. Appare un istogramma asimmetrico, proveniente da una popolazione di densitb di forma analitica non nota. Con N = 50000, abbiamo ottenuto, per n = 100, un campione di media e deviazione standard m = 2.508 i 0.001, s = 0.302 i 0.001. Dallo studio grafico dell'istogramma abbiamo poi determinato il valore quantile Ao.99 = 3.32. I1 controllo deve scartare i1 lotto quando A > 3.32. Si noti che il metodo 6 insensibile a110 spostamento della media (X).

  • 470 Aaaendice C. Soluzioni dei ~roblerni

    8.2. Si estraggono a caso i 5 tempi con legge esponenziale e si determinano m l = min( t~ , t s , t 5 ) , m2 = min(t2, ts,t4), ms = min(tl,t4), m4 = min(t2,ts). La macchina si ferma dopo un tempo t = max(ml, m2, ms, m4). Ripetendo il ciclo 10 000 volte abbiamo ottenuto un istogramma asimmetrico di parametri m = 2.52 f 0.02 e s = 1.70 f 0.01 giorni. L'istogramma contiene nell'intervallo m f s il 73% circa dei tempi di funzionamento.

    8.3. Occorre modificare la funzione Funint della routin escludere il campionamento ad importanza.

    ile i 2 che va modificata a1 valore voluto. La s el nostro sito.

    8.4. I1 valore esatto di I, calcolabile analiticamente, 6 I = 210g 2 - 1 = 0.38629.. .. Per N = 1000, con il metodo della media si ottiene a = 6.25 . l op3 ; con il metodo "vinci o perdi" o 2: 1.1 . l o P 2 ; con il campionamento ad importanza (scegliendo g(z) = x) CT 2: 1 . loP3; con il campionamento stratificato (k = 20 strati) a -. 0.3. 8.5. I1 risultato deve essere statisticamente compatibile con il valore I = 8.

    Con il metodo della media ed N = 1000 abbiamo ottenuto, ad esempio, I = 8.01f0.13. Con il metodo "vinci o perdi" e delimitando la funzione da integrare entro l'iper-parallelepipedo definito daIle condizioni -1 5 xl,zz, 23 < 1, 0 5 y < 3, abbiamo invece ottenuto (semprc con N = 1000) I = 7.89 f 0.36. 8.6. L'equazione ra presenta una ellisse con centro nell'origine e semiassi lun-

    go x e y di valore 4 2 e 1 rispettivamente. I1 rettangolo che circoscrive l'ellisse ha un'area A = 4 4 . Occorre scrivere un codice che estragga a caso un punto entro il rettangolo e lo accetti se z2/2+ y2 < 1. I1 rapport0 tra i punti accettati Ns e quelli generati N fornisce l'area dell'ellisse con errore secondo le (8.35, - 8.36). Col programm e 100 000 punti abbiamo ottenuto un'area pari a 4.433 f 0.007.

    8.7. Le prove possono essere fatte con la nostra routine Generando 10000 variabili ed utilizzando le ultime 5000 abbiamo ott = 0.029 f 0.018, s = 0.875 f 0.010 con a = 2 e m = 0.017 f 0.024, s = 1.002 f 0.016 con a = 3. Si vede che con a = 3 l'errore aumenta, ma la stima distorta di a viene corretta. I risultati non cambiano sostanzialmente con a > 3, necessarie sequenze pi3 lunghe per stabilizzare il risultato. I1 valore sembra ottimale. Con 5000 variabili standard ottenute con la routine abbiamo ottenuto m = 0.023 f 0.014, s = 0.994 f 0.010, che & un risul accurato di quello otenuto con Metropolis con a = 3.

    8.8. Con riferimento alla figura, si deve scrivere un codice che estrae il punto di emissione con le formule x = -2 + 4[, y = -3 + 66 e la direzione di volo come cos0 = 1 - 2(, 4 = 2n(. Si ha poi a = htg0, r = d m , R = Jr2 + a2 - 2racos 4. Se R k minore del raggio della finestra R d , la particella b contata dal rivelatore.. Se n B il numero di particelle contate su N generate, l'efficienza B data da E: = n / N f dn(l - n/N)/hr . Con i dati del problema e la nostra routin bbiamo ottenuto E = 0.059 f 0.002.

    8.9. Una possibile soluzione B la nostra routin che campiona uniformemente in -T 5 x 5 n. I valori di c sono i erminale. 8.10. La soluzione dipende dalla valutazione soggettiva del tracciato. I1 lettore

    dovrebbe essere in grado di verificare che, per n troppo elevato, l'algoritmo non b affidabile nel predire il numero atteso di atomi con spin 1.

  • Appendice C. Soluzioni dei problemi 471

    Capitolo 9.

    9.1. La probabilitd di estrarre una biglia nera vale 113 o 213. Dalla densita binomiale si ottiene la tabella:

    La stima ML di p vale pertanto: 6 = 1/3 se 0 5 x L: 1, p = 2/3 se 3 5 x 5 4. Se x = 2 la funzione di verosimiglianza (densit5 binomiale) non ha massimo, pertanto lo stimatore ML non B definito in questo caso.

    9.3. 2, B tale che J!; p(z; f i , 5) dz = a, dal teorema 9.2.

    9.5. a) Dalla (1.32) di pag. 25 risulta P(x; N) = A(x)[(N-n)!I2/[~!(N-2n+ x)!], dove A(%) contiene fattori indipendenti da N. Dato che P(x; N) L(N), lo studio della funzione per valori discreti di N mostra che L(N $. 1) 2 L ( N ) finch6 N 5 n2/x - 1. I1 massimo di L(N) si ha quindi per N = 1 +int (n2/x - 1), dove int & la p a t e intera dell'argomento. Dai dati si ottiene k = 609. b) Utilizzando l'approssimazione di Stirling e la (3.21) di pag. 73, si ottiene dL/dN = -dIn L(N)/dN = I ~ [ N ( N - ~ ~ + x ) / ( N - ~ ) ~ ] , dacui N = n2/x = 608. Dato che N B una variabile discreta, il limite di Cram&-Rao non B utilizzabile. Anche con l'approssimazione di Stirling, supponendo N variabile continua, la (9.29) B di difficile applicazione. Si pub sirnulare il processo, generando da N = 600 una serie di valori z e studiando l'istogramma degli N stimati. Ripetendo per 5000 volte l'esperimento, si ottiene un istogramma asimmetrico (con una lunga coda a destra) di parametri rn = 618 i 1, s = 80.0 m 0.8. I1 valore massimo 6 ad fi = 600. Nell'intervallo 608 i 80 B contenuto il 72% dei valori. Una stima ragionevole B pertanto: N E 608 & 80, CL = 72%. Dato che x ha densitk binomiale, in approssimazione gaussiana (x > 10, n-x > 10) si pub anche usare la (5.57) di pag. 161, che dB il risultato: Varlfi] = Var[n2/z] 2. (n4/z3)[(1 - x/n) + (212) (1 - ~ / n ) ~ ] (si noti che il secondo termine 6 trascurabile). Si ottiene N E 608 i 88, in buon accordo con la simulazione.

    9.6. La funzione di verosimiglianza di due prove vale L = p x 1 + x 2 (1 - p)2-(xl+xz) = L (p; S). S B sufficiente, P non lo B. Infatti, p pub essere stimato solo dalla somma dei successi, non dal prodotto.

    9.7. Tralasciando i fattori costanti, 1nL = -(n/2)[lnc2 + s2/a2], dove a2 E s2 = w/n (la media k nota). Si noti che (s2) = cr2 e che w B una statistica sufficiente. Calcolando la derivata prima e seconda di In L si trova che l'infor- mazione attesa vale nI(6) = n/(2u4). Applicando i metodi a) e b) suggeriti, da [ I ln L J / ~ ] 5 t,J e [Is2 - u2) / J(T1 < t , ) , dove t, 6 il quantile, si trova lo stesso risultato, identico alla 6.57 dl pagina 198.

  • 472 Appendice C. Soluzioni dei problemi

    9.8. Se w = xi xf ed n = 6, il logaritmo della verosimiglianza che si ottiene dalIa gaussiana con media nulla vale ln ~ ( a ' ; w) = -(n/2) l n a 2 - w/(202). I1 massimo si ha per 8' = w/n = 39.016 = 6.5, che rappresenta la stima ML di a2 . Per applicare la (9.45) occorre ridefinire L, in mod0 che A[ln ~ ( 8 ' ; x)] = 0. Si ha pertanto: A[ln L(u'; w)] = +(n/2) [ln a2 + w/(na2) - (n/Z)[ln(w/n) + 11. I1 valore CL = 95.4% si ha quando 2 ~ [ l n L(u'; x)] = 4. Lo studio numeric0 della funzione fornisce i valori: a2 E [2.5,27.1] = 6.5r:0.6. Dato che la media & supposta nota, nella (6.66) i gradi di liberta di XL sono 6. Interpolando da tab (D.3) si ottengono i valori: Xi0.023(6) = 2.46 e X&0.977(6) = 0.20. L'intervallo di confidenza con C L = 95.4% vale: a2 E [2.6,32.6]. Questa stima b migliore della precedente, che vale solo asintoticamente. I dati dell'esercizio sono stati estratti da una gaussiana con a2 = 9

    9.9. I due metodi forniscono numericamente lo stesso risultato: a2 E [8.0,14.0]. Anche questi dati sono stati estratti da una gaussiana con a2 = 9.

    9.10. La stima per intervallo delle due medie vale: p l E 2.08&0.016 cm, p2 E 2.O5f 0.011 cm. Le medie sono compatibili, perch& il test della differenza (6.96) dB un valore standard t = 1.58. La stima ML & la media pesata: ji = 2.0596. La stima per intervallo i: data dalla (9.69): p E 2.0596 f 0.0091.

    9.11. Se la variabile aleatoria X rappresenta il numero di campioni negativi su un numero di N carnpioni esaminati fissato a priori, la funzione di verosi- miglianza 6 binomiale: L(p; x) = N!/[x!(N - x)!] [exp(-p)]" [l - e ~ ~ ( - - p ) ] ~ - " , dove exp(-p) & la probabilith poissoniana di non osservare eventi quando la media b p. La stima ML di p fornisce exp(-ji) = x l N , da cui ji = 1n(N/x) = ln(50/5) = 2.3. Si confronti il risultato con la Tab. 6.2 di pag. 192 e con le (6.37).

    9.12. Occorre raggruppare gli ultimi 3 canali per avere n(t) 2 5 : 10 tempi tra 14 e 20 secondi. I valori di probabilitii attesi entro ogni canale At = ( t i , tz) sono dati da pi(0) = pi(X) = J,, e(t) dt = exp(-Xtl) - exp(-Xt2). Utilizzando la (9.57) ed un pro rarnma di fit non lineare si ottiene: X E O.337f 0.011, X g = B 9.5517 = 1.36. I1 x va diviso per 7 gradi di liberta: 8 canali meno un parametro stimato (A). I1 livello SL osservato 6 E 24%, interpolando dalla Tab. D.3. Utilizzando la (9.59) si ottiene invece: X E 0.339 f 0.011, = 10.3217 = 1.47, S L -. 19%. I dati sono stati campionati dalla densita esponenziale con X = 113. 9.13. Livello del test: a = P{X = 1; Ho) = E. Potenza del test: 1 - =

    1 - P { X = O ; H ~ ) = P { X = l , H ~ ) = l - E .

    9.14. Livello del test: a = P{X1 = 1, Xz = 1; Ho) + (1/2)P{X1 + Xa = 1; Ho} = E. Potenza del test: 1 -/3 = 1 - P I X I = 0, X2 = 0; Hi ) - (1/2)P{X1+ Xz = 1; Hi) = 1 - E. I1 risultato & identico a1 test con una sola prova. Tuttavia, conviene effettuare due prove se & possibile, perch6 nei casi estremi il livello di significativita osservato e la corrispondente potenza assumono valori pih favorevoli. Ad esempio: a = P{X1 = 1, X2 = 1; Ho) = c2, 1 - P = 1 - PIX1 = O,XI = o ; H I ) = 1 -e2.

    9.15. Dato che p = (0.050 - 0.029)/0.057 - 0.029) = 0.750, se S = 16 si estrae un numero 0 5 random 5 1 e si accetta l'ipotesi se 0.75 5 random 5 1. In pratica si accetta un lotto su 4.

  • Appendice C. Soluzioni dei problemi 473

    9.16. I livelli del test richiesti sono a = 0.01 e P = 0.05. a) Se Xo = 1/100, XI = 1/110 e t, = (C;" t,)/n B la media dei tempi osservati, dalle equazioni (t, - 100)/(100/&) = 2.326 e (t, - 110)/(110/J;ii) = -1.645 si ricavano i va- lori n = 1710 e t, = 105.6. Occorre quindi sacrificare un carnpione di ben 1710 sospensioni, calcolare la media dei tempi di guasto e accettare la dichiarazione del fornitore se la media supera 105.6 ore. b) Dal rapporto Lo/L1 = [Xo exp(-Xotn)]/[X1 exp(-Xlt,)] ed utilizzando i logaritmi si pub scrivere l'intervallo di indecisione (9.98) come -4.55/n - ln(Xo/Xl) < (XI - Xo)t, < 2.98/n - ln(Xo/Xl). Si sceglie HI (Ho) quando la condizione non 6 soddisfatta a sinistra (destra). La simulazione mostra che, se le sospensioni sono effettivamente migliori, basta in media un campione di n E 934 f 6 sospensioni e una media osservata di t , E 112.7 f 0.1 ore per confermare l'affermazione del costruttore. Se le nuove sospensioni sono come le vecchie, per la decisione giusta basta in media un campione di n = 670 so- spensioni e una media di t, € 97.1 & 0.1 ore. Attenzione: questi sono valori medi e pub capitare, con un solo test, di superare il valore n = 1710 ottenuto in precedenza con il campione di dimensione fissa e I'approssimazione normale. La regione di indecisione i: compresa, nel piano (n, t,), t ra due iperboli. Vi consigliamo di esaminare con attenzione gli istogrammi simulati! Sembrerebbe conveniente iniziare col test sequenziale e utilizzare il metodo a) quando il numero dei pezzi supera 1710. Tuttavia, questa procedura B scorret- ta, perch6 decidere il tip0 di test da usare dopo avere visto (in tutto o in parte) i dati altera i livelli di probabilita stabiliti a priori. I1 tip0 di test a) o b) va quindi deciso prima della prova.

    9.17. La variabile Qx, = 2XlnTn, dove T, k la media di n tempi esponenziali, ha una distribuzione X2(2n . Si ha pertanto: 1 - P(X1) = 1 - P{Q 5 qx,), 2 dove Q ha distribuzione x (2n). Dato che n B molto grande, si pub usare l'approssimazione normale e ricondursi a1 test sulla media: 1 - P(X1) = 1 - @[(qiI - 2n) / (2d4] = 1 -@[(tn - l / ~ ~ ) / ( l / ( ~ l f i ) ) l . 9.18. Si guardi la Fig. 9.6, supponendo che alle ipotesi Ho : p = 0.5 e HI :

    p = 0.3 corrispondano densita gaussiane. Dato che dalla Tab. D.l risulta P{t 5 -(0.5 - a ) = -0.4) = -1.28, P{t 2 (0.5 - P ) = 0.4) = +1.28 ed il test B a una coda, valgono i limiti: ( x - 0 . 5 n ) / d m 5 = -1.28 e (x-o.~~)/&Z~T? = 1.28. Le equazioni forniscono i valori, arrotondati agli interi, x = 15 e n = 38. Occorre un campione di 38 elementi, se x 5 15 si accetta HI , altrimenti si accetta Ho.

    9.19. I1 rapporto (9.87) vale: R = Lo/L1 = (0.5" . 0.5"-")/(0.3" . 0.7"-"). Dalle (9.92, 9.94), dato che (1 - a ) /P = 9 e a / ( l - P ) = 119, passando ai logaritmi si ottiene il risultato seguente: si accetta p = 0.5 se x 2 0.397n+2.593, si scglie p = 0.3 se x 5 0.397n - 2.593. La fascia di piano compresa tra queste due rette B la regione di incertezza. Con un codice di simulazione che ha ripetuto per 10 000 volte il test, con una moneta non truccata ( p = 0.5), si B ottenuto un istogramma dei valori di n di tipo esponenziale, con i seguenti parametri: m E 23.3 f 0.2, a E 17.3 f 0.1. In 786 casi su 10 000 B stata scelta l'ipotesi sbagliata. I1 numero medio di tentativi (23) k minore di quello che risulta dal problema 9.18 (38). Tuttavia, in 1484 casi il test sequenziale simulato ha richiesto un numero di tentativi > 38. 9.20. Si trovafacilmente (X) = (Q+1)/(0+2), Var[X] = (Q+1)/[(Q+2)2(8$

    3)], e la funzione di ripartizione Fx(x) = xe+l. I1 rapporto di Neyman-Pearson individua la miglior regione critica come {- In r, + n In[(l + Qo)/(l + el)])/ (81 - 00) 5 C i l n x i 5 0. Se Z = l n X , F,(z) = P{Z 5 z) = P{X 5 e"} =

  • 474 Appendice C. Soluzioni dei problemi

    e('+')". La densitk di Z 6 allora dF,/dz = p ~ ( z ) = (1 t B) exp[(l + 0)z] e quindi (Ci In Xi) = -n/(l + 0), Var[Ci In Xi] = n / ( l+ 0)'. Dato che n = 100, possiamo usare l'approssimazione normale; per a! = 0.05, tl-,12 = 1.64 e, se 0 = 00 = 1, il rigetto dell'ipotesi nulla si ha per [xi lnxi - (-n/2)]/(&/2) 2 1.64, cio6 xi xi 2 -41.8. Questo test su xi Inxi b di potenza massima per a = 0.05. Segue pure che r, = 3.49, ma questo valore non k necessario per il test, in approssimazione normale. La curva di potenza k 1 - p = 1 -@[(-41.8+ :/(I + Bl) ) / ( f i / ( l +&))I, $1 > 00. Per n = 100 e 01 = 2 si ha 1 - p = 0.996. E utile verificare che il test sulla somma C x c fornisce, in approssimazione normale, una potenza solo di poco inferiore, 1 - ,b' = 0.989.

    Capitolo 10.

    10.1. Dalla (5.65) e dall'ipotesi Cov[X, Z] = 0 otteniamo: a; = b2Var[X] + Var[Z] + 2b Cov[X, Z] = b2Var[X] + Var[Z] . Definendo AX = X - p, e AY = Y - p,, dalla (5.83) possiamo calcolare anche la covarianza tra le va- riabili come nell'esercizio 4.3: Cov[X, Y] = (AX AY) = b (A2X) = bu;. Ot- teniamo pertanto il risultato: p = f u[f (X)]/a[Y] = ba,/u, = bu;la, a, = ax,l(o;, 0,).

    10.2. DalIa relazione s, = 0 . 1 0 x l m (e analogamente per y) e utilizzando la formula della va,rianza effettiva per i l calcolo di s ~ , si ottiene la tabella:

    La minimizzazione della (10.101), dove f (x; a , b) = a+bx e la varianza effettiva a1 denominatore vale s i + b2s& fornisce i valori a E -0.13 & 1.15, b E 2.04 f 0.05. Con un fit lineare iterato due volte si ottiene invece: a E 0.23 f 1.12, b E 2.02 f 0.05. I dati sono stati generati con una simulazione artendo da P Y = 1 + 2X. Si ottiene anche X2(u)/u = 28.015 = 5.6. I1 test x non k perb significativo, perch6 i dati non sono gaussiani.

    10.3. Un fit non Iineare con la retta f (x;a, b) = a + bx e varianza effettiva s i + b2s: fornisce i valori: a E -0.64 & 1.14, b = 2.10 i 0.05. Con un fit lineare iterato in due passi si ottiene: a E -0.62 f 1.12; b E 2.10 f 0.05. I dati sono stati generati con una simulazione partendo da Y = 1 + 2X. I1 test X2 i: significativo, perch5 i dati sono gaussiani. Si ottiene: X2(u)/u = 2.0515 = 0.41, corrispondente nella Tab. D.3 a SL -- 20% nella coda a sinistra, che qualifica la retta come un buon modello di relazione funzionale.

    10.4. Le rette passanti per (xo, yo) devono soddisfare il vincolo yo = ai t bixo. Se ai e bi sono noti, si considera il piano duale, dove una retta b rappresentata da un punto di coordinate (b, a) , e si pub fare il fit dei punti (bi, ai) con una retta a = (-xo)b + yo, determinando il vertice (xo, yo) con errore. Questo metodo b usato in fisica per determinare il vertice di tracce di particelIe nucleari nei rivelatori. Se le tracce sono curve, si pub procedere per passi, utilizzando tratti di rette tangenti alle tracce.

    10.5. I dati sono stati ottenuti da una simulazione ponendo Y = 5 + 0 . 8 ~ ' + YR, dove ~ [ Y B ] = 0.5.

    10.6. X e Y hanno entrarnbe u = 0.5 e tra loro b stata simulata una correlazione f (X) = 5X + 0 . 2 ~ ~ .

  • Amendice C. Soluzioni dei wroblemi 475

    10.7. L'errore o[Y] si stima come s(yi) = 0.10 . yi. Si ottengono in questo mod0 i valori:

    Questi dati sono passati a1 codice di minimizzazione lineare che determina i coefficienti 8 e 6 della relazione funzionale y = 8 + 6% . I1 programma fornisce il risultato ii & s(6) = 3.31 zt 1.08, 6 i s(6) = 2.26 + 0.24, r(8,6) = -0.845, X2 = 3.66. Le stime LS sono compatibili con i valori veri a = 5 e b = 2, che sono quelli utilizzati per generare i dati artificiali con una simulazione. I1 X2 ridotto xg(3) = 1.22, corrisponde, in Tab. D.3, ad un live110 di significativith ad una coda di circa il 30%. La covarianza vale s(86) = r(8,6)s(8) s(6) = -0.845.1.08.0.24 = -0.22 . Verifichiamo il risultato del fit con una simulazione, attraverso il metodo descritto nel par. 7.10. Utilizzando le stime LS 8 e b e i dati sperimentali xi possiamo generare dati artificiali yi ed errori s(yi) secondo l'algoritmo: yi = (1 + 0.10 . t i ) (8 + 6xi), s(yi) = 0.10 - yi, dove ( 5 estratto da una gaussiana standard. Notate che la retta B calcolata coi valori stimati e che l'errore & sempre calcolato in mod0 approssimato in percentuale sui dati osservati, come nel caso di un esperimento reale. Ripetendo 20000 volte il I

    fit si ottengono gli istogrammi di 8, 6, s(8), s(6) e di X2. Le larghezze degli istogrammi, permettono di verificare direttamente che gli errori s(6) e s(6) ottenuti dal fit coincidono entro 3 cifre decimali 'con le deviazioni standard degli istogrammi di 8 e 6 ottenuti con la simulazione. Le densith delle stime di a e b sono gaussiane praticamente perfette, come era lecito attendersi. Anche i 20 000 X2 si distribuiscono perfettamente come la densit& di X2 con tre gradi di libert8.

    10.8. Per prima cosa & necessario valutare gli errori s(yi) = (~ /m)~i = 2(0.10/3.46)yi = 0.058yi e in mod0 analog0 s(xi) = 0 . 0 5 8 ~ ~ . Anche in questo caso la stima B approssimata, perch4 i: ottenuta come percentuale dei valori osservati, non di quelli veri. Fornendo i valori xi, yi e la varianza effettiva s& = b2s2(xi) + ~ ' ( ~ i ) ad un codice di fit non lineare otteniamo: 8*s(8) = 5.07&0.78, 6dz s(6) = 2.17 f 0.19, r(h,6) = -0.841, X2 = 3.26. I1 X 2 ridotto x2/3 = 1.09 mostra un buon accord0 tra dati e modello. Le stime sono compatibili con i valori veri a = 5 e b = 2, che sono quelli utilizzati per generare i dati simulati. Come nell'esercizio precedente, ripetiamo ora il fit per 20 000 volte. Utilizzando i dati sperimentali xi e le stime LS dei parametri, possiamo generare dati artificiali xi, yi ed errori s(xi) e ~ ( ~ i ) secondo l'algoritmo: y: = [1 + 0.10 (1 - 2ti)] (8 + 6xi), X: = xi + 0.10 (1 - 2&) xi, ~ ( 2 : ) = 0.058 xi, s(y:) = 0.058 y:. Ad ogni iterazione, si calcola la varianza s i e si esegue il fit. Dalla simulazione si vede che le deviaxioni standard degli istogrammi di a e b coincidono con i valori stimati col metodo LS, fatto che accresce la nostra fiducia negli algoritmi dei minimi quadrati, anche con dati non gaussiani. La simulazione ci mostra un fatto importante: gC scostamenti dal modello gaussiano sono piccoli. In definitiva, si commette un errore trascurabile applicando gli intervalli della legge 30 ai risultati della regressione.

    Capitolo 11.

    11.1. u[F]/F N d 0 . 0 4 ~ + 0.05a = 0.064, pari al 6.4%. 11.2. Passando ai logaritmi si ha: t = -71n(I/Io) = 23 giorni. Propagando

    l'errore su I si ottiene: st = f TSI/I = f 0.5 giorni.

  • 476 Appendice C. Soluzioni dei problemi

    11.3. Dato che il fenomeno k poissoniano, il valore del conteggio b una stima della varianza. Dalla legge di propagazione dell'errore il valore del fondo vale F = 620/10 = 62 conteggils e o[F] = a 1 1 0 = 2.5 conteggils. Allora (I - F) f o[I - F] 2: (157 - 62) f 4 5 7 3 620/100 = 95 f 13, conteggils, C L -- 68%. I1 rapporto segnale fondo vale "7 sigma": n, = 95/13 2: 7.3. 11.4. Con 4 valori si devono utilizzare i quantiIi di Student con 3 gradi di

    liberth; dalla Tab. D.2 (per una probabiliti, di 0.975) si deduce che l'errore statistic0 della media b 0.04/3.18 = 0.012. La precisione vale 0 . 0 1 2 4 -. 0.02. 11.5. L'errore percentuale di R si propaga su quello di V in misura doppia

    dell'errore percentuale di L. Occorre pertanto ottimizzare la misura di R.

    11.6. Var[sen 01 -. (cos2 0) s:, da cui sen 0 = 0.50 f 0.03. Gli angoli vanno trasformati in radianti!

    11.7. E immediato vedere che (1 - p 2 ) / N = (~N+N-)IN3. Se N b aleatorio e poissoniano, N* sono valori di variabili poissoniane indipendenti, s2(N+) = N* e quindi, dato che (dP/dN*) = f 2 N ~ / N ~ , propagando l'errore si ha s 2 ( p ) = ( ~ N + N - ) / N ~ . Se N k fissato prima della misura, Nh sono valori di variabili binomiali correlate. Dato che N- = N - N+, si ha P = 2(N+/N) - 1, ,

    BP/dN+ = 2/N, s2(N+) = N+(1 - N+/N) e quindi s2(p) = 4(N+/N2)(1 - N+/N) = ~ N + N - / N ~ . In conclusione, l'incertezza s (P ) = vale per qualunque condizione sperimentale.

    11.8. f (V) = 2.718 f 0.008, dove l'errore i: la deviazione standard. La distribuzione di f (V) k praticamente uniforme, come b facile verificare sia analiticamente sia con una simulazione. E lecito quindi scrivere: f (V) = 2.718 f 0.008 m / 2 = 2.718 i 0.013, CL = 100%.

    11.9. Dato che s2(E2) = ( O . O ~ ) ~ ( ~ E ~ / ~ E I ) ~ + ( ~ o o / - ) ~ ( ~ E ~ / ~ R I ) ~ + ( 1 0 0 / m ) ~ ( d ~ z l d ~ 2 ) ~ = (0.103)~, si ha E2 = 5.00 & 0.10 V. La simula- zione genera a caso valori di El, R1, R2 dalla distribuzione uniforme (ad es. R1 = 1000 + (2 rndm - 1) 50) e fornisce l'istogramma di Ez. Appare una forma vicina a quella triangolare, con deviazione standard s = 0.103, coincidente con quella calcolata. Nell'intervallo m & s i: contenuto il 65% dei valori. I1 CL = 68% si raggiunge per s = 0.110. La misura diretta di E z i: in accordo col calcolo.

    11.10. v = 2.00/5.35 = 0.3738 m/s. st = 0 . 0 5 / a = 0.011 s; sl = 0 . 0 0 2 / m = 5.8 m. Dato che s: = v2[s?/l2 + s? / t2 ] = 6 .210-~ si ot- tiene v = 0.3738 f 0.0008 m/s. L'errore b dominato dall'incertezza sui tempi. Dato che v k espressa come rapporto t ra i valori di una variabile uniforme ed una gaussiana, conviene verificare il CL con una simulazione. Appare un istogramma di forma gaussiana, di deviazione standard coincidente con quella calcolata. A1 risultato si pub quindi associare un GL -. 68%. 11.11. or -. Jn -. 19 canali, per le proprietk della convoluzione.

  • Appendice D. Tabelle

    D. l lntegrale della densit5 gaussiana

    La densit& di probabilit& gaussiana g(x; p, a ) di media p e deviazione stan- dard a segue l'espressione (vedere par. 3.4):

    Quando x viene espressa in mod0 standard:

    l'equazione precedente viene sostituita dalla densith gaussiana standard, discussa nel par. 3.6:

    I valori della probabilith integrale:

    di ottenere, in un campionamento casuale, un valore compreso nell'intervallo [0, t] sono riportati nella Tab. D.l per t compreso nell'intervallo [0.0,3.99] con incrementi di 0.01. Le prime due cifre di t si leggono nelle righe in grassetto a sinistra, la terza cifra nella colonna in grassetto in alto. I valori dell'integrale (D.4) si leggono all'incrocio delle righe con le colonne.

    Sfruttando la simmetria di E(t) attorno a1 valore t = 0 (vedere eq. 3.40) e servendosi di questa tavola, B possibile trovare l'area compresa in un intervallo qualsiasi.

    L'integrale della densith con sette cifre decimali pub anche essere ottenuto, per qualunque valore di t , con I'istruzione SCILAB

    0.5 * erf (t/sqrt (2))

  • 478 Appendice D. Tabelle

    dove a t 6 stato precedentememte assegnato il valore richiesto. I valori del quantile tl-,/2 si ottengono aggiungendo 0.5 ai valori della

    tabella e ricavando il corrispondente valore di t. Ad esempio, ad 1 - tr = CL = 0.99% corrisponde 1 - 0112 = 0.995 e quindi t T 2.57, in corrispondenza del valore integrale 0.4949 Y 0.495.

    D.2 Valori quantili della densita di Student

    La densit& di probabilitb della variabile T di Student con u gradi di libertb viene data dall'espressione ricavata nell'esercizio 5.5:

    I valori quantili t p della variabile T corrispondenti ai differenti valori della probabilit& integrale:

    di non superare un dato valore di t p sono riportati nella Tab. D.2 per dif- ferenti valori di v. L'ultima riga della tabella, dove v = oo, fornisce i valori quantili esatti della densith gaussiana.

    I valori quantili corrispondenti ad una probabilitA p per df gradi di li- berth possono anche essere ottenuti, con sette cifre decimali, con l'istruzione SCILAB

    D.3 lntegrale della densita x2 ridotto La densit& di probabilith della variabile Q ( v ) con v gradi di liberta segue l'espressione (3.65) :

    I valori della variabile Q R ( v ) = Q ( v ) / v corrispondenti ai differenti valori della probabilith integrale:

    di superare un valore dato di X 2 ridotto sono riportati nella Tab. D.3 per valori di u compresi t ra 0 e 100. Quando u > 100, P, (X2) tende a diventare una gaussiana di parametri p = 1, a = m.

  • Appendice D. Tabelle 479

    I valori quantili corrispondenti ad una probabilitb p per df gradi di li- berta possono anche essere ottenuti' con sette cifre decimali, con l'istruzione SCILAB

    D.4 Valori quantili di X 2 non ridotto

    La Tab. D.4, che riporta i valori quantili di x2 non ridotto tali che:

    perrnette di effettuare il test x2 in luogo della Tab. D.3. L'uso della Tab. D.3 di x2 ridotto corrispondente a certi livelli di significativitb k equivalente all'uso della Tab. D.4 dei valori quantili di X2 non ridotto. Dipende dai "gusti" del lettore o dal tip0 di problema la scelta dell'una o dell'altra. Quando v > 100, ' la densit2 x2(v) tende ad assumere una forrna gaussiana di parametri p = v e a = & .

    I valori quantili della tavola (D.4) sono pih indicati ad essere usa- ti per calcolare il live110 di confidenza corrispondente a1 valore di AX2 dell'equazione:

    x2 = kin + Ax2 , (D.9) dove XLi, k il X2 calcolato con i valori veri (o stimati con il best fit) dei parametri della popolazione modello. In questo caso i gradi di libertb v rappresentano il numero di parametri presenti nel x2.

    Ad esempio, se il X2 ha dieci parametri liberi, I'ellissoide di concentrazione che ha per contorno AX2 2 16 contiene il 90% dei punti, ovvero comprende il 90% dell'iperspazio, corrispondente a CL = 0.90.

    I valori quantili corrispondenti ad una probabilitb p per df gradi di li- berth possono anche essere ottenuti, con sette cifre decimali, con l'istruzione SCILAB

    0.5 Valori quantili della densita F

    La densitb di probabilitb della variabile F di Snedecor viene data dall'espres- sione ottenuta nell'esercizio 5.6:

  • 480 Appendice D. Tabelle

    La probabilith di ottenere un valore {F 5 Fa) in un campione casuale con y e v2 gradi di Iiberth viene data dall'integrale:

    I valori di Fa corrispondenti ai livelli di significativith del 5% (a = 0.95) e dell'l% (a = 0.99) a destra della media sono rispettivamente riportati nelle Tabb. D.5 e D.6 per differenti valori di y e u2. I corrispondenti valori FI-, per la coda a sinistra della media possono essere ricavati dalla relazione (5.49):

    I valori quantili corrispondenti ad una probabilith p per df 1 e df 2 gradi di liberth possono anche essere ottenuti, con sette cifre decimali, con l'istruzione SCILAB

    cdff ('F',dfl,df2,p,l-p)

  • Appendice D. Tabelle 481

    Tabella D. 1. Integrale della densit& gaussiana g( t ; 0 , l ) in funzione della variabile standard t 0 t

  • 482 Appendice D. Tabelle

    Tabella D.2. Valori quantili t p della variabile di Student per v gradi di liberta

  • Appendice D. Tabelle 483

    Tabella D .3. Valori della variabile X2/v aventi probabilitb P di essere superati in un campionamento

    0 x2

  • 484 Amendice D. Tabelle

    per v gadi di liberth

  • Appendice D. Tabelle 485

    Tabella D.5. Valori quantili a1 95% del- la variabile F(v1, v2) di Snedecor

    0 F

  • 486 Appendice D. Tabelle

    Tabella D.6. Valori quantili a1 99% del- la variabile F(v1, vz) di Snedecor

  • Bibliografia

    1. A. Azzalini. Inferenza Statistzca. Springer-Verlag Italia, Milano, 2001. 2. P. Baldi. Calcolo delle Probabilitii e Statistica. McGraw Hill Italia,

    Milano, 1998. 3. D. M. Bates and D. G. Watts. Nonlinear regression analysis and its

    applications. Wiley, New York, 1988. 4. E. Bee Dagum. Analisi delle serie storiche: modellistica, previsione e

    scomposizzone. Springer-Verlag Italia, Milano, 2002. 5. M. Berblinger and C. Schlier. Monte carlo integration with quasi-random

    numbers: some experience. Computer Physics Communications, 66:157- 166, 1991.

    6. C. Bernardini. L'onesta degli scienziati. Sapere, 1/2:45-46, 1985. 7. C. S. Bertuglia and F. Vaio. Non linearitii, caos, complessitic. Bollati

    Boringhieri, 2003. 8. P.R. Bevington and D.K. Robinson. Data reduction and error analysis

    for the physical sciences. McGraw-Hill, New York, 1992. 9. V. Blobel. Unfolding methods in high-energy physics experiments.

    Technical Report DESY 84-118, DESY, Amburgo, 1984. 10. M. Boldrini. Statistica (Teoria e Metodi). A. Giuffrk, 1962. 11. P. Bratley, B.L. Fox, and L.E Schrage. A Guide to Simulation. Academic

    Press, New York, second edition, 1987. 12. W.A. Brown. L'effetto placebo. Le Scienze, 335:84-89, 1998. 13. S.T. Buckland. Monte carlo confidence intervals. Biometrzcs, 40:811-817,

    1984. 14. B.D. Bunday. Basic Queueing Theoyy. Edward Arnold, London, 1986. 15. J. Carlson. A double blind test for astrology. Nature, 318:419-425,1985. 16. G. Casella and R.L. Berger. Statistical Inference. Wadsworth &

    Brook/Cole, Pacific Grove, 1990. 17. G.J. Chaitin. CasuditB e dimostrazione matematica. Le Scienze, 85:30-

    35, settembre 1975. 18. W.G. Cochran. Sampling techniques. J.Wiley and Sons, New York, third

    edition, 1977. 19. A. Compagner. Definitions of randomness. American Journal of Physics,

    59:700-705, 1991.

  • 488 Bi bliografia

    20. R.D. Cousins. Why isn't every physicist a bayesian? American Journal of Physics, 63:398-410, 1995.

    21. D.R. Cox and W.C. Smith. Queues. Chapman and Hall, London, 1961. 22. H. Cramer. Mathematical Methods of Statistics. Princeton University

    Press, Princeton, 1951. 23. L. Daboni, P. Malesani, P. Manca, G. Ottaviani, F. Ricci, and G. Sommi.

    Ricerca Operativa. Zanichelli, Bologna, 1975. 24. G. D'Agostini. Bayesian reasoning in high-energy physics: Principles and

    applications. Technical Report CERN 99-03, CERN, Ginevra, 1999. 25. A.C. Davison and D.V. Hinkley. Bootstrap Methods and their

    Applications. Cambridge University Press, Cambridge, 1999. 26. F. Di Trocchio. Le Bugie della Scienza. Mondadori, Milano, 1995. 27. P. Diaconis and B. Efron. Statistica a1 calcolatore. Le Scienze, 179:116-

    123, 1983. 28. W.T. Eadie, D. Drijard, F. James, M. Roos, and B. Sadoulet. Statistical

    Methods in experimental Physics. North Holland, Amsterdam, 1971. 29. B. Efron. Bootstrap methods: another look at the jackknife. The Annals ..

    of Statistics, 7:l-26, 1979. 30. B. Efron. The Jackknife, the Bootstrap and Other Resampling plans.

    SAM, Filadelfia, 1982. 31. B. Efron and R.J. Tibshirani. A n introduction to the bootstrap. Chapman

    and Hall, London, 1993. 32. R.D. Evans. The Atomic Nucleus. Mc Graw-Hill, New York, 1955. 33. G.J. Feldman and R.D. Cousins. A unified approach to the classic

    statistical analysis of small signals. Physical Review D, 57:5873-5889, 1998.

    34. W. Feller. A n Introduction to Probability Theory and Its Applications, volume 1. John Wiley and Sons, New York, second edition, 1947.

    35. A.M. Ferrenberg, D.P. Landau, and Y. Joanna Wong. Monte carlo simu- lation: hidden errors from "good" random numbers generators. Physical Review Letters, 69:3382-3384, 1992.

    36. R.P. Feynman. Sta scherzando, Mr Feynman! Zanichelli, Bologna, 1992. 37. R.A. Fisher. Statistical Methods for Research Workers. Eighth, London,

    1941. 38. G.S. Fishman. Monte Carlo. Concepts, Algorithms, and Applications.

    Springer-Verlag, New York, 1996. 39. International Organization for Standardization (ISO). Guide to the ex-

    pression of uncertainty in measurement. Technical report, ISO, Ginevra, 1993.

    40. P. Galeotti. Probabilitci e Statistica. Levrotto e Bella, Torino, 1984. 41. G.T. Gillies. The newtonian gravitational constant: recent mesurement

    and related studies. Reports on Progress in Physics, 60:151-225, 1997. 42. B.V Gnedenko. The Theory of Probability. Mir, Mosca, 1976.

  • Bibliografia 489

    43. G.R. Grimmet and D.R. Stirzaker. Probability and Random Processes. Clarendon Press, Oxford, 1992.

    44. J.M. Hammersley and D.C. Handscomb. Monte Carlo Methods. Chapman and Hall, London, 1964.

    45. F. James. Monte carlo theory and practice. Reports on Progress in Physics, 43:1145-1189, 1980.

    46. F. James. A review of pseudorandom number generators. Computer Physics Communications, 60:329-344, 1990.

    47. F. James. Minuit reference manual. Technical Report CERN D506, CERN, Ginevra, 1992.

    48. F. James, Lyons L., and Y. Perrin (editori). Atti del "Workshop on confidence limits". Technical Report CERN 2000-005, CERN, Ginevra, 2000.

    49. K. Kacperski and A. Holyst. Phase transition and hysteresis in a cel- lular automata-based model of opinion formation. Journal of Statistical Physics, 84:168-189, 1996.

    50. H. Kahn. Use of different monte carlo sampling techniques. In H A . , Meyer, editor, Symposium on Monte Carlo Methods, pages 146-190. J.Wiley and Sons, New York, 1956.

    51. M.H. Kalos and P. Whitlock. Monte Carlo Methods, volume One : Basics. J.Wiley and Sons, New York, 1986.

    52. M. G. Kendall and A. Stuart. The Advanced Theory of Statistics, volume 11. Griffin, London, 1973.

    53. B.W. Kernighan and D.M. Ritchie. Linguaggio C. Jackson Libri, Milano, 1989.

    54. D.E. Knuth. The Art of Computer Programming, volume 2: Seminume- rical Algorithms, chapter 2. Addison-Wesley, Reading, second edition, 1981.

    55. J.R. Lamarsh. Nuclear Reactor Theory. Addison-Wesley, Reading (Mass.), 1966.

    56. M. Lybanon. Comment on "least squares when both variables have uncertainties". American Journal of Physics, 52:276-278, 1984.

    57. G Marsaglia, B. Narashimhan, and A. Zaman. A random number generator for pc's. Computer Physics Communications, 60:345-349,1990.

    58. A.M. Mood, F.A. Graybill, and D.C. Boes. Introduzione alla Statistica. McGraw-Hill Italia, Milano, 1991.

    59. B.J.T. Morgan. Elements of Simulations. Chapman and Hall, London, 1984.

    60. G. Morpurgo. Introduzione alla Fisica delle Partzcelle. Zanichelli, Bologna, 1992.

    61. J. Neyman. Outline of a theory of statistical estimation based on the classical theory of probability. Phil. Trans. Royal Society London, 236:333-380,1937.

  • 490 Bibliografia

    62. J. Orear. Least squares when both variables have uncertainties. American Journal of Physics, 50:912-916, 1982.

    63. A. Papoulis. Probabilztb, Variabili Aleatorie e Processi Stocastici. Boringhieri, Torino, 1977.

    64. P. Pedroni, A. Pievatolo, and A. Rotondi. Sito web del testo: http://www.springer.it/librilibro.asp?id=242. 2004.

    65. L. Piccinato. Metodi per le decision2 statistiche. Springer-Verlag Italia, Milano, 1996.

    66. W.H. Press, B.P. Flannery, S.A. Teukolsky, and W.T. Wetterling. Nu- merical Recipes: The Art of Scientific Computing. Cambridge University Press, Cambridge, second edition, 1992.

    67. R.D. Richmeyer and J. von Neumann. Statistical methods in neutron difision. In A.H. Taub, editor, John von Neumann collected works, volume V, pages 751-767. Pergamon Press, Oxford, 1963.

    68. B. Ripley. Stochastic Simulation. J.Wiley and Sons, New York, 1986. 69. C. P. Robert and G. Casella. Monte Carlo statistical methods. Springer

    Verlag, New York, 1999. 70. S.B. Ross. Simulation. Academic Press, Londra, second edition, 1996. 71. R.Y. Rubinstein. Simulation and Monte Carlo Method. J.Wiley and

    Sons, New York, 1981. 72. D. Ruelle. Caso e caos. Boringhieri, Torino, 1987. 73. Consorzio SCILAB. http://www.scilab.org. 74. A. I?. Seber and C. J:. Wild. Nonlinear regression. Wiley, New York,

    2003. 75. G.A.F. Seber and C.J. Wild. Nonlinear Regression. Wiley Interscience,

    New York, 1989. 76. M.R. Spiegel. Statistica. ETAS Libri, Milano, 1976. 77. I. Stewart. Dio gioca a dadi? Boringhieri, Torino, 1993. 78. R. Toral and A. Chakrabarti. Generation of gaussian distributed ran-

    dom numbers by using a numerical inversion method. Computer Physics Communications, 74:327-334, 1993.

    79. Collaborazione UA1. Experimental observations of lepton pairs of inva- riant mass around 95 gev/c at the cern sps collider. Physics Letters B, 126:398410, 1983.

    80. Collaborazione UA2. Evidence of z0 + e+e- at the cern collider. Physics Letters B, 129:130-140,1983.

    81. J. Voit. The Statistical Mechanics of Financial Markets. Springer-Verlag, Berlin, second edition, 2003.

  • lndice analitico

    accuratezza, 417, 420 - classi di, 418 - tavola di, 418, 434 aleatorio - sistema o processo, 2 algebra-u, 13, 14 algoritmo - del rigetto elementare, 261, 265 - del rigetto ottimizzato, 262, 265 - del rigetto pesato, 264, 266 - della trasf. inversa, 256 - di Box e Muller, 268 - di generazione, 253 - di generazione gaussiana, 270 - di generazione poissoniana, 272 - di Metropolis, 306 - di ricerca lineare, 267 approccio - bayesiano, 12, 31 - frequentista, 12, 176 astrologia, 108

    batch means, metodo delle, 297, 307 Bernoulli, J., 6, vedi distribuzione di best fit, 323, 376 bias, 196, 238, 331 bin, 42 Boltzmann, H. - costante di, 96 - distribuzione di, 96 - equazione di, 286 bootstrap - bzus, 282 - non parametrico, 280 - parametrico, 278, 429, 431 Buffon, conte di, 247

    campionamento - con reimmissione, 208 - definizione di, 9 - per importanza, 316

    - stratificato, 316 - tecniche di, 183 campione - analisi del, 217 - definizione di, 9, 61 caos, 2 caotico, fenomeno, 2 carta di controllo, 207 catene di Markov, 305 centro di massa, 288 coefficiente ' - R~ corretto, 402 - di determinazione, 401 - di variazione, 163 combinazioni, 24 confidenza - fascia di, 174 - intervallo di, 175 convergenza - in legge, 63 - in probabilit8, 63 - quasi certa, 63 convoluzione, 150, 446 copertura, 175 correlazione, 119, 377 - coefficiente di, 120, 134, 167, 238,

    244, 280, 379 - definizione di, 120 - funzione di, 378 - lineare, 380 - ricerca della, 401 correlazione multipla - coefficiente di, 402 correzione di Sheppard, 438 coseni direttori, 289 covarianza, 113, 116, 119, 162, 222 - campionaria, 238, 239 - tra parametri LS, 383 coverage, 175 Curtiss, L.F., 440

  • 492 lndice analitico

    curva di regressione (o di best fit), 376, 395

    dati epidemiologici, 29 decile, 41 densitii, vedi distribuzione - condizionata, 113 - congiunta, 112 - definizione di, 45, 51 - gaussiana bivariata, 137 - gaussiana condizionata, 129 - gaussiana standard, 78, 477 - marginale, 113 - stabile, 153 determinazione, coefficiente di, 401 devianza - totale, 401 deviazione standard - definizione di, 53, 55 - stima della, 197 diagnosi automatica, 31 diffusione - di neutroni, 286 - di particelle, 285 - elastics, 287 - lunghezza di, 292 disposizioni, 24 distribuzione, 37 - NP, a2), 80 - X2, 90, 197, 478 - binomiale o di Bernoulli, 46, 67, 105,

    219, 326 - campionaria, 211 - del coefficiente di correlazione, 240 - di Boltzmann, 96 - di Cauchy, 469 - di Erlang, vedi esponenziale negativa - di Maxwell, 95 - di Rayleigh, 138 - di Snedecor, 157, 216, 397, 479 - di Student, 155, 200, 478 - di von Mises, 322 - di Weibull, 88 - esponenziale negativa, 85 - gamma, 88, 147, 466 - gaussiana bivariata, 123, 137, 269 - gaussiana multivariata, 135, 141 - gaussiana o di Gauss, 72 - geometrica, 69, 86 - logaritmica, 427, 467 - logonormale, 465 - multinomiale, 140, 169, 219 - normale, vedi gaussiana

    - poissoniana o di Poisson, 70, 84, 364, 440

    - semi-gaussiana, 284 - studio Monte Carlo di una, 273 - triangolare, 152, 417, 425 - uniforme, 96, 433 disuguaglianza - di Cauchy-Schwarz, 119, 337 - di Tchebychev, 100, 203

    effetto - di trascinamento, 456 - farfalla, 4 - placebo, 452 efficienza - di generazione, 262 - di simulazione, 314 ellissi di concentrazione, 126, 136 energia delle molecole, 95 equazione - del bilancio dettagliato, 305 - del trasporto, 286 - di Boltzmann, 286 errore - barra di, 225, 376, 443 - casuale, vedi statistico - cifre significative dell', 180 - di I tipo, 210, 227, 357, 366, 453 - di I1 tipo, 211, 358, 364, 366 - di misura, 435 - di parallasse, 419 - massimo, 433 - percentuale, 426 - propagazione dell', 277, 422 - riaggiustamento dell', 405 - simulazione dell', 429, 432 - sistematico, 417, 418 - statistico, 171, 419, 432 - strumentale, vedi sistematico - sulla polarizzazione, 457 esperimenti indipendenti, 22 esperimento - definizione di, 9 - delle monete, 42, 50, 60, 69, 76, 228,

    250, 256, 350 - di Millikan, 449 estrapolazione, 400 eteroschedasticitii, 395 eventi - incompatibili, 20 - indipendenti, 19 evento, definizione di, 8

    falsificazione, 453

  • lndice analitico 493

    falso allarme, 207 fascia di confidenza, 174 fattore di distorsione, 196 Feigenbaum, M., 3 fenomeni - di attesa, 293 - stocastici, 84 Fermat, P., 6 Fermi, E., 248 Feynman, R., 451 Fisher, R.A., 325 - trasformazione di, 241 fluttuazione statistica, 49, 103, 211,

    220, 406 formula - della media pesata, 353 - di partizione dell'evento certo, 26 - di Stirling, 72 frequenza, 43, 180 - analisi della, 236 - cumulativa, 43 - di arrivo, 87 - di decadimento, 441 - di emissione, 84 - di una malattia, 233 - in un canale, 142 - limite della, 13 - misurata, 182, 194, 229 - osservata, 327 - sperimentale, 53 - test della, 232 - test di confronto, 213 funzione - cumulativa, 40, 80, 87 - degli errori, 80 - dell'apparato, 445 - di potenza, 365 - di ripartizione, vedi funz. cumulativa - di variabile aleatoria, 39 - dl verosimiglianza, 325 - generatrice (Mgf), 461 - test, 362

    Galilei, G., 413 Gauss, K., vedi distribuzione di gradi di liberth, 196, 235, 347 grandezza - costante, 415 - vaxiabile, 415

    incertezza, 415, vedi errore - sistematica. 415

    indice di rifrazione, 278 indipendenza - di eventi, 19 - di variabili, 39, 112, 113 - di variabili gaussiane, 126 - e correlazione, 120 - stocastica, 39 inferenza statistica, 9 informazione, 335 integrale - con metodo "vinci o perdi", 312 - con metodo della media (o grezzo),

    313 - di convoluzione, 150, 446 - di folding, 445 - multidimensionale, 320 interpolazione - lineare, 267 intervallo - di probabiliti , 103 - di confidenza, 173, 276 - di sensibilitk, 416 ipotesi . - alternativa, 357 - composte, 365 - nulla, 105, 210, 357 - semplice, 365 Ising, modello di, 308 isotropia, 258 istogramma, 42 - best fit di un, 347 - canale dell', 42, 44, 219 - delle frequenze, 43 - delle frequenze cumulative, 44 - normalizzato, 43

    Kolmogorov - probabilitk di, 13, 15 - disuguaglianza di, 64, 203

    Laplace, P.S., 6, 373 Legendre, A., 373 legge, 37, 45 - 3-sigma (3a), 78, 100, 138, 182, 225,

    432, 451 - dei grandi numeri, 13, 203 - di propagazione degli errori, 422 - empirica del caso, 13 - esponenziale negativa, 85 - ipergeometrica, 24 - logistics, 3 limite

    - statistica, 171 - di CramCr-Rao, 342

  • 494 lndice analitico

    - frequentista, 12, 62 - in probabilitb, 63 - inferiore (stima del), 176 - poissoniano, 191 - quasi certo, 63 - superiore (stima del), 176 live110 - del test, 210, 357 - di significativiti, 405 - di probabilitlt , 78, 136 - di confidenza. 173

    lotto di controllo, 363

    mappa logistics, 3 Markov - catene di, 305 matrice - dei pesi, 391 - del trasporto, 164, 165, 168 - delle covarianze, 133, 164, 165, 168 - delle derivate seconde, 410 - di correlazione, 134, 168 - di curvatura, 411 - positiva definita, 134 media - campionaria, 53, 61, 205 - campionaria (popolazione finita), 208 - come operatore, 58 - condizionata, 115 - definizione di, 53, 55 - di distribuzioni, 57 - di istogrammi, 54 - pesata, 353, 436 - stima della, 193, 198 - stimatore della, 62, 65 metodo - "vinci o perdin, 312 - dei minimi quadrati, 347, 374 - del gradiente, 409 - della griglia, 277 - della massima verosimiglianza, 325 - dello scarto massimo, 321 - di best fit, 323 - Monte Carlo, 247 - scientifico, 452 Millikan, R., 448 minimi quadrati - generali, 388 - metodo dei, 374 - pesati, 390 misura

    - definizione di, 9 - del decadimento radioattivo, 440 - del parametro di Michel, 456 - del tempo di caduta, 429 - della carica, 449 - della vel. della luce, 436 - errore di, 419 - indiretta, 421 - operazioni di, 414 - precisione della, 419 - tipi di, 433 momenti, 56, 196 Monte Carlo, metodo, 6, 98, 247

    neutroni termici, 286 - assorbimento dei, 287 - difisione elastica dei, 287 Neyman, J., 176 normalizzazione, 43

    omeopatia, 452 ortogonalizzazione, 389

    p-value, 211; 227, 405, 468 pararnetri - campionari, 53 - veri, 53 partizione dell'evento certo, 26 passeggiata a caso, 109 Pearson, K., 93 - teorema di, 93, 136 percentile, 41, 157, 220 percezione extrasensoriale, 214 perimetro toracico, 244, 385 pivot, quantitb, 178 Poincarh, H., 2 Poisson, vedi distribuzione di - processo di, 84 polarizzazione - misura della, 457 popolazione - definizione di, 9 - di un campione, 61 - tipi di, vedi densitlt, distribuzioni postulato di oggettivit8, 452 potenza - del test, 357 - funzione di, 365 pranoterapia, 452 precisione, 420 predittore, 374 - non osservato, 406 - osservato, 376 probabilita

  • lndice analitico 495

    - a priori, 12 - assiomatica, 13 - composta, 17 - condizionata, 18 - definizione di, 9 - frequentista, 12 - limite in, 63 - soggettiva, 11 - spazio di, 15 - stima della, 180, 184 - totali, 26 problema - dell'incontro, 34, 284 - di Monty, 33, 283 processo - di urto, 288 - stocastico, 288 processo di Poisson, 84 prova - definizione di, 9 - ripetuta, 20

    quantile, 41, 158, 217, 359, 478, 479 quantita pivotale, 178, 182, 200

    regione critica, 210, 357-359 regressione - curva dl, 376 - lineare, 130 - multipla, 388 residui, 382, 395 - pesati, 395 resistenze elettriche, 205 retta - dei minimi quadrati stimata, 380 - di regressione, 130, 379 - di regressione, prevista, 384 ricerca - binaria, vedi dicotomica - dicotomica, 254 - operativa, 293 - sequenziale, 254 risoluzione, vedi sensibilita risultati elettorali, 182 routine - Asimm, 469 - Bayes, 32 - Bootcor, 280 - Bootcor20, 282 - Bootrif, 279 - Buffon, 469 - Chisq, 228, 237 - Conguf, 150

    - Corcov, 117, 123 - Covardat, 134, 240 - Dadi, 255 - Detector, 470 - Ellisse, 470 - Gaussl, 469 - Gauss2, 270 - Gaussfit, 350 - Gridrif, 279 - HistSd, 131 - Histfreqe, 44, 255 - Histplote, 44 - Linfit, 375, 388, 389, 391, 399, 403 - Logiplot, 4 - Logist, 4 - Mcinteg, 314, 319, 321 - Mcintegl, 470 - MCmoneta, 249 - Metrop, 470 - Monetafit, 351 - Nlinfit, 350, 375, 407, 409, 411, 442 - Optasinc, 303, 304 - Optsinc, 298 - per la simulazione sincrona, 299 - Poiss, 272 - Pol2fit, 412 - PolSfit, 403 - Pol4fit, 399 - Prodxy, 427 - Rettamq, 412 - Rifraz, 274 - Scarti, 469 - Sequen, 370 - Sigdel, 426 - Simpoiss, 272 - Stasys, 425 - Stimvs, 203, 205 - Stiprob, 185 - Tabcont, 236 - TestZv, 217 - Vonmises, 470 routine SCILAB - binomial, 48 - cdfbin, 77, 185 - cdfchi, 94, 479 - cdff, 158, 217, 480 - cdfpoi, 107, 192 - cdft, 155, 478 - convol, 150 - correl, 244 - covar, 117, 244 - dsearch, 254 - erf, 80, 477

  • 496 lndice analitico

    - grand, 248, 268, 322 - histplote, 44 - mean, 57 - meanf, 57 - nand2med, 216 - rand, 248 - sum, 237 - variance, 57 - variancef, 57 - xbasc, 45

    scarto, 54 scarto quadratic0 medio, vedz

    deviazione standard scienza esatta, 414 SCILAB, 35 score function, 335 sensibilitb, 416 - intervallo di, 416 sezione d'urto macroscopica, 287 Sheppard, correzione di, 438 simulazione - asincrona, 294 - discreta, 294 - sincrona, 294 somme aleatorie, 292 spazio - campionario, 8 - di probabilitb, 15 speranza matematica, vedz valore atteso spettro - continuo, 39 - definizione di, 8, 40 - discreto, 39 statistics - definizione di, 62 - sufficiente, 331 statistiche congiuntamente sufficienti,

    332 statura, 244 stima, 62 - per intervalli, 342 stimatore, 62, 65, 172 - asintoticamente corretto, 196 - BAN, 342 - consistente, 330 - corretto, 66, 331 - della media, 65 - della varianza, 65 - distorto, 195 - non ammissibile, 337 - pih efficiente, 331 stocastico

    - sistema o processo, 2 stocastico, caso o fenomeno, 1 strumento - accuratezza di uno, 417 - analogico, 417 - digitale, 416 - sensibilitb di uno, 416

    tabella di contingenza, 232, 234 Tchebychev, P.L., disuguaglianza di,

    100 tempo - di arrivo, 85 - di caduta, 429 - morto, 85, 441 teorema - della z di Fisher, 240 - della media, 219 - della somma di Pearson, 141 - delle probabilit& composte, 18 - di additivitb, 16 - di additivitb del X2, 94 - di Bayes, .25, 27, 30 - di Cauchy-Schwarz, 119 - di Cram&-Rao, 336 - di DeMoivre-Laplace, 74 - di efficienza, 339 - di fattorizzazione, 332 - di Gauss-Markov, 393 - di indipendenza stocastica, 90 - di indipendenza tra media e varianza,

    198 - di Leibnitz, 145 - di Neyman-Pearson, 359 - di normalitb asintotica, 342 - di Pearson, 93, 226 - Limite Centrale, 82, 153 - sul cambiamento di variabile, 148 - sul campione di Metropolis, 306 - sull'indipendenza di variabili, 114,

    126 - sulla varianza campionaria, 199 - sulle forme quadratiche, 136 - sulle funzioni di parametri, 333 - sulle statistiche sufficienti, 333 - sulle stime corrette, 392 - sulle variabili cumulative, 97 test - X2, 127, 142, 225, 226, 230, 232, 235 - a doppio cieco, 452 - a due code, 106, 211, 227, 405 - a una coda, 106, 211, 227, 405 - della differenza, 212, 442

  • lndice analitico 497

    - delle cinghie, 237 - delle resistenze, 205 - di X2, 349 - di Neyman-Pearson, 359 - diagnostici, 27 - F di Snedecor, 217 - non parametrici, 231 - pih potente, 362 - potenza del, 357, 359 - randomizzato, 212, 363 - sequenziale, 368 - sui vaccini, 233 - uniformemente pih potente, 365

    Ulam, S., 248

    valore - atteso, 26, 50, 59, 68, 182, 221, 251 - campionario, 53 - sperimentale, 171 - vero, 53, 171 variabile - N ( p , a 2 ) , 80 - Z di Fisher, 240 - 6, 249 - x2 ridotto, 201 - aleatoria, 5, 36 - casuale, vedi v. aleatoria - continua, 40, 49 - cumulativa, 98, 253 - di Student, 154 - differenza, 212 - discreta, 40 - F di Snedecor, 156, 397 - indicatrice, 38 - poissoniana, 221 - prodotto, 163, 426 - standard, 79, 213, 451 - uniforme, 98, 256 variabili - indipendenti, 39, 112, 113 - stocasticamente indipendenti, 39 - vincolate, 136 varianza - analisi della, 401 - campionaria, 53, 62 - definizione di, 53, 55 - del prodotto, 163 - della media, 193 - della media (popolazione finita), 209 - di distribuzioni. 57

    - nel campionamento per importanza, 316

    - nel campionamento stratificato, 317 - percentuale o relativa, 163, 426 - stima della, 194, 198 - stimatore della, 61, 65 verifica - di ipotesi, 9 - di piti ipotesi, 356 - di una ipotesi, 210 verosimiglianza - funzione di, 325 - logaritmo della, 325 - massima, 325 - rapport0 di, 359 vertice, determinazione del, 412 von Mises - distribuzione di, 322 - probabilitb di, 1 2 Von Neumann, J., 248, 263

    - di istogrammi. 54

  • Unitext - Collana di statistica

    Adelchi Azzalini Francesco Battaglia Michele Cifarelli Klaus Haagen Ludovico Piccinato Elvezio Ronchetti

    Volumi pubblicati

    C. Rossi, G. Serio La metodologia statistica nelle applicazioni biomediche 1990,354 pp, ISBN 3-540-52797-4

    L. Piccinato Metodi per le decisioni statistiche 1996,492 pp, ISBN 3-540-75027-4

    A. Azzalini Inferenza statistica: una presentazione basata sul concetto di verosimiglianza 2a edizione 2000,382 pp, ISBN 88-470-0130-7

    E. Bee Dagum Analisi delle serie storiche: modellistica, previsione e scomposizione 2002,312 pp, ISBN 88-470-0146-3

  • B. Luderer, V. Nollau, K. Vetters er le scienze economiche

    2003,222 pp, ISBN 88-470-0224-9

    2004,242 pp, ISBN 88-470-0272-9

    edroni, A. Pievatolo ilit$ statistics e simulazione

    2a edizione N 88-470-0262-1 , ISBN 88-470-0081-5)