Vendite (Sales) in funzione della spesa pubblicitaria in TV, Radio … · 27 10.0 8 307.0 200 4376...
Transcript of Vendite (Sales) in funzione della spesa pubblicitaria in TV, Radio … · 27 10.0 8 307.0 200 4376...
Giovanni Latorre 1
TV Radio Newspaper Sales
1 230.1 37.8 69.2 22.1
2 44.5 39.3 45.1 10.4
3 17.2 45.9 69.3 9.3
4 151.5 41.3 58.5 18.5
5 180.8 10.8 58.4 12.9
6 8.7 48.9 75.0 7.2
7 57.5 32.8 23.5 11.8
8 120.2 19.6 11.6 13.2
9 8.6 2.1 1.0 4.8
10 199.8 2.6 21.2 10.6
11 66.1 5.8 24.2 8.6
12 214.7 24.0 4.0 17.4
13 23.8 35.1 65.9 9.2
14 97.5 7.6 7.2 9.7
15 204.1 32.9 46.0 19.0
16 195.4 47.7 52.9 22.4
17 67.8 36.6 114.0 12.5
18 281.4 39.6 55.8 24.4
19 69.2 20.5 18.3 11.3
20 147.3 23.9 19.1 14.6
21 218.4 27.7 53.4 18.0
Vendite (Sales) in funzione della spesa pubblicitaria in TV, Radio e Giornali (Newspaper)(Ads.xlsx)
Giovanni Latorre 2
Vendite (Sales) in funzione della spesa pubblicitaria in TV, Radio e Giornali (Newspaper)(Ads.xlsx)
G. Latorre 4
Diagramma di Dispersione: mpg vs (TV,Radio)e
Piano di Regressione: sales = 2.921 + 0.046 * TV + 0.188 * Radio ( R2 = 0.897 )
G. Latorre 5
Diagramma di Dispersione: mpg vs (TV,Radio)e
Piano di Regressione: sales = 2.921 + 0.046 * TV + 0.188 * Radio ( R2 = 0.897 )
mpg cylinders displacement horsepower weight acceleration year origin name
1 18.0 8 307.0 130 3504 12.0 70 1 chevrolet chevelle malibu
2 15.0 8 350.0 165 3693 11.5 70 1 buick skylark 320
3 18.0 8 318.0 150 3436 11.0 70 1 plymouth satellite
4 16.0 8 304.0 150 3433 12.0 70 1 amc rebel sst
5 17.0 8 302.0 140 3449 10.5 70 1 ford torino
6 15.0 8 429.0 198 4341 10.0 70 1 ford galaxie 500
7 14.0 8 454.0 220 4354 9.0 70 1 chevrolet impala
8 14.0 8 440.0 215 4312 8.5 70 1 plymouth fury
9 14.0 8 455.0 225 4425 10.0 70 1 pontiac catalina
10 15.0 8 390.0 190 3850 8.5 70 1 amc ambassador dpl
11 15.0 8 383.0 170 3563 10.0 70 1 dodge challenger se
12 14.0 8 340.0 160 3609 8.0 70 1 plymouth 'cuda 340
13 15.0 8 400.0 150 3761 9.5 70 1 chevrolet monte carlo
14 14.0 8 455.0 225 3086 10.0 70 1 buick estate wagon (sw)
15 24.0 4 113.0 95 2372 15.0 70 3 toyota corona mark
16 22.0 6 198.0 95 2833 15.5 70 1 plymouth duster
17 18.0 6 199.0 97 2774 15.5 70 1 amc hornet
18 21.0 6 200.0 85 2587 16.0 70 1 ford maverick
19 27.0 4 97.0 88 2130 14.5 70 3 datsun pl510
20 26.0 4 97.0 46 1835 20.5 70 2 volkswagen 1131 deluxe sedan
21 25.0 4 110.0 87 2672 17.5 70 2 peugeot 504
22 24.0 4 107.0 90 2430 14.5 70 2 audi 100 ls
23 25.0 4 104.0 95 2375 17.5 70 2 saab 99e
24 26.0 4 121.0 113 2234 12.5 70 2 bmw 2002
25 21.0 6 199.0 90 2648 15.0 70 1 amc gremlin
26 10.0 8 360.0 215 4615 14.0 70 1 ford f250
27 10.0 8 307.0 200 4376 15.0 70 1 chevy c20
28 11.0 8 318.0 210 4382 13.5 70 1 dodge d200
Dati Auto (Auto.xlsx)
mpg cylinders displacement horsepower weight acceleration year origin name
372 29.0 4 135.0 84 2525 16.0 82 1 dodge aries se
373 27.0 4 151.0 90 2735 18.0 82 1 pontiac phoenix
374 24.0 4 140.0 92 2865 16.4 82 1 ford fairmont futura
375 36.0 4 105.0 74 1980 15.3 82 2 volkswagen rabbit
376 37.0 4 91.0 68 2025 18.2 82 3 mazda glc custom l
377 31.0 4 91.0 68 1970 17.6 82 3 mazda glc custom
378 38.0 4 105.0 63 2125 14.7 82 1 plymouth horizon miser
379 36.0 4 98.0 70 2125 17.3 82 1 mercury lynx l
380 36.0 4 120.0 88 2160 14.5 82 3 nissan stanza xe
381 36.0 4 107.0 75 2205 14.5 82 3 honda accord
382 34.0 4 108.0 70 2245 16.9 82 3 toyota corolla
383 38.0 4 91.0 67 1965 15.0 82 3 honda
384 32.0 4 91.0 67 1965 15.7 82 3 honda civic (auto)
385 38.0 4 91.0 67 1995 16.2 82 3 datsun 310 gx
386 25.0 6 181.0 110 2945 16.4 82 1 buick
387 38.0 6 262.0 85 3015 17.0 82 1 oldsmobile cutlass ciera
388 26.0 4 156.0 92 2585 14.5 82 1 chrysler lebaron medallion
389 22.0 6 232.0 112 2835 14.7 82 1 ford granada l
390 32.0 4 144.0 96 2665 13.9 82 3 toyota celica gt
391 36.0 4 135.0 84 2370 13.0 82 1 dodge charger 2.2
392 27.0 4 151.0 90 2950 17.3 82 1 chevrolet camaro
393 27.0 4 140.0 86 2790 15.6 82 1 ford mustang gl
394 44.0 4 97.0 52 2130 24.6 82 2 vw pickup
395 32.0 4 135.0 84 2295 11.6 82 1 dodge rampage
396 28.0 4 120.0 79 2625 18.6 82 1 ford ranger
397 31.0 4 119.0 82 2720 19.4 82 1 chevy s-10
Dati Auto (Auto.txt)
Diagramma di Dispersione: mpg vs (weight , displacement)e
Piano di Regressione: mpg = 43.78 – 0.006 * weight – 0.016 * displacement ( R2 = 0.70 )
Diagramma di Dispersione: mpg vs (weight , displacement)e
Piano di Regressione: mpg = 43.78 – 0.006 * weight – 0.016 * displacement ( R2 = 0.70 )
G. Latorre 11
Diagramma di Dispersione: mpg vs (weight , displacement)e
Piano di Regressione: mpg = 43.78 – 0.006 * weight – 0.016 * displacement ( R2 = 0.70 )mpg Osservate
G. Latorre 12
Diagramma di Dispersione: mpg vs (weight , displacement)e
Piano di Regressione: mpg = 43.78 – 0.006 * weight – 0.016 * displacement ( R2 = 0.70 )mpg Osservate
G. Latorre 13
Diagramma di Dispersione: mpg vs (weight , displacement)e
Piano di Regressione: mpg = 43.78 – 0.006 * weight – 0.016 * displacement ( R2 = 0.70 )mpg Teoriche
G. Latorre 14
Diagramma di Dispersione: mpg vs (weight , displacement)e
Piano di Regressione: mpg = 43.78 – 0.006 * weight – 0.016 * displacement ( R2 = 0.70 )mpg Teoriche
G. Latorre 15
Diagramma di Dispersione: mpg vs (weight , displacement)e
Piano di Regressione: mpg = 43.78 – 0.006 * weight – 0.016 * displacement ( R2 = 0.70 )Residui
G. Latorre 16
Diagramma di Dispersione: mpg vs (weight , displacement)e
Piano di Regressione: mpg = 43.78 – 0.006 * weight – 0.016 * displacement ( R2 = 0.70 )Residui
Estensione Multivariata del Modello Lineare
Su n unità statistiche sono state rilevate le variabili X1 , X2 ed
Y. Sulla base dei dati rilevati, cioè le n triple (x1i , x2i , yi )
(i=1,…n), si vogliono stimare i parametri del modello lineare :
Y* = a + b X1 + c X2
Se le variabili X1 , X2 ed Y fossero effettivamente legate dalla
relazione lineare appena descritta in corrispondenza delle n
coppie (x1i , x2i) otterremmo i seguenti valori teorici di Y :
y*1 = a + b x11+ c x21
y*2 = a + b x12 + c x22
…………………..…….
y*n = a + b x1n + c x2n
mentre le yi (i=1,n) sono i valori osservati della Y.G. Latorre 17
Determineremo ora i parametri incogniti a, b e c in modo che
sia minimizzata la somma dei quadrati delle differenze (
yi – y*i ):
Per determinare i valori di a’, b’ e c’ che rendano minima S
dobbiamo derivare la funzione f(a,b,c) rispetto ad a, b e c,
uguagliare a zero le derivate parziali e risolvere il sistema di I°
grado che si ottiene, avente incognite a, b e c. Per verificare
che le soluzioni a’, b’e c’ che si otterranno minimizzino S basti
considerare che f(a,b,c) è una funzione di secondo grado tale
f(a,b,c) ≥ 0.G. Latorre 18
0=xxc-xb-a-y(-2)
0=xxc-xb-a-y(-2)
0=xc-xb-a-y(-2)
n
=1i
2i2i1i1
n
=1i
1i2i1i1
n
=1i
2i1i1
Uguagliando a zero le due derivate parziali avremo il Sistema
Normale:
n
=1i
i2i
n
=1i
2
2i
n
=1i
1i2i
n
=1i
2i
n
=1i
i1i
n
=1i
2i1i
n
=1i
2
1i
n
=1i
1i
n
=1i
i
n
=1i
2i
n
=1i
1i
yx=xc+xxb+xa
yx=xxc+xb+xa
y=xc+xb+na
Sistema Normale:
G. Latorre 22
G. Latorre 23
𝑖=1
𝑛
𝑒𝑖 = 0
𝑖=1
𝑛
𝑒𝑖𝑥1𝑖 = 0
𝑖=1
𝑛
𝑒𝑖𝑥2𝑖 = 0
𝑖=1
𝑛
𝑦𝑖 − 𝑦𝑖′ = 0
𝑖=1
𝑛
𝑦𝑖 − 𝑦𝑖′ 𝑥1𝑖 = 0
𝑖=1
𝑛
𝑦𝑖 − 𝑦𝑖′ 𝑥2𝑖 = 0
𝑖=1
𝑛
𝑦𝑖 − 𝑎′ − 𝑏′𝑥1𝑖 − 𝑐′𝑥2𝑖 = 0
𝑖=1
𝑛
𝑦𝑖 − 𝑎′ − 𝑏′𝑥1𝑖 − 𝑐′𝑥2𝑖 𝑥1𝑖 = 0
𝑖=1
𝑛
𝑦𝑖 − 𝑎′ − 𝑏′𝑥1𝑖 − 𝑐
′𝑥2𝑖 𝑥2𝑖 = 0
⟹
n
=1i
i2i
n
=1i
2
2i
n
=1i
1i2i
n
=1i
2i
n
=1i
i1i
n
=1i
2i1i
n
=1i
2
1i
n
=1i
1i
n
=1i
i
n
=1i
2i
n
=1i
1i
yx=xc+xxb+xa
yx=xxc+xb+xa
y=xc+xb+na
⟹
Per semplificare la soluzione del sistema normale si
considerino gli scarti:
Z1i = x1i - M(X1)
Z2i = x2i - M(X2)
Il modello basato sugli scarti è:
Y = A + B Z1 + C Z2
Analogamente al sistema normale già ottenuto sarà:
G. Latorre 24
n
=1i
i2i
n
=1i
2
2i
n
=1i
1i2i
n
=1i
2i
n
=1i
i1i
n
=1i
2i1i
n
=1i
2
1i
n
=1i
1i
n
=1i
i
n
=1i
2i
n
=1i
1i
yz=zC+zzB+zA
yz=zzC+zB+zA
y=zC+zB+nA
G. Latorre 25
ma:
0=)M(X-x=z
0=)M(X-x=z
n
=1i
22i
n
=1i
2i
n
=1i
11i
n
=1i
1i
quindi:
n
=1i
i2i
n
=1i
2
2i
n
=1i
2i1i
n
=1i
i1i
n
=1i
2i1i
n
=1i
2
1i
n
=1i
i
yz=zC+zzB
yz=zzC+zB
y=nA
G. Latorre 26
Inoltre:
quindi:
ed analogamente:
ma anche: n
=1i
2i1i21 zzn
1=)X,Cov(X
n
i
ii
n
i
ii
yzn
YXCov
yzn
YXCov
1
22
1
11
1),(
1),(
n
i
ii
n
i
ii
i
n
i
n
i
ii
n
i
ii
yzn
yXMxn
YMXMxn
yXMxn
YMyXMxn
YXCov
1
1
1
11
11
11
11
1
111
1)]([
1
)()]([1
)]([1
)]()][([1
),(
G. Latorre 27
Tenendo conto anche che:
la precedente versione del sistema normale, dopo aver diviso i
primi ed i secondi membri delle tre equazioni per n può essere
riscritta come segue:
che è un sistema in due incognite B’ e C’, che possiamo
risolvere nel modo usuale:
n
=1i
2
2i2
n
=1i
2
1i1
zn
1=)V(X
zn
1=)V(X
Y),Cov(X=)V(XC+)X,Cov(XB
Y),Cov(X=)X,Cov(XC+)V(XB
M(Y)=A
2221
1211
G. Latorre 28
¢B =
Cov(X1,Y) Cov(X1,X2)
Cov(X2,Y) V(X2)
V(X1) Cov(X1,X2)
Cov(X1,X2) V(X2)
=
=Cov(X1,Y) ×V(X2) -Cov(X1,X2) ×Cov(X2,Y)
V(X1) ×V(X2) -Cov(X1,X2)2
G. Latorre 29
Abbiamo determinato i parametri del modello scritto in
funzione delle variabili scarto: Y’ = A’ + B’ Z1 + C’ Z2
¢C =
V(X1) Cov(X1,Y)
Cov(X1,X2) Cov(X2,Y)
V(X1) Cov(X1,X2)
Cov(X1,X2) V(X2)
=
=V(X1) ×Cov(X2,Y) -Cov(X1,X2) ×Cov(X1,Y)
V(X1) ×V(X2) -Cov(X1,X2)2
G. Latorre 30
Ma:
Y’ = A’ + B’ [ X1 – M(X1)] + C’ [ X2 – M(X2)]
ovvero:
Y’ = [ A’ – B’ M(X1) – C’ M(X2) ] + B’ X1 + C’ X2
che confrontato con:
Y’ = a’ + b’ X1 + c’ X2
porta alle seguenti uguaglianze:
b’ = B’
c’ = C’
a’ = A’ – B’ M(X1) – C’ M(X2) ,G. Latorre 31
G. Latorre 32
¢b =Cov(X1,Y)V(X2 )-Cov(X1, X2 )Cov(X2,Y)
V(X1)V(X2 )-Cov(X1, X2 )2
¢c =Cov(X2,Y)V(X1)-Cov(X1, X2 )Cov(X1,Y)
V(X1)V(X2 )-Cov(X1, X2 )2
¢a = M (Y)- ¢bM (X1)- ¢cM (X2 )
quindi:
Avendo stimato i parametri del modello multivariato rimane
da valutare la bontà dell’adattamento mediante il calcolo di
R2=V(Y’)/V(Y) e con l’Analisi dei Residui. Si noti, infine, che
la generalizzazione al case di tre variabili esplicative (X1, X2,
X3 ) si reallizza facilmente con l’estensione della metodologia
sin qui esposta.
G. Latorre 33
Proprietà del Piano di Regressione:
E’ facile verificare che il Piano di Regressione soddisfa, in
analogia, le stesse proprietà della Retta di Regressione. Cioè:
1) Se le triple di valori osservati (x1i , x2i , yi ) soddisfano la
relazione Y = d + e X1 + f X2 allora il Piano di
Regressione avrà equazione Y’ = a + b X1 + c X2 con
a = d, b = e, c = f.
2) Definiti residui le differenze tra i valori osservati yi ed i
valori teorici y’i della Y, cioè ei = (yi – y’
i) avremo:
n
=1i
2
ii minimo=y-y
G. Latorre 34
3) La media dei residui è nulla, cioè M(e) = 0, perché la
somma dei residui è nulla, cioè:
La varianza, invece, è pari a:
4) Il Piano di Regressione passa per il baricentro dei dati.
.
G. Latorre 35
Misura della bontà dell’adattamento
Anche nel caso della Regressione Multipla, poiché è facile
verificare che è ancora valida la scomposizione della varianza:
V(Y) = V(Y’) + V(e)
Infatti dalla I^ equazione normale si ha che:
a’ + b’ M(X1) + c’ M(X2) = M(Y)
ma
yi’ = a’ + b’ x1i + c’ x2i
quindi
M(Y’) = a’ + M(X1) + c’ M(X2) = M(Y)
M(e) = M(Y – Y’) = 0.
G. Latorre 36
Inoltre:
=
𝑖=1
𝑛
𝑦𝑖 − 𝑎′ − 𝑏′𝑥1𝑖 − 𝑐
′𝑥2𝑖 𝑥1𝑖 =
per la II^ equazione normale.
𝑖=1
𝑛
𝑒𝑖 𝑥1𝑖 =
𝑖=1
𝑛
𝑦𝑖 − 𝑦𝑖′ 𝑥1𝑖 =
=
𝑖=1
𝑛
𝑦𝑖 𝑥1𝑖− 𝑎′𝑥1𝑖 − 𝑏
′𝑥1𝑖2 − 𝑐′𝑥1𝑖 𝑥2𝑖 =
=
𝑖=1
𝑛
𝑦𝑖 𝑥1𝑖 − 𝑎′
𝑖=1
𝑛
𝑥1𝑖 − 𝑏′
𝑖=1
𝑛
𝑥1𝑖2 − 𝑐′
𝑖=1
𝑛
𝑥1𝑖 𝑥2𝑖 = 0
Analogamente per la III^ equazione normale avremo:
Quindi:
G. Latorre 37
𝑖=1
𝑛
𝑒𝑖 𝑥2𝑖 = 0
M(Y)-yy-y 2+
+M(Y)-y+yy=
=M(Y)-y+y-y=
=y-y+M(Y)-y=M(Y)-y
i
n
=1i
ii
n
=1i
2
i
n
=1i
2
ii
n
=1i
2
iii
n
=1i
iii
n
=1i
2
i
'
2
G. Latorre 38
Ma:
quindi:
in conclusione:
𝑖=1
𝑛
𝑒𝑖 𝑦𝑖′ −𝑀 𝑌 =
𝑖=1
𝑛
𝑒𝑖 𝑦𝑖′ =
=
𝑖=1
𝑛
𝑒𝑖 𝑎′ + 𝑏′𝑥1𝑖 + 𝑐
′𝑥2𝑖 = 0
n
=1i
2
ii
n
=1i
2
i
n
=1i
2
i
y-y+M(Y)-y=
=M(Y)-y
V(Y) =V(Y ')+V(e)
G. Latorre 39
Pertanto anche nella Regressione Multipla la bontà
dell’adattamento è ancora misurata dal coefficiente di
determinazione:
R2=V(Y’)/V(Y).
G. Latorre 40
quindi sommando i tre addendi e dividendo ciascuno di essi
per n otteniamo:
=1
𝑛
𝑖=1
𝑛
𝑎′ + 𝑏′𝑥1𝑖 + 𝑐′𝑥2𝑖 − 𝑎
′ − 𝑏′𝑀 𝑥1𝑖 − 𝑐′𝑀 𝑥2𝑖2 =
Nota per il modello stimato y’i = a’+ b’ x1i + c’ x2i si ha che:
41
X1 X2 Y X1 X2 Y
16 10 588 5 5 259
15 14 620 16 16 634
16 15 628 6 12 386
9 9 413 11 11 462
13 2 422 13 7 484
12 3 402 15 3 469
6 7 299 9 11 405
6 16 365 6 3 234
17 10 625 6 7 290
12 0 375 5 8 246
15 14 614 5 5 234
6 4 262 11 11 442
6 0 226 6 11 327
17 4 525 7 15 390
15 2 460 13 9 472
8 3 285 5 4 236
16 3 474 10 9 446
15 4 453 13 11 510
9 0 278 17 4 530
17 7 572 14 11 558
9 13 437 15 12 579
8 4 288 16 2 475
16 9 563 15 5 464
7 17 410 15 5 485
17 10 619 11 16 500
X1 = anni di scolarità
del candidato;
X2 = anni di scolarità
del del padre del
candidato;
Y = punteggio del
test dei 50 candidati
G. Latorre
M(X1)= 11,36 MEDIA()
M(X2)= 7,86 “
M(Y)= 434,40 “
V(X1)= 17,79 VAR.P()
V(X2)= 22,60 “
V(Y)= 14.890,84 “
Cov(X1,Y)= 455,88 P.COVARIANZA( ; )
Cov(X2,Y)= 266,54 “
Cov(X1,X2)= 0,35 “
r(X1,Y)^2= 0,78 RQ( ; )
r(X2,Y)^2= 0,21 “
r(X1,X2)^2= 0,00 “
r(X1,Y)= 0,89 RADQ()
r(X2,Y)= 0,46 “
r(X1,X2)= 0,02 “
A'= 434,40 …
B'= 25,40 …
C'= 11,40 …
a'= 56,25 REGR.LIN( ; )
b'= 25,40 …
c'= 11,40 …G. Latorre 42
Y' e=Y-Y' Y' e=Y-Y'
576,65 11,35 240,25 18,75
596,85 23,15 645,05 -11,05
633,65 -5,65 345,45 40,55
387,45 25,55 461,05 0,95
409,25 12,75 466,25 17,75
395,25 6,75 471,46 -2,46
288,45 10,55 410,25 -5,25
391,05 -26,05 242,85 -8,85
602,05 22,95 288,45 1,55
361,06 13,94 274,45 -28,45
596,85 17,15 240,25 -6,25
254,25 7,75 461,05 -19,05
208,65 17,35 334,05 -7,05
533,66 -8,66 405,05 -15,05
460,06 -0,06 489,05 -17,05
293,65 -8,65 228,85 7,15
496,86 -22,86 412,85 33,15
482,85 -29,85 511,85 -1,85
284,85 -6,85 533,66 -3,66
567,85 4,15 537,25 20,75
433,05 3,95 574,05 4,95
305,05 -17,05 485,46 -10,46
565,25 -2,25 494,25 -30,25
427,85 -17,85 494,25 -9,25
602,05 16,95 518,05 -18,05
Y stimate, Y’, e
residui, e, del
modello stimato:Y’=56,25+25,40X1+
+11,40X2;
V(Y)=14.890,84;
V(Y’)+V(e)=
14.617,8+254,54 =
= 14.872,34;
R2 = V(Y’)/V(Y) =
= 0,98.
Proseguiamo con
l’analisi dei
residui.G. Latorre 43
L’ulteriore estensione del modello lineare al caso di tre
variabili esplicative, X1, X2 e X3 è una semplice
generalizzazione di quanto visto nei casi di una sola e di due
variabili esplicative. Avremo:
Y* = a + b X1 + c X2 + d X3
Per stimare i parametri incogniti a, b, c e d si adopera sempre
il metodo dei minimi quadrati basato sulla minimizzazione
della funzione:
n
i
iiii
n
i
ii dxcxbxayyyS1
2
321
1
2*
ed il risultato è il sistema normale nella forma usuale:
G. Latorre 47
n
=1i
i3i
n
=1i
2
3i
n
=1i
3i2i
n
=1i
3i1i
n
=1i
3i
n
=1i
i2i
n
=1i
3i2i
n
=1i
2
2i
n
=1i
2i1i
n
=1i
2i
n
=1i
i1i
n
=1i
3i1i
n
=1i
2i1i
n
=1i
2
1i
n
=1i
1i
n
=1i
i
n
=1i
3i
n
=1i
2i
n
=1i
1i
yx=xd+xxc+xxb+xa
yx=xxd+xc+xxb+xa
yx=xxd+xxc+xb+xa
y=xd+xc+xb+a n
che risolto porta alle usuali formulazioni per a’, b’, c’ e d’.G. Latorre 48