3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

77
AFFIDABILITA’ E CONTROLLO DI QUALITA’ L-A Peretto ELEMENTI DI METROLOGIA La misura è un processo con cui si stabilisce una corrispondenza univoca tra tutte le grandezze di una certa classe e tutti i numeri. Il risultato della misura è inevitabilmente un numero. In Misure Elettriche quasi tutte le grandezze di cui ci si occupa sono “grandezze fisiche” e la loro grandezza è misurabile utilizzando una scala di rapporti. DEF: La misura di una grandezza è il rapporto fra la grandezza considerata ed un’altra, ad essa omogenea, assunta come unità di misura. Un qualunque strumento di misura ha un campione per confrontarlo con l’ingresso. Un sistema di unità di misura è il complesso delle unità di tutte le grandezze fisiche, o di quelle che servono in un particolare settore. La scelta di un’unità di misura di una grandezza è, in linea di principio, arbitraria. I sistemi di misura si suddividono in: incoerenti: tutte le unità di misura vengono scelte arbitrariamente coerenti: vengono assunte come fondamentali soltanto le unità di alcune grandezze e le altre sono da esse derivate Un sistema, prima di essere proposto, deve definire un campione con i seguenti requisiti : assolutezza: la grandezza fisica che il campione rappresenta non deve dipendere dal luogo in cui il campione stesso si trova (es. il peso non lo è) stabilità: un campione deve risultare invariante nel tempo: a breve termine (influenzata soprattutto dalla temperatura) a lungo termine (influenzata da modificazioni strutturali con cui il campione è stato realizzato) riproducibilità: un campione deve essere disseminabile. Occorre avere la possibilità di realizzare delle copie di un campione. Classificazione dei campioni: naturali: è un’entità esistente e ben individuabile in natura (es. lunghezza d’onda) materiali (o artificiali): è un oggetto costruito dall’uomo (es. regolo) primari: sono caratterizzati dal minimo livello di incertezza consentito dalla tecnica metrologica (se degli strumenti devono essere ritarati vengono portati nei laboratori e confrontati con i campioni primari) . Attraverso una molteplicità di misure e confronti con i diversi laboratori si definisce il minimo livello di incertezza per i campioni primari. secondari: sono campioni tarati mediante confronto con i campioni primari Il Sistema Internazionale (SI) fu scelto nel 1946 con entrata in vigore il 1 gennaio 1948. E’ un sistema coerente con 7 grandezze fondamentali (e 2 supplementari: angolo piano e angolo solido): 1- METRO (1983) : il metro è la distanza percorsa dalla luce nel vuoto in una frazione di secondo pari a 1:299.792.458. La sua unità di misura è definita tramite quella del tempo. 1

Transcript of 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

Page 1: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

AFFIDABILITA’ E CONTROLLO DI QUALITA’ L-APerettoELEMENTI DI METROLOGIA

La misura è un processo con cui si stabilisce una corrispondenza univoca tra tutte le grandezze diuna certa classe e tutti i numeri.Il risultato della misura è inevitabilmente un numero.In Misure Elettriche quasi tutte le grandezze di cui ci si occupa sono “grandezze fisiche” e la lorograndezza è misurabile utilizzando una scala di rapporti.DEF: La misura di una grandezza è il rapporto fra la grandezza considerata ed un’altra, ad essaomogenea, assunta come unità di misura.Un qualunque strumento di misura ha un campione per confrontarlo con l’ingresso.

Un sistema di unità di misura è il complesso delle unità di tutte le grandezze fisiche, o di quelleche servono in un particolare settore.La scelta di un’unità di misura di una grandezza è, in linea di principio, arbitraria.I sistemi di misura si suddividono in:

• incoerenti: tutte le unità di misura vengono scelte arbitrariamente• coerenti: vengono assunte come fondamentali soltanto le unità di alcune grandezze e le altre

sono da esse derivate

Un sistema, prima di essere proposto, deve definire un campione con i seguenti requisiti:• assolutezza: la grandezza fisica che il campione rappresenta non deve dipendere dal luogo

in cui il campione stesso si trova (es. il peso non lo è)• stabilità: un campione deve risultare invariante nel tempo:

• a breve termine (influenzata soprattutto dalla temperatura)• a lungo termine (influenzata da modificazioni strutturali con cui il

campione è stato realizzato)• riproducibilità: un campione deve essere disseminabile. Occorre avere la possibilità di

realizzare delle copie di un campione. Classificazione dei campioni:

• naturali: è un’entità esistente e ben individuabile in natura (es. lunghezza d’onda)• materiali (o artificiali): è un oggetto costruito dall’uomo (es. regolo)

• primari: sono caratterizzati dal minimo livello di incertezza consentito dalla tecnicametrologica (se degli strumenti devono essere ritarati vengono portati nei laboratori econfrontati con i campioni primari) . Attraverso una molteplicità di misure e confronti con idiversi laboratori si definisce il minimo livello di incertezza per i campioni primari.

• secondari: sono campioni tarati mediante confronto con i campioni primari

Il Sistema Internazionale (SI) fu scelto nel 1946 con entrata in vigore il 1 gennaio 1948. E’ unsistema coerente con 7 grandezze fondamentali (e 2 supplementari: angolo piano e angolo solido):

1- METRO (1983) : il metro è la distanza percorsa dalla luce nel vuoto in una frazione disecondo pari a 1:299.792.458. La sua unità di misura è definita tramite quella del tempo.

1

Page 2: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

2- CHILOGRAMMO (1901) : il chilogrammo è la massa del prototipo internazionaleconservato al Pavillon de Breteuil (Sevres). Il prototipo costituisce il campione materiale ela sua incertezza è nulla per definizione, mentre quella con cui si possono confrontare lecopie è oggi dell’ordine di 10-9. Verrà sostituito da un campione naturale.

3- SECONDO (1967) (il più importante) : il secondo è il tempo corrispondente a9.192.631.770 periodi della radiazione corrispondente alla transizione iperfina da (F=4,MF=0) a (F=3, MF=0) dell’atomo di Cesio 133, non perturbata da campi esterni. Concettodel trigger (conta colpi) .

La riproducibilità dei campioni naturali basati su questa definizione è dell’ordine di 10-14 ,molto superiore a qualsiasi altro campione.

4- CORRENTE ELETTRICA (1948) : l’ampere è definito come l’intensità di una correnteelettrica costante la quale, mantenuta in 2 conduttori paralleli, rettilinei, di lunghezzainfinita, di sezione trascurabile e posti alla distanza di un metro uno dall’altro, nel vuoto,produrrebbe tra questi conduttori una forza uguale a 2x10-7 newton per metro di lunghezza.

5- TEMPERATURA : il Kelvin K è pari a 1:273,16 la temperatura termodinamica del puntotriplo dell’acqua. Punto triplo dell’acqua:

Esiste un’unica condizione di temperatura e pressione in cui si trovano tutti e 3 gli statidell’acqua (aeriforme, solido, liquido). Questo punto è stabile ovunque venga effettuata lamisura -> assoluto -> campione. La scala Celsius è attualmente definita dalla relazione: t = T- 273,16.

2

Page 3: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

6- INTENSITA’ LUMINOSA : la candela (cd) è l’intensità luminosa in una data direzionedi una sorgente che emette una radiazione monocromatica di frequenza 540x1012 Hz(λ=0,555μm) e la cui intensità energetica in quella direzione è 1/683 watt allo steradiante(sr). Lo steradiante è l’angolo solido dove faccio passare la luce. Alcuni derivati dellacandela:- flusso luminoso (lumen lm = cd x sr) : quantità di luce emessa da una sorgente- luminanza (nit nt = cd x m-2 ) : intensità luminosa di una sorgente per unità di superficie- illuminamento (lux = lm / m-2 ) : quantità di luce incidente su una superficie per unità diarea

7- QUANTITA’ DI SOSTANZA: la mole è la quantità di sostanza di un sistema che contienetante entità quanti sono gli atomi in 0.012 Kg di carbonio 12. Il numero di entità elementaricosì definito è pari al numero di Avogadro (N≈6,022 x 1023 mol-1 ). Esso non vieneesplicitamente espresso per non condizionare, con un valore convenzionale affetto danotevole incertezza (stimata intorno a 5ppm (parti per milione=10-5, mentre i confronti framasse danno luogo ad incertezze non superiori a 10-8 ) l’utilizzazione di migliorideterminazioni cui si pensa di poter pervenire in futuro.

3

Page 4: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

INCERTEZZE DI MISURA E LORO ESPRESSIONE

La misura di una grandezza X è costituita da un numero x (stima del valore del misurando), daun’incertezza u(x) (indica la qualità con cui la misura è stata effettuata)e da un’unità di misura[U].

]))[(( Uxux ±Non è possibile ottenere il valore vero del misurando come risultato di una misura perché nelprocesso di misura intervengono eventi aleatori e sistematici. In un processo di misura agiscono 5 elementi principali:

- il misurando: l’oggetto fisico di cui vogliamo misurare una certa proprietà- il campione: il valore di riferimento per la proprietà che vogliamo andare a misurare- il metodo: la tecnica con cui vogliamo misurare la proprietà del parametro- lo strumento: l’oggetto che implementa il metodo di misura- l’operatore

Ognuno di questi elementi (grandezze di influenza) contribuisce a rendere il risultato della misuradiverso dal valore “vero”, consegue che ripetendo la misura si ottengono risultati differenti(dispersione dei risultati).Le cause possono essere:

- sistematiche: ripetendo la misura agiscono allo stesso modo- casuali: ripetendo la misura agiscono in modo differente e, complessivamente, tendono a

compensarsiEsprimere il risultato della misura con un solo numero sarebbe privo di significato: non sarebbepossibile confrontare fra di loro misure della stessa quantità in quanto si avrebbero ovviamentenumeri diversi.Per esprimere questa dispersione, fino a qualche anno fa la “bontà” di una misura veniva espressaattraverso il concetto di “errore”: sia X la grandezza da misurare, x il valore misurato e xv il valorevero, l’errore assoluto ΔX è dato da:

vxxX −=∆Ma non ci si può riferire ad un “valore vero” se questo non è ricavabile dal processo di misura, se losi conoscesse non si farebbero misure!Parlare di errori quindi è concettualmente sbagliato.Resta però il problema di sapere con quale approssimazione la misura stimi il valore del misurando.Siccome la misura è importante dal punto di vista legale, per confrontare le varie misure c’è bisognodell’incertezza.Il concetto di incertezza è stato introdotto (solo recentemente) allo scopo di definire un parametroche dia una valutazione quantitativa della qualità di una misura, parametro che, associato alrisultato di una misura, caratterizza la dispersione dei valori che ragionevolmente possono essereattribuiti al misurando.La valutazione quantitativa avviene definendo un intervallo di confidenza, cioè un intervalloall’interno del quale cadano, con un dato livello di confidenza, gran parte dei valoriragionevolmente attribuibili al misurando. L’incertezza di misura viene quindi definita in terminiprobabilistici perché non è detto che l’intervallo contenga il valore del parametro.L’incertezza viene normalmente espressa dalla semiampiezza di tale intervallo:

La valutazione dell’incertezza non può ovviamente essere lasciata alla libera iniziativa di ognuno.La ISO (International Organization for Standardization) ha emesso nel 1993 la “Guide to theexpression of Uncertainly in Measurement” (GUM) che nel seguito è stata fatta propria dalle normenazionali di molti paesi (in Italia UNI-CEI 13006). Essa fornisce le definizioni dei termini utilizzati

4

Page 5: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

per indicare la dispersione dei risultati e indica le regole per calcolare ed esprimere correttamentel’incertezza di misura.Il risultato di una misura viene trattato come una variabile aleatoria. L’incertezza è quindi espressa da uno scarto tipo σ (standard deviation) o da un suo multiplo. Loscarto tipo rappresenta la variabilità, e quindi la dispersione, di una certa grandezza aleatoria.Il livello di confidenza corrispondente dipende dal tipo di distribuzione di probabilità.

In base alla metodologia con la quale le incertezze vengono valutate, queste si dividono in:- incertezze di tipo A- incertezze di tipo B

Si definiscono incertezze di tipo A quelle che vengono valutate mediante l’applicazione di tecnichestatistiche, cioè a partire dalla distribuzione statistica dei risultati di un numero significativo dimisure. L’incertezza è data dallo scarto tipo della distribuzione. Il parametro di un certo sistemaviene tipicamente valutato praticando più volte il processo di misura e ottenendo risultati diversi. Lamisura sarà più significativa, più sono le misure che vengono effettuate.

Questo tipo di procedimento non è pratico (non si ha la possibilità di ripetere milioni di volte lastessa misura), si fa come nei laboratori di taratura.Si definiscono incertezze di tipo B quelle che vengono valutate mediante l’applicazione di tecnichenon statistiche. In questo tipo di analisi la distribuzione di probabilità viene ipotizzata sulla basedell’esperienza o di altre informazioni. È il caso delle specifiche di uno strumento. Anche in questocaso l’incertezza viene espressa dallo scarto tipo.

Incertezze di tipo u(x) (standard uncertainly): incertezza del risultato x espressa come scarto tipo.

Incertezza estesa U(x) (expanded uncertainly): grandezza che definisce, attorno al risultato, unintervallo che si ritiene contenga gran parte della distribuzione dei valori che possono essereragionevolmente attribuiti all’incertezza.Per poter associare all’incertezza estesa una certa probabilità occorre conoscere o ipotizzare ladistribuzione di probabilità.

Fattore di copertura K (coverage factor): fattore numerico utilizzato come moltiplicatoredell’incertezza tipo per ottenere l’incertezza estesa.Esistono 2 forme per scrivere l’incertezza di misura:

- in valore assoluto (stessa unità di misura del misurando)- in valore relativo (grandezza adimensionale, può essere espressa in p.u., ppm,

percentuale…)

Il numero di cifre significative di una grandezza si ottiene contando, da sinistra verso destra, tutte lecifre a partire dalla prima cifra diversa da zero, indipendentemente dalla posizione della virgola.

5

Page 6: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

Nelle misure dirette il valore del misurando viene determinato mediante strumenti appositamentecostruiti e tarati (voltmetri, frequenzimetri…). L’incertezza è calcolata in base alle specifiche fornitedal costruttore dello strumento.Negli strumenti elettromeccanici le specifiche sono espresse da un unico indice chiamato indice diclasse (c). L’indice di classe è espresso come una percentuale del fondo scala : si ha quindiun’incertezza assoluta costante lungo tutta la scala. L’incertezza relativa aumenta man mano che cisi allontana dal fondo scala.Negli strumenti digitali, invece, le specifiche di accuratezza sono normalmente espresse da 2 indici:

- uno (es. α) fornisce un’incertezza costante in valore relativo- l’altro (es. β) una costante in valore assoluto

βα +xconα percentuale della letturaβ percentuale del fondo scala

Osservazione: il numero di cifre fornite dallo strumento è sovrabbondante rispetto all’incertezza.

Nelle misure indirette il valore del misurando viene determinato sfruttando relazioni esistenti congrandezze misurate direttamente.Sia y il risultato di una misura dipendente da N misure xi (con Ni ≤≤1 ) secondo la funzione:

),...,,...,,( 21 Ni xxxxfy =Siano note le incertezze tipo u(x) di ciascun xi . L’incertezza uc (y) su y è detta incertezza tipocombinata (combined standard uncertainly): incertezza tipo del risultato di una misuraallorquando il risultato è ottenuto mediante i valori di un certo numero di altre grandezze; essa èuguale alla radice quadrata positiva di una somma di termini che sono le varianze o le covarianzedi quelle grandezze, pesate secondo la variazione del risultato della misura al variare di esse.L’incertezza estesa viene poi valutata a partire dall’incertezza combinata.Il modo in cui viene valutata uc (y) dipende dal grado di correlazione fra le grandezze di ingresso.Nel caso di grandezze scorrelate:

∑∑==

⋅=⋅

∂∂=

N

iiii

N

i ic xucxu

xfyu

1

22

1

2

2

)()()( i termini ci sono detti coefficienti di sensibilità

Il grado di correlazione fra xi e xj è espresso dal coefficiente di correlazione r :

)()(),(

),(ji

jiji xuxu

xxuxxr

⋅=

E’ sempre compreso tra 0 e 1:- r = 0 grandezze indipendenti- r = 1 grandezze totalmente correlate

Pertanto l’espressione dell’incertezza combinata per grandezze correlate può essere così scritta:

∑ ∑ ∑=

= +=

⋅⋅⋅∂∂⋅

∂∂+⋅

∂∂=

N

i

N

i

N

ijjiji

jii

ic xuxuxxr

xf

xfxu

xfyu

1

1

1 1

2

2

)()(),(2)()(

In questo modo se:- r = 1 -> uc (y) è l’espressione di un quadrato- r = 0 -> assume l’espressione scritta per il caso non correlato

6

Page 7: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

NOZIONI DI PROBABILITA’

Si chiama esperimento aleatorio un qualunque processo o fenomeno, oggetto di osservazione, chepuò dar luogo a più risultati, dei quali non si può dire quale si verificherà prima che l’esperimentosia compiuto.

L’insieme S contiene la totalità dei risultati di un esperimento aleatorio.

L’evento è un sottoinsieme di S contenente i risultati che hanno una data proprietà.

Lo spazio degli eventi è l’insieme di tutti gli eventi, cioè l’insieme di tutti i sottoinsiemi di S.

Si chiama evento elementare un elemento costituito da un solo risultato.

L’evento certo coincide all’insieme S.

L’evento impossibile è l’insieme vuoto ø .

La somma di 2 eventi A e B (A+B) è l’evento rappresentato dal risultato dell’operazione di unionefra i corrispondenti insiemi.

Il prodotto di 2 eventi A e B (AB) è l’evento rappresentato dal risultato dell’operazione diintersezione fra i corrispondenti insiemi.

Se AB = ø gli eventi si dicono incompatibili.

La probabilità è una funzione di insieme, che ha come insieme di definizione uno spazio di eventie che assume valori nell’insieme dei numeri reali.

3 assiomi fondamentali:- se A è un evento , P[A] >= 0- assioma di normalizzazione: P[S] = 1 (siccome S è l’evento certo)- assioma di additività: se A e B sono eventi incompatibili => P[A+B] = P[A] + P[B]

Corollari:- P[ø] = 0 (siccome ø è l’evento impossibile)- La probabilità è un valore compreso tra 0 e 1 compresi- Se tutti i risultati che compongono un evento B fanno parte anche di un altro evento A => P

[B] <= P[A]- Se A e B sono 2 eventi non incompatibili => P[A+B] = P[A] + P[B] – P[AB]

Si definisce una variabile aleatoria (v.a.) ogni volta che si stabilisce una regola mediante la qualesi fa corrispondere un numero (reale), e solo uno, a ogni risultato di un esperimento aleatorio.Ad ogni valore di v.a. corrispondono più risultati, cioè un sottoinsieme di S, quindi un evento.Gli eventi corrispondenti ai valori di una v.a. sono tutti fra loro incompatibili. La somma è l’eventocerto:

∑ = 1)( ixP

La distribuzione di probabilità è l’insieme delle probabilità associate a tutti i valori di una v.a.Ogni evento di variabile aleatoria è indipendente.

7

Page 8: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

Probabilità composta (condizionata) : siano A e B 2 eventi e P[A/B] la probabilità che ha unqualsiasi evento A di manifestarsi se si manifesta un evento B detto condizionante. QuindiA è l’evento condizionatoB è l’evento condizionante

)()(]/[

BPABPBAP =

Proprietà:P[AB] = P[A]-P[B/A] = P[B]P[A/B]Se P[B/A] = P[B] perché A non influisce su B A∩B = ø

Lo scarto – tipo di una v.a. è la differenza fra la v.a. stessa e il suo v.m. : xi – μ(x)È una nuova v.a. e si deduce subito che il suo v.m. è nullo.

Il valore medio statistico e aritmetico sono uguali solo se le variabili hanno la stessa probabilità.)(xµ è il valore medio del primo ordine (valore atteso) (valore medio statistico)

][)]([ ii xPxxP =− µ perché il valore medio è nullo

Si chiama varianza di una distribuzione di probabilità il momento del secondo ordine del suoscarto:

[ ] ][)()( 22ii i xPxxx ∑ −= µσ

Tutti gli addendi sono positivi, quindi la varianza è sempre >0 (=0 solo se xi fosse una costante).È tanto più grande quanto più sono probabili scarti grandi, e può quindi essere considerata unamisura della dispersione della distribuzione attorno al proprio v.m.La radice quadrata della varianza σ(x), presa col segno +, si chiama scarto quadratico medio odeviazione standard.

Il momento di ordine n è la media pesata, con le probabilità come pesi, della potenza n-esima dellav.a. :

∑=

=n

ii

nin xPxxM

1

)()(

Il centro di una distribuzione è individuato dal momento del primo ordine, detto valore medio(v.m.):

∑=

=n

iii xPxxM

11 )()(

Nel caso del dado:

∑∑==

==6

1

6

11 6

161)(

ii

ii xxxM

Se la variabile aleatoria può assumere tutti i valori dell’asse reale si parla di variabile aleatoriacontinua (X).

È necessario parlare di intervalli infinitesimali perché parliamo di variabili aleatorie continue (nelquale intervallo ci sono infiniti punti -> retta).

Per una v.a. continua la derivata:

ααα

ddFf )()( = definisce la densità di probabilità o probabilità accumulata.

8

Page 9: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

E:

∫∞−

=

+<<=−+==

1

)()(

][)()()()()(

1

x

dxxfxF

dxPdfFdFdFdf

ααααααααααα

La funzione di distribuzione F(α) , ∞≤≤∞− α , è la probabilità che la variabile x assuma valoriminori o uguali α:

][)( αα ≤= xPFProprietà:- 0)( =−∞F- 1)( =∞F- F è una funzione non decrescente - )()(][ 2121 αααα FFxP −=<<

In particolare:

=≤≤

−=

=

∞+

∞−

+∞

∞−

2

1

)(][

)()]([)(

)()(

21

22

x

x

dxxfxxxP

dxxfxxx

dxxxfx

µσ

µ

Distribuzione uniforme: si consideri una v.a. con densità di probabilità costante k in un certointervallo a-b e nulla all’esterno:

1∫∫ ==+∞

∞−

b

a

kdxkdx da cui ab

k−

= 1

Per valor medio e varianza si ha:

∫−=−

−=

+=−

=

b

a

b

a

abdxxab

baxdxab

12)()(1

21

222 µσ

µ

Distribuzione normale: la più importante tra le distribuzioni continue è la distribuzione normale odi Gauss, con densità di probabilità:

9

Page 10: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

2

21

21)(

= σµ

πσ

x

exf

Distensione o meno dei valori rispetto al valore centrale μ. Se le singole variabili aleatorie (tutte) hanno media μ e varianza σ2 allora la somma (xs) sarà unavariabile aleatoria con media uguale a nμe varianza nσ2 e più sarà elevato n più si tenderà ad unadistribuzione normale (considerando i diversi xs ).

Se invece di fare la somma faccio la media

nxs allora media =

e varianza = n

Qui i valori sono meno dispersi delle singole variabili (saranno più vicine al valore centrale μ).

Teorema centrale del limite: sommando n valori di una v.a. con densità di forma qualsiasi, mediaμ e varianza σ2 , si ottiene una v.a. che tende in distribuzione alla normale con media nμ e varianzanσ2 , per ∞→n .Teorema di Laplace: anche la somma di n variabili tra loro indipendenti, aventi distribuzionidiverse l’una dall’altra, tende ad una v.a. con distribuzione normale, purché siano soddisfatte certecondizioni.

10

Page 11: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

NOZIONI DI STATISTICA

La statistica permette di inferire, cioè stimare o misurare, le caratteristiche ignote di unapopolazione da quelle osservate da un campione.La probabilità è una scienza esatta: se ho una densità f(x) riesco a trovare tutto. Tutto è definito confunzioni ben precise.La statistica, invece, non è una scienza esatta: si vogliono calcolare dei valori probabilistici partendoda pochi elementi.La qualità di misura dipende sostanzialmente dalle modalità del prelievo del campione.Affinché un campione estratto da una popolazione sia significativo è necessario che esso possieda,per quanto possibile, le caratteristiche della popolazione. Se questa condizione è soddisfatta ilcampione è detto casuale ed ogni suo elemento è una v.a. con la stessa distribuzione dellapopolazione.Lo stimatore di un parametro della popolazione è la funzione dei valori campionari utilizzata permisurare un certo parametro della popolazione (ad esempio la media μ e la dispersione intorno allamedia indicata dalla deviazione standard σ).Uno stimatore si dice:

- corretto (unbiased) quando il suo valore medio coincide con il parametro da stimare;altrimenti si dice distorto (biased)

- asintoticamente corretto se il suo valore medio tende al valore del parametro al tendereall’infinito della numerosità del campione

- consistente quando è corretto e la sua varianza tende a zero al crescere della numerosità ndel campione

- più efficiente di un altro quando “approssima meglio” il parametro a parità di n- efficiente quando è più efficiente di tutti.

Stima del valore medio:Lo stimatore più usato per il valore medio μ della popolazione è la media aritmetica m degli n valoricampionari:

∑=i

i

nx

m

Ad esso si può attribuire la varianza:

nm

22 σσ = essendo σ2 la varianza della popolazione.

Quando si devono mediare variabili con diversa dispersione può convenire effettuare una mediapesata in modo da attribuire maggior peso ai valori meno dispersi. Ad esempio si può usare la mediapesata quando si deve stimare il valore medio di altri valori medi ottenuti da campioni di diversanumerosità:

∑=i ii xam

dove xi sono i valori da mediareai sono i pesi

Se si conosce solo il valore stimato m della media della popolazione, uno stimatore corretto s2 dellavarianza σ2 della popolazione stessa è dato da:

)1()( 2

2

−−

= ∑n

mxs i i

Per cui lo stimatore s2 della varianza della media campionaria risulta:

11

Page 12: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

)1()( 22

2

−−

== ∑nn

mxn

ss i im

In presenza di errori aleatori è utile mediare più risultati di una misura per ridurre la sua incertezza.

Intervalli di fiducia (incertezza) per la media campionariaIl risultato della misura di una grandezza è costituito dalla coppia di numeri che indicano il valorestimato e l’incertezza, o errore, ad esso associata.Quando il valore stimato è una v.a. l’errore da attribuirgli è quell’intervallo, detto intervallo diconfidenza, entro cui il valore del misurando può trovarsi con una assegnato valore di probabilità.Per calcolare il valore dell’intervallo di confidenza occorre conoscere la forma ed i parametri delladistribuzione della v.a.. Se però essa è la media campionaria di molti valori, il teorema centrale dellimite garantisce che la sua distribuzione è approssimativamente normale quando il numero deivalori mediati è sufficientemente grande.Si può scrivere: mskm ⋅±=µ essendo k un coefficiente ricavabile dalle tabelle di probabilitàdella normale standard.

12

Page 13: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

TEORIA DELL’AFFIDABILITA’

L’affidabilità consiste nel prevedere quando un sistema si può rompere.2 parole fondamentali: tempo e rompere (guasto).Il guasto è diverso dell’avaria (trattata in seguito) ed è la proprietà a non adempiere più allefunzioni (specifiche nominali) per il quale il sistema è stato progettato/realizzato. Il periodo diregolare funzionamento di un dispositivo si conclude allorché un qualsiasi fenomeno fisico-chimicoprodottosi in una o più delle sue parti componenti determina variazioni delle prestazioni nominaliche l’utente ritiene insopportabili per l’uso che egli fa del dispositivo. Questa situazione va sotto ilnome di guasto. La definizione generale di guasto è: cessazione dell’attitudine di un dispositivo adadempiere alla funzione richiesta.Il tempo di guasto è l’istante in cui, da quando il sistema è stato messo in funzione, si guasta.

La qualità è la capacità di un bene a soddisfare le necessità dell’acquirente e risulta dallacombinazione di 2 proprietà:

- conformità: capacità del dispositivo ad essere conforme alle specifiche nominali- affidabilità: capacità del sistema ad adempiere alle proprie funzioni per un determinato

periodo di tempo prefissato e in prescritte condizioni di lavoro nominali (es. temperatura,vibrazioni, sollecitazioni in ingresso) indicate dal costruttore. L’affidabilità contiene laconformità.

L’affidabilità, al contrario della conformità che è una disciplina deterministica, è una disciplina ditipo statistico – probabilistico, quindi vengono effettuate delle stime per fornire una previsione ->funzione di densità di probabilità con una variabile aleatoria: f(t) .Di solito la variabile aleatoria utilizzata è il tempo, ma in alternativa può essere utilizzato il numerodi guasti (uno discreto e l’altro continuo).Se conoscessimo a priori la funzione di densità saremmo in grado di stimare tutte le proprietà delsistema.

f(t) => R(t) è la funzione di affidabilità e fornisce istante per istante la probabilità di guasto delsistema.f*(t) è la misura ottenuta sperimentalmente in laboratorio stimo f(t) con f*(t)

Queste vengono calcolate attraverso la statistica campionaria.Dato un sistema voglio calcolare f(t) (ma soprattutto R(t) )N0 è il numero di elementi che formano il campioneSupponiamo che all’istante t ci siano ng(t) guasti. Deriva che il numero di elementi sani è: ns(t) = N0 – ng(t)

13

Page 14: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

La grandezza statistica fondamentale che rappresenta la distribuzione temporale dei guasti è ladensità di frequenza dei guasti f*(t) ed è definita come:

Nel secondo caso il rapporto incrementale è normalizzato al numero di elementi che formano ilcampione (N0 ). Rappresenta la variazione locale dei guasti.La corrispondente funzione teorica, o di previsione, sarà la funzione di densità di probabilità deiguasti, ricavata dalla precedente facendo tendere 0→tδ :

==

→ 00

1)()(*lim)(Ndt

tdntftf g

F*(t) rappresenta la stima della funzione di distribuzione (o cumulativa -> integrale -> somma ditutti i guasti) dei guasti.

0

)()(*N

tntF g=

La corrispondente funzione di previsione è:

∫=t

dftF0

)()( ττ

Viene detta anche funzione di inaffidabilità perché a parità di tempo, più la funzione è alta, più sonoi guasti e meno è affidabile.

È una funzione non decrescente e tendente a 1.

1) 1)(* =+∞F )()(1 tRtF =−

∫ ≤==t

ttPdftF0

)'()()'(* ττ Studio la probabilità che si rompa prima di t’ -> inaffidabilità

)'()(*1)( ttPtFtR ≥=−= Studio la probabilità che si guasti dopo t’ -> affidabilità

00

0

0

)()()(1)(*1)(*N

tnN

tnNN

tntFtR sgg =−=−=−= Studio gli elementi sani -> affidabilità

14

00

1)()()()()(*Nt

tnttntN

tnttntf gggg ⋅−+=⋅

−+=δ

δδ

δ

Page 15: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

L’affidabilità di un componente dipende dal tempo:

R*(t) è complementare a F*(t), decresce col tempo. NB: è importante sapere da quale istante si inizia la misura.

2) )(

1)()()(

)()()(

)()()'(*tnt

ttntnttn

ttntnttn

tnttntzs

ss

s

ss

s

ss ⋅+−=⋅

+−=⋅−+−=

δδ

δδ

δδ

z*(t) viene detta funzione d’azzardo. Studia localmente la variazione degli elementi sani ed è unrapporto incrementale normalizzato al numero di elementi sani all’istante iniziale dell’intervallino(δt) .Se mi sposto posso avere un azzardo diverso e spostandomi in avanti l’azzardo potrebbe migliorare.

Come determinare la relazione tra )()(* tRtz ⇔Consideriamo z(t) funzione di previsione:

tttttttPtttz

δδδ )'/''()','( ≥+≤≤=+

Controllo la probabilità che si guasti da t’ a t’+δt, considerando il fatto che non si è guastato fino at’ -> applicazione del teorema di Bayes:

)()()/(

BPABPBAP =

dove )'()'()( ttPtRBP ≥==

∫+

+−=−+==+≤≤tt

t

ttRtRtFttFdfttttPδ

δδττδ'

'

)'()'()'()'()()''(

Si ottiene che

)'(1)'()'(

)'()'()'(

)'()''()','(

tRtttRtR

ttRttRtR

ttPtttttPtttz ⋅+−=

⋅+−=

≥⋅+≤≤=+

δδ

δδ

δδδ

=−=+−⋅=

→')(

)'(1)'()'(lim

)'(1)'(

0tt

dttdR

tRtttRtR

tRtz

t δδ

δ

Una delle relazioni più importanti tra funzione di azzardo e funzione di affidabilità è:

dttdR

tRtz )(

)(1)( ⋅−=

Dalla quale si ricava:

∫ ∫−=t

dttztRtdR

0

)()()(

15

Page 16: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

∫−=t

dttztR0

)()(ln

∫−= dttztR ee )()(ln

Questa espressione costituisce la legge fondamentale e generale che consente di calcolare lafunzione di affidabilità partendo dalla conoscenza, o quanto meno da un’ipotesi, della funzione diazzardo che normalmente è il parametro fornito dalle case costruttrici perché è molto semplicecalcolarlo. Si parla di parametro perché solitamente è ± costante.L’azzardo rappresenta la dinamica/andamento (trend) della percentuale di guasti a partire da unistante (mentre R(t) parte da t = 0) e per un certo tempo.

Sappiamo che:

dttdR

dttdFtf )()()( −==

)(1)()(tRdt

tdRtz ⋅−= )()()( tRtzdt

tdR −= )()()( tRtztf =

Quindi, come detto in precedenza, se si conoscesse f(t) a priori si saprebbe molto sull’affidabilitàdel componente. Attraverso z(t) posso calcolare tutto.

La funzione di inaffidabilità F(t) (funzione di distribuzione) e la funzione di affidabilità R(t) ad essalegata sono dei numeri puri; nella versione revisionale sono infatti delle probabilità ed il loro valorevaria tra 0 e 1. L’affidabilità è una probabilità.

)'()'( ttPtR ≥=

Invece l’azzardo non è una probabilità e la sua unità di misura è il fit , failure (guasto) unit, cherappresenta 10-9 , siccome è il numero di componenti guasti su 1 milione di componenti totali (N0 = 106 ) in 1000 ore ( δt = 103 ).Quindi l’azzardo è il numero di componenti che si guastano su 106 componenti totali in 1000 ore diosservazione.

Il MIL è uno standard (banca dati) che riporta tutti gli standard per il calcolo dell’affidabilità ed ènato in ambito militare, al ministero della difesa statunitense.

z(t) è un termine che per la maggior parte della vita di un componente elettronico è costante (questonon è vero in ambito informatico/software) quindi viene ritenuto costante perché non è dipendentedal tempo in un certo intervallo. Questa è una semplificazione derivante dalla realtà dopo avereffettuato moltissime prove.

∫−=

tdttz

etR 0)(

)(

)()()( tRtztf =

16

Page 17: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

Curva a vasca da bagno:

Questa curva presenta i 3 periodi tipici, durante il quale l’azzardo risulta, nell’ordine, decrescente,costante e crescente:

(1) avvio: le prove hanno dimostrato che nel primo periodo di vita l’azzardo è si decrescente,ma inizialmente molto alto, quindi, prima di commercializzare un prodotto è necessario chesuperi questa fase (rodaggio, warm up) chiamata periodo dei guasti prematuri : si trattasoprattutto di difetti di fabbricazione, ma anche (raramente) di difetti progettuali. La duratadi questo periodo può variare da poche decine ad alcune centinaia di ore.

(2) se un componente supera la fase (1) giunge ad una fase costante chiamata periodo deiguasti casuali (le cause di questi guasti sono molteplici e non si possono eliminare). Vieneanche chiamato vita utile del componente. Per i dispositivi di buona qualità il periodo deiguasti casuali (detto anche a tasso di guasto costante) è quello che presenta la maggioredurata, potendo raggiungere anche valori di alcune decine di migliaia di ore.

(3) arrivato ad un certo punto il componente inizia a degradarsi giungendo alla fase chiamataperiodo dei guasti da usura. La causa di questi guasti è sempre la conseguenza di uno o piùfenomeni di degradazione fisico-chimica.

Nel periodo dei guasti casuali, il valore costante, λ, della funzione di azzardo coincide, con buonaapprossimazione, con la grandezza utilizzata praticamente per indicare il numero relativo di guasti,cioè il tasso di guasto λ* (failure rate). Viene definito come il rapporto, per uno specificatoperiodo di vita dei dispositivi, tra il numero totale di guasti in un campione ed il tempo cumulativoosservato per questo campione:

Ttng )(

* =λ

dove T è il tempo cumulativo, cioè la somma dei tempi di funzionamento dei componenti osservati.Assumendo sempre N0 come il numero degli elementi del campione che sottoponiamo a test, T saràdefinita come:

ϑϑϑ

)]([ 0

)(

1

g

n

i

i nNtTg

−+= ∑=

(*)

dove ti è l’istante in cui il componente i-esimo si guastaN0 - ng (ϑ ) è il numero di componenti sani alla fine del periodo di osservazione.

Hp: tutti i componenti che si guastano, lo fanno a tempo t = ϑ .(*) TNnNn gg ==−+= ϑϑϑϑ 00

ϑϑλ0

)(*N

ng=⇒

17

Page 18: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

Siccome la misura viene effettuata a t = 0 e t + δt = 0 + ϑ = ϑ

λϑϑ

ϑϑ

ϑϑϑ ==+−=−=

00

00 )()()0(

)()0()(Nn

NnNN

nnnz gg

s

ss si misura in fit come l’azzardo

λ≡z

Confrontiamo le 3 funzioni di affidabilità calcolate nei 3 periodi supponendo che la funzione diazzardo possa essere rappresentata in questo modo:

Ricordando che ∫=

−t

dttz

etR 0

)(

)( si ottiene:

(2) tetRz λλ −=⇒= )(2 quindi l’affidabilità è un termine esponenziale decrescente. Più è alto ϑ più l’affidabilità scenderapidamente.

(1) tKKtz 10)( −= per 1

00KKt ≤≤

è importante che non vada sotto lo 0 perché z è una funzione positiva

2

1

1

2

0)(tK

tKetR

+−=⇒

(3) 2

23 )()(

tK

etRKttz−

=⇒=Sovrapponiamo ora le 3 funzioni (R1,R2,R3) considerando le 3 zone completamente distinte tra diloro (supponiamo che l’inizio di ogni zona coincida con t = 0).

A partire da t = 0 ci spostiamo di λ1=t in tutte e 3 le zone.

18

Page 19: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

Hp: e

tR 1)( = con λ1=t

(3) 2

2

221 λ

KKt

eee

−−==

22λ=K 22

)(3 tetR λ−=⇒

(1) 0110100

10 0010 KKKKKKtKK vaa λλλ

=⇒=−⇒=− →=−

−−= 2

10

21 λλKK

ee

λ20 =k 2

1 2λ=k )2( 22

)(1 ttetR λλ −−=⇒

(2) tetR λ−=)(

Nel periodo dei guasti prematuri l’affidabilità decresce più rapidamente che negli altri casi. Nel

periodo dei guasti per usura l’affidabilità dapprima diminuisce più lentamente fino all’istante λ1=t

, dopo di che diminuisce più rapidamente rispetto al caso di tasso di guasto costante.R3 almeno nella parte iniziale della zona 3 ha l’affidabilità più alta anche se per un tempo moltolimitato perché poi la curva scende molto velocemente (t2 ).

19

Page 20: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

Molte volte, se l’oggetto deve essere usato per un periodo limitato di tempo, viene prima portato inquesta fase di alta affidabilità per poi essere utilizzato.R1 è la curva più bassa, quindi un componente deve assolutamente essere commercializzato dopoaver superato questa fase. I componenti elettronici hanno una vita utile nell’ordine delle decine di migliaia o milioni di ore,mentre per i componenti meccanici è molto più breve (nell’ordine delle centinaia o migliaia di ore).

Un progettista solitamente non guarda la curva di affidabilità di ogni componente per effettuare unascelta, ma ha bisogno di parametri fondamentali, questi sono:

MTTF (Mean Time To Failure) è il tempo medio fino al guasto: il rapporto, riferito ad un periododi vita specificato nella vita di un dispositivo, fra il tempo cumulativo rilevato per il campioneconsiderato e il numero totale dei guasti in esso manifestatisi durante il periodo specificato, incondizioni di lavoro prefissate.

rTMTTF =

dove r è il numero dei guastiT è il tempo cumulativo, cioè la somma di tutti i tempi durante i quali ogni elemento del campioneha fornito la funzione richiesta

∑=

−+=r

ipi trNtT

10 )(

ti sono i singoli tempi in corrispondenza dei quali si sono verificati i guastitp è il tempo di prova (tempo specificato nella vita del componente, l’istante in cui si guasta)Si applica generalmente a sistemi/componenti non riparabili e quindi è utilizzato per rappresentare ilcomportamento affidabilistico di lotti di dispositivi non scomponibili (componenti elementari).Possiamo anche vederlo come un valore atteso del tempo di guasto del componente che stosottoponendo a test (in termini probabilistici è la speranza matematica dei tempi di guasto di unapopolazione).

∫∞

==0

)(}{ dtttftEMTTF

Supponiamo di trovarci nel periodo di azzardo costante e quindi ∫−= ττ dzetR )()( , tetR λ−=)(si ottiene:

tetRtztf λλ −== )()()(

20

Page 21: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

[ ] ∫∫∫∞

−∞

−∞−∞

− =+−=−=000

00

dtedtetedtetMTTF tttt λλλλλ

il primo termine si annulla perché l’esponenziale tende a 0 più rapidamente di qualsiasi altrafunzione. Moltiplico e divido per λ e ottengo:

[ ] [ ]λλλ

λλλ

λ λλλ 11111

00 0

=−−=−=−−=−−∞∞

−∞

−−∫ ∫ ttt edtedte

λ1== mMTTF

Il tempo medio al guasto è inversamente proporzionale al tasso di guasto.

Quando invece λ≠)(tz :

== ∫∞

0

)( dtttfm =−∫∞

0

)( dtdt

tdRt

−==

dttdR

dttdFtf )()()(

[ ]∫ ∫∫∞ ∞∞

∞ =+−=−∞

0 000 )()()()(

0)(

dttRdttRttRttdR

dttzet

se non si possono fare ipotesi a priori sull’azzardo.

MTBF (Mean Time Between Failure) è il tempo medio fra guasti: il valore medio degli intervalli ditempo tra guasti consecutivi, relativo ad uno specificato periodo di vita di un dispositivo, calcolatocome rapporto tra il tempo cumulativo osservato ed il numero di guasti rilevati nelle condizioniprecisate.Questo parametro (molto simile al MTTF) si può applicare solo a dispositivi riparabili e,specificatamente, ad apparati e sistemi.

Supponiamo che la cosa si ripeti r volte:

∑=

=r

ifit

rMTBF

1

1

tfi è il tempo di funzionamento regolare del generico componentetr sono i tempi di guasto, nei quali vanno compresi quelli occorrenti per la riparazione del dispositivoLimitatamente al periodo dei guasti casuali, i 2 parametri MTTF e MTBF e l’inverso del valore

costante dell’azzardo, λ1

vengono spesso usati indifferentemente l’uno con l’altro.

MTTR (Mean Time To Repair) è il tempo medio di riparazione:

∑=

=r

irit

rMTTR

1

1

E’ il concetto chiave che caratterizza la casa produttrice e riguarda la manutenibilità del prodotto,cioè il prodotto deve essere progettato e costruito in maniera da facilitare le operazioni di

21

Page 22: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

manutenzione (tutte quelle operazione che concorrono al ripristino delle funzionalità deldispositivo).È naturalmente conveniente che l’MTTR risulti molto minore dell’MTBF.

A(t) (Availability) è la disponibilità: probabilità che un dispositivo sia funzionante al tempo t, indeterminate condizioni di impiego.Questa funzione parte da un valore unitario per tendere, per tempi molto grandi, ad un valoreminimo costante fornito dal rapporto:

MTTRMTBFMTBFA

+=∞)(

AFFIDABILITA’ DI MISSIONEÈ uno dei rami più complessi dell’affidabilità perché bisogna fornire indicazioni molto precise per ilfuturo con i dati del presente. Per alcuni dispositivi impiegati in particolari applicazioni, èimportante determinare la probabilità che il loro funzionamento risulti regolare durante unprestabilito intervallo della loro vita. Voglio sapere se, tra un tot di tempo, tra l’ora x e l’ora y il mio sistema funziona.Consideriamo una funzione di densità di probabilità di guasto simmetrica, quale è quella normalerispetto la vita media τ, e calcoliamo la probabilità di guasto a priori G:

∫=2

1

)(12

t

t

dttfG

G12 è la probabilità che il componente si guasti dentro l’intervallo [t1,t2] e che sia sano in t1 .)()/()(12 BPBAPABPG ==

dove )()( 1tRBP = cioè la probabilità che sia sano in t1

)()()/( 1212 tFtFFBAP −==

Rm è l’affidabilità di missione ed è data da:

)()(

)())()((1

)()()(1

)(1

1

2

1

21

1

12

1

12

tRtR

tRtRtR

tRtFtF

tRF

Rm =−−

=+−

=−

= (*)

Supponiamo di considerare un nuovo intervallo della stesso dimensione del primo in modo che:t2-t1=δtt4-t3=δt

(*) tt

tt

ee

e λδλ

δλ−

+−

==1

1 )(

Da questo si deduce che non importa dove mi colloco, ma la durata della missione (δt).

22

Page 23: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

AFFIDABILITA’ DEI SISTEMI

Bisogna scomporre il sistema che si ha sotto studio in tanti blocchi funzionali (RBD ReliabilityBlock Diagram) considerati come device. Il massimo livello di scomposizione può essere dato dalfatto che mi fermo quando conosco i parametri affidabilistici.Lo studio di fattibilità nasce in fase di progettazione perché devo avere informazioni su come ilsistema è fatto.È importante osservare l’interazione dei blocchi.

I parametri che devo conoscere per ciascun blocco sono:λ , m e raramente R(t)

AFFIDABILITA’ COMBINATORIA

Si parla di affidabilità combinatoria perché è riferita all’interazione tra i blocchi funzionali (parti delsistema), quindi dal punto di vista operativo e non della disposizione fisica. Quindi si opera unascomposizione del sistema nelle sue parti componenti e si determina la modalità con il quale lesingole parti sono connesse. Si deve analizzare l’influenza che il guasto di ciascun componente hasulla funzionalità del sistema Vi sono 2 condizioni limite:

SERIE: si dice che i componenti sono operativamente in serie se alla rottura di uno corrisponde ilnon funzionamento del sistema (viene detta anche struttura a catena).

Si indica con:xi il generico componente che funziona

ix il generico componente guastoUn punto rappresenta il collegamento funzionale tra blocchi(simbologia CEI 56-60)L’affidabilità di questa configurazione coincide con la probabilità composta del successo di tutti glin componenti:

)...()( 321 nxxxxPtR ⋅⋅⋅=per il Teorema di Bayes:

).../()/()( 123121 xxxPxxPxP ⋅⋅⋅=Assumendo l’ipotesi che siano tutti eventi indipendenti si ottiene:

∏∏==

===n

ii

n

ii tRxPxPxP

1121 )()()...()(

23

Page 24: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

∏=

=n

ii tRtR

1

)()( dove )()( ii xPtR =

Essendo l’affidabilità una quantità sempre minore di 1, se ne deduce che l’affidabilità del sistematotale risulta inferiore al più piccolo valore tra gli Ri (t) e che diminuisce all’aumentare di n. Quandosi fa uno studio di affidabilità vale la regola: quando il componente non c’è non si rompe, cioè menocomponenti ci sono, meno guasti sono probabili, quindi il sistema è più affidabile.

∏=

∑−− ===⇒

=n

i

tt

iin

ii

i eetR

tz

1

1)(

)(λ

λ

λ siccome l’esponenziale è negativo si conferma la regola sopraccitata

Consideriamo il caso peggiore ii∀= λλ dove λ è il più alto di tutti i iλ si ha che:tnetR λ−=)( (formula semplificata operativa)

PARALLELO: il sistema funziona se almeno uno dei componenti in parallelo funziona. Vieneintrodotto il concetto di ridondanza:

)...(1)...( 321321 nn xxxxPxxxxP ⋅⋅⋅⋅−=++++Gli eventi xi non sono tra loro incompatibili e quindi la probabilità totale di successo non può ridursialla somma delle probabilità di successo degli n componenti.Facciamo l’ipotesi di avere eventi indipendenti:

∏=

−=n

iixP

1

)(1 ∏=

−=n

i tF

i

i

xF1 )(

)(1

Siccome )(1)( tRtF −=

∏=

−−=n

ii tR

1

)](1[1

In questa configurazione l’affidabilità del sistema, pur rimanendo sempre inferiore a 1, aumenta alcrescere di n.Supponiamo di trovarci nel periodo dei guasti casuali, quindi t

iietR λ−=)( segue che:

∏=

−−−=n

i

tietR1

)1(1)( λ se aumentiamo il numero di componenti, tende sempre più a 1.

Supponiamo che iλλ = per i=1,2 e otteniamo :2

)2( )1(1)( tn etR λ−

= −−=

CONFIGURAZIONE R SU N (REGOLA DELLA FUNE)Il sistema è operativo se almeno r dei suoi n componenti funzionano regolarmente (tipico èl’esempio della fune).L’affidabilità di questa configurazione viene calcolata ricorrendo alla distribuzione binomiale (laprobabilità che r di questi n fili all’istante t siano sani):

rnr pprn

nrP −−

= )1(),( dove

)!(!!

rnrn

rn

−=

r sono gli eventi favorevoli

24

Page 25: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

p rappresenta la probabilità di successo.

)()](1[)(),( , tRtRtRrn

rnP nrrn

filogenerico

taaffidabili

r =−

= −

L’affidabilità totale risulta:

∑=

−−

=

n

rj

jnj ppjn

tR )1()(

Supponiamo di trovarci nel periodo dei guasti casuali, quindi tetRP λ−== )( allora :

∑=

−−− −

=

n

rj

jnttj eejn

)1( λλ

In questo modo se:- r = 1 si avrà la configurazione in parallelo- r = n degenera nella configurazione in serie

Ora valutiamo l’MTTF (il più importante parametro di un sistema) alla luce delle configurazioniillustrate in precedenza. Sappiamo che la sua formula è:

∫∞

=0

)( dttRMTTF

Nella serie:

∑∫

=

∞∑−

== =n

ii

tdteMTTF

n

ii

1

0

11

λ

λ

Da quest’ultima si deduce che tanto più aumentano i componenti tanto più si accorcia il tempomedio al guasto.

Per le configurazioni complesse esistono diversi metodi per poterle studiare:

Metodo delle ispezioniDi qualunque complessità sia il sistema bisogna cercare di ridurlo a una serie.

Considerando Ri l’affidabilità dell’i-esimo componente, il calcolo dell’affidabilità totale Rt partedalla determinazione dell’affidabilità dei 2 rami in parallelo:

7667

5445

RRRRRR

⋅=⋅=

L’affidabilità del parallelo (Rp ) sarà:

8321

6745

)(

)1)(1(1

RRRRRtR

RRR

ptot

p

⋅⋅⋅⋅=

−−−=

25

Page 26: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

Metodo degli eventiSe un sistema non può essere ridotto alla combinazione di configurazioni elementari, dalcorrispondente grafo di flusso si può redigere un elenco di tutti gli eventi possibili distinguendofavorevoli e sfavorevoli.

Conoscendo l’affidabilità di ogni componente, calcoliamo la probabilità associata a tutti gli eventifavorevoli (che coincide con l’affidabilità totale):

dcbaEdcbaEdcbaE

dcbaEdcbaEdcbaE

dcbaEdcbaEdcbaEdcbaEdcbaE

⋅⋅⋅=⋅⋅⋅=⋅⋅⋅=

⋅⋅⋅=⋅⋅⋅=⋅⋅⋅=

⋅⋅⋅=⋅⋅⋅=⋅⋅⋅=⋅⋅⋅=⋅⋅⋅=

12

11

10

9

7

6

5

4

3

2

1

Tutti questi eventi sono indipendenti per natura e questo facilita il calcolo dell’affidabilità.)( 12111097654321 EEEEEEEEEEEPRtot ++++++++++=

Posto che rRi = si ha:32234 )1()1(5)1(4)( rrrrrrrtRtot −+−+−+=

Metodo delle unioni minime o dei tagli minimiSapendo che ogni ramo rappresenta un componente e riporta una freccia che indica il senso dipercorrenza dell’informazione, affinché un sistema risulti operativo occorre che un certo numero dirami risultino attivi. Tra tutte le configurazioni favorevoli, ne esisteranno alcune che assicuranoquesto collegamento con il minimo numero di rami. L’affidabilità del sistema risulta quindi lasomma di tutte le probabilità di queste unioni minime:

)...( 21 ktot UUUPR +++=

),(),( 4321 ccPccPRtot +=

26

Page 27: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

Si può risalire all’affidabilità del sistema anche individuando le configurazioni per le quali,tagliando il numero minimo di rami, si interrompe il flusso tra ingresso e uscita del sistema chequindi risulta guasto. Questo metodo (dei tagli minimi) fornisce la funzione di inaffidabilità totalemediante la somma delle probabilità di queste configurazioni.

27

Page 28: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

PROVE SUI COMPONENTI

Per stimare l’affidabilità dei componenti elementari è possibile attuare un metodo di prova statisticoche consiste nel sottoporre un campione a prove di laboratorio simulanti alcuni situazioni tipiched’impiego. In queste prove si misurano i dati caratteristici dell’affidabilità (distribuzione difrequenza dei guasti, MTTF, vita media,…).

PROVE DI VITA

La prova di vita è la procedura più usata e la più affidabile; si svolge in laboratorio con sistemi disollecitazione (forme di ingresso che possono essere anche non nominali). Il metodo migliore è fareprove di vita di lunga durata (cioè attendere fino al guasto) , ma non sempre è possibile perchébuoni componenti possono durare anche più di 70 mila ore; inoltre, quando il campione è numeroso,potrei avere problemi ad alimentarlo e devo decidere anche quale sollecitazione applicare. Perovviare a tutti questi problemi vengono utilizzate:

Prove di vita troncate: decido io per quanto tempo. Es. faccio la prova su un tot di componentioppure mi fermo quando raggiungo un certo numero di guasti. Il componente viene sollecitato consollecitazioni nominali.

Prove di vita accelerate: vengono applicate al componente sollecitazioni superiori a quellenominali. Si è osservato che la vita media di un componente decresce all’aumentare del livello disollecitazione.Il rapporto tra il valore di ciascuna sollecitazione applicata in queste prove e il corrispondente valoreusato in esercizio viene detto fattore di accelerazione.Queste prove danno solo indicazioni a livello globale es. MTTF(difficile estrapolare dei valori diaffidabilità). Sono però molto utili per effettuare dei confronti.I passi da seguire per le prove accelerate sono:

- assestamento preliminare- controlli e misure iniziali (temperatura, umidità, tensione iniziale…)- trattamento- riassestamento- controlli e misure finali

Prove secondarie: - prove combinate: il componente è sottoposto a 2 o più sollecitazioni- prove composite: il componente è sottoposto a sollecitazioni applicate in successione- sequenza di prove

L’IFC ha stabilito le sollecitazioni da considerare quando si effettuano prove di vita:

Prove a gradino: voglio applicare una sollecitazione variabile e poi vedere nel tempo i vari livellidi sollecitazione (non si può fare per ogni livello). Consiste nel sottoporre un campione di piccole dimensioni ad una sollecitazione crescente perincrementi costanti e rilevando per ciascun intervallo la corrispondente frazione di guasti, quindiviene applicato un livello di sollecitazione e, passato un certo tempo prestabilito, viene aumento illivello della sollecitazione e via di seguito.Il campione deve essere piccolo (20/40 elementi): si preferisce fare più prove con meno componentipiuttosto che una sola prova con tanti componenti.

28

Page 29: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

I risultati sono acquisiti in maniera rapida ed economica per la brevità del tempo di applicazione diciascun gradino e il campione ristretto. Si suppone che tutte le prove siano indipendenti tra di loro anche se i componenti utilizzati nellediverse prove sono gli stessi quindi bisogna tener conto della storia passata degli elementi.Relazione tra tipo di guasto e sollecitazione:

BANCHE DATI

È importante raccogliere le informazioni di affidabilità sui componenti prodotti; sono pertanto sortedelle organizzazioni con il compito di istituire vere e proprie banche di dati affidabilistici. Le piùimportanti sono:

- RADC: Rome Air Developement Center per conto del Ministero della Difesa degli USA- CNET: Francia, settore delle telecomunicazioni- SRS: Inghilterra, settore nucleare e altri settori industriali- Exact: Peasi Scandinavi, componenti elettronici

I principali criteri con cui vengono classificati i dati sperimentali sono:1. famiglia di appartenenza del componente2. caratteristiche costruttive nell’ambito di ciascuna famiglia3. ambiente in cui il componente opera4. esigenze particolari di affidabilità

MODELLI DEI FENOMENI DI DEGRADAZIONE

Le prove di vita accelerate risultano utili quando sia possibile estrapolare dai dati acquisiti,informazioni sul comportamento del sistema quando ad esso sono applicati valori nominali dellesollecitazioni. Risulta quindi fondamentale il criterio di estrapolazione. Il criterio più rigoroso èquello che utilizza il modello chimico – fisico che provoca la degradazione del dispositivo, possoconoscere come reagisce il dispositivo (è particolarmente adatto per componenti di strutturasemplice). Il guasto per usura è dato, infatti, dalla degradazione molecolare.Conoscendo la funzione di invecchiamento posso arrivare a studiare meglio i componenti.La velocità di reazione è la variazione nel tempo di un reagente o di un prodotto di reazione. Piùrapidamente avvengono le reazioni nel componente, tanto più rapido è il consumo dello stesso,tanto prima è possibile che il componente si guasti.

dtZd

dtYd

dtXdvZYX

inuisceche

ioneconcentrazr

][][][

dim

=−=−=⇒→+

dove X e Y sono i reagenti e Z è il prodotto

29

Page 30: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

La vr si esprime come prodotto di 2 funzioni:)()( 21 cfTfvr ⋅=

doveT è la temperatura assolutac è la concentrazione di un certo reagenteLa reazione è:

- del primo ordine se dipende in maniera lineare da c- del secondo ordine se dipende in maniera quadratica da c

La più importante è la f1(T), come afferma Arrhenius (1889): vr dipende da T in modo esponenziale.

−⋅= kT

B

eAf1

doveA è il fattore di frequenza B è l’energia di attivazione Ea , cioè l’energia potenziale che deve essere acquisita dai reagentiaffinché abbia luogo la reazionek è la costante di Boltzmann

La velocità di reazione secondo Arrhenius (ipotizzando una reazione del primo ordine) è:

−⋅⋅= kT

B

r eAcv

Le razioni chimiche che avvengono in un componente conducono ad una variazione delleconcentrazioni dei reagenti tali che, ad un certo punto, il componente smette di funzionare.Conoscendo la velocità con cui tali reazioni avvengono e conoscendo i loro valori limite per ilfunzionamento del componente, si può stimare il tempo di guasto: tg

Supponiamo una reazione del primo ordine per semplicità, in cui la qualità del componente dipendadalla concentrazione c di un reagente:

cTfdtdcvr ⋅=−= )(1

Separando le variabili ed integrando si ottiene:

tTfcc ⋅−= )(ln 10

dove c0 è la concentrazione iniziale)()( )(

01 tQectc tf =⋅= −

dove con Q(t) si indica la qualità del componente.Con D(t) invece indichiamo la degradazione:

[ ])(0

11)( tfectD −−⋅=Conoscendo il valore limite della concentrazione cm ,sotto il quale il componente si può ritenereguasto e dunque conoscendo il valore massimo ammissibile DM , si ha:

[ ])(0

11 gtfM ecD −−⋅=

quindi:

)(1ln1

101 TfD

cD

tft LM

g =

−=

30

Page 31: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

Utilizzando l’espressione di Arrhenius e ipotizzando che le reazioni dipendano soprattutto dallatemperatura si ha:

AeD

teATfkTB

Lg

kTB

− ⋅

=⇒⋅=)(1

31

Page 32: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

PROVE SU SISTEMI

Le prove di vita su base statistica difficilmente possono essere applicate alla determinazionesperimentale dell’affidabilità sui sistemi. Essendo molto importante acquisire informazioniaffidabilistiche di un prodotto prima che sia messo in produzione, vengono spesso effettuate provepreliminari su prototipi o lotti di produzione.

Vi sono 2 tipi di prove (prove di tipo cioè regolamentate, stabilite):

Prove di conformità dell’affidabilità Servono a verificare se il valore di una determinata caratteristica di affidabilità soddisfi certecondizioni (prove per l’accettazione o il rifiuto dell’apparecchiatura da parte dell’acquirente).Il piano di prova deve contenere:

- il parametro prescelto e il valore accettabile- tutte le condizioni operative- i controlli e le regolazioni iniziali- il ciclo di prova- la rilevanza di ogni tipo di guasto- il tempo di prova minimo e massimo

Viene assunto inizialmente che il tasso di guasto sia costante (si usano piani di prova troncati).

Prove di determinazione dell’affidabilitàServono a misurare il valore di una caratteristica di affidabilità di un’apparecchiatura.Le prescrizioni della prova devono indicare le condizioni operative, i parametri funzionali, ledefinizioni dei vari livelli di guasto. Ovviamente non viene indicato il piano di prova e il tipo didistribuzione dei guasti. È consentita la sostituzione e la riparazione degli elementi guasti.Le prove di determinazione dell’affidabilità vengono terminate:

- nell’istante in cui viene raggiunto un certo tempo prestabilito di prova- quando si verifica un certo numero di guasti

Quando il tasso di guasto risulta costante, i vari elementi del campione possono essere sottopostialle prove anche in tempi diversi e per durate diverse.

CONDIZIONI DI PROVA

Le condizioni di prova devono prendere in considerazione tutte le sollecitazioni che possonocausare un guasto rilevante al sistema.Salvo casi particolari, le prove sui sistemi sono di lunga durata (ove possibile si attua una forma diaccelerazione).Le grandezze che hanno una qualche influenza sul funzionamento del sistema sono raggruppate in:

- alimentazione elettrica- segnali o dati di ingresso- condizioni di carico- operazioni manuali- funzioni ausiliarie- sollecitazioni climatiche- sollecitazioni meccaniche- sollecitazioni fisico – chimiche

CICLI DI PROVA

32

Page 33: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

Durante l’esercizio un sistema si trova a lavorare in condizioni di funzionamento differenti neidiversi periodi della sua vita, inoltre si alterneranno periodi di funzionamento con periodi diinattività.Per fare delle prove sul sistema in esame in laboratorio quindi bisognerà simulare tutte le possibilisituazioni che si possono avere durante l’esercizio del sistema. Un primo criterio da seguire è quellodi suddividere la vita utile del sistema in attività distinte: ognuna di queste rappresenterà un periododistinto di funzionamento del sistema. Poi bisogna individuare le sollecitazioni associabili aciascuna attività del sistema e valutare il livello di severità applicabile sulla base delle rispettivefrequenze di occorrenza.Una fase importante della programmazione consiste nella verifica dell’esistenza di combinazioni trasollecitazioni diverse. Si possono verificare i seguenti casi:

- sollecitazioni mutuamente dipendenti: si manifestano sempre contemporaneamente e maiseparatamente, quindi possono essere trattate come unica entità

- sollecitazioni mutuamente escludenti: possono verificarsi soltanto in periodi diversi e quindinon compaiono mai contemporaneamente

- sollecitazioni dipendenti: si applicano solo se sussiste una sollecitazione primaria- sollecitazioni indipendenti: si manifestano contemporaneamente solo per caso

ANALISI DEI GUASTI

Per individuare l’insorgere di un guasto nel sistema sottoposto a prove, il piano di prova devedescrivere chiaramente tutti i fattori legati a questa decisione. Quindi vanno definiti tutti i parametri caratterizzanti le funzionalità del sistema ed i limiti, perciascuno di essi, al di fuori dei quali questa funzionalità viene ritenuta insoddisfacente ed il sistemaviene ritenuto guasto. Un altro fattore importante è la frequenza con la quale vengono effettuate le misure (se non èpossibile effettuare un’osservazione continua). È importante determinare l’intervallo di prova:l’esperienza consiglia una durata pari al 20% del valore medio dei tempi di buon funzionamentodelle apparecchiature in prova.Un certo numero di guasti può essere giudicato non rilevante (es. quelli derivati da errori durante laprova), altri invece comportano il rifiuto immediato del sistema (come quelli che costituisconopericolo per l’utente).Se si verificano guasti ricorrenti significa che siamo in presenza di una deficienza progettualeoppure stiamo utilizzando dispositivi non idonei allo scopo.

33

Page 34: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

TEST STATISTICI PER LA VERIFICA DELLE IPOTESI

In molte applicazioni non si hanno conoscenze sulla distribuzione di probabilità delle v.a., in altresono incogniti i loro parametri, allora si fanno delle ipotesi:

- Hp semplice: verificare che 0µµ = e 20

2 σσ =

- Hp composta: verificare che 0µµ = e 20

2 σσ <Per la verifica delle iposi si ricorre a test statistici che possono essere:

- parametrici: è nota la distribuzione di probabilità ma non i suoi parametri, quindi l’ipotesi èformulata sui parametri. Si dividono in:

• test bilaterali o a 2 code: se si confrontano un’ipotesi semplice con una composta• test unilaterali o ad una coda: se si confrontano 2 ipotesi composte

- non parametrici: non si richiede a priori il tipo di distribuzione da testareUn test mette sempre a confronto 2 ipotesi:

- H0 ipotesi nulla (prima, si vuole che sia vera) - H1 ipotesi alternativa (seconda)

C’è il rischio di sbagliare, si possono commettere i seguenti tipi di errore:- errore di prima specie: H0 è vera ma viene rifiutata e quindi si accetta H1

- errore di seconda specie: quando H1 è verificata ma si accetta H0

Si deve stabilire una regola di decisione che permetta appunto di prendere decisioni sull’accettare omeno H0 . Si introduce una v.a. T (campionaria) che sotto la condizione di H0 vera, assume una distruzione diprobabilità nota e tabulata e che non dipenda dal tipo di distribuzione di probabilità e dei parametriincogniti della v.a..Successivamente si suddivide l’intervallo di variabilità (comunemente infinito) in 2 regioni:

- Cα regione critica, con piccola probabilità α che i valori di T vi appartengano- αC regione complementare alla prima, con probabilità 1 – α di appartenenza di T

La regola del test è: rifiutare H0 se i valori osservati di T appartengono a Cα .α è detto livello di significatività.

TEST PARAMETRICI

Test di Fisher per l’uguaglianza di 2 varianzeSi considerino 2 campioni ( )nxxxx 1131211 ,...,,, e ( )nxxxx 2232221 ,...,,, con numerosità n1 e n2 .Essi siano relativi alle v.a. indipendenti ),( 2

111 σµNx = e ),( 2222 σµNx =

22

210 : σσ =H

si introducono la varianze campionarie:

1

)(

1

1

211

21

1

−=

∑=

n

xxS

n

ii

1

)(

2

1

222

22

2

−=

∑=

n

xxS

n

ii

con

1

11

1

1

n

xx

n

ii∑

== e

2

12

2

2

n

xx

n

ii∑

==

34

Page 35: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

Si riscontra che il rapporto

)1,1( 2121

22

22

21 −−≡ nnF

SS

σσ

è una v.a. con distribuzione di Fisher con (n1 – 1) e (n2 – 1) gradi di libertà.

Distribuzione di Fisher con g.l. ( m1 , m2 )Dominio { }∞≤≤= xS 0

2

2

121

2

1

21

21 2112

1

1

22

2)(

mmmm

m

xmmx

mm

mm

mm

xf

+−

+

Γ

Γ

+

Γ= con ∫

∞−−=Γ

0

1)( dxex xαα

2)(

2

2

−=

mm

xM con 22 >m

{ } [ ])4()2()2(2

22

21

2122

−−−+

=mmm

mmmxVar con 42 >m

Si individua l’intervallo fiduciario:

ασσ

αα −=

≤≤−

12

121

22

22

21

2

xSS

xP

2α è il rischio associato al verificarsi di ciascuna coda.

Normalmente 1 – α = 0,95 o più alto.

I quantici 2αx sono tabulati in corrispondenza di 1-

2αx e dei gradi di libertà m1 = n1 – 1 e m2 = n2 – 1

Se 22

210 : σσ =H è vera, allora la v.a. di Fisher così ottenuta cade con probabilità 1 – α

nell’intervallo centrale (dove c’è anche x = 1, vedi figura) e dunque l’ipotesi è da accettare con taleprobabilità.

Siccome 21σ e 2

2σ non sono noti, si osserva che anche il rapporto 22

21

SS

(campionario) soddisfa le

stesse proprietà viste per il rapporto 21

22

22

21

σσ

SS

.

Dunque si applica la verifica dell’ipotesi H0 utilizzando tale rapporto.

Normalmente è un evento molto raro quello per cui 22

21 σσ = e 2

2

21

SS

cada fuori dall’intervallo

centrale.

35

Page 36: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

Test di Student sulla differenza tra 2 valori medi statisticiSi suppone che sia 2

22

1 σσ =

210 : µµ =HSi definisce

2)1()1(

21

222

2112

−+−+−

=nn

SnSnS con 2

1S e 22S varianze campionarie

Si dimostra che:

Sxx

nnnnT 21

21

21 −+

=

è una v.a. con distribuzione di Student a m = n1 + n2 – 2 gradi di libertà.

Dopo aver scelto α, se è compresa fra - 2

1 α−x e

21 α−

x allora con probabilità 1 – α appartiene alla

zona centrale e dunque l’ipotesi H0 è da accettare.

Distribuzione di Student con m g.l.Dominio { }∞≤≤∞−= xS

21

2

1

2

21

)(

+−

+

Γ

=

m

mx

mm

m

xfπ

{ }{ }

2

0

−=

=

mmxVar

xM con m > 2

TEST NON PARAMETRICI

Test di χ2 sull’adattamento dei dati ad una distribuzione di probabilitàSia x1,x2,…, xn un campione rappresentativo di una v.a. x.Si ordinano gli n valori in ordine crescente.Supponendo che l’insieme delle x sia già ordinato allora sarà: x1 < x2 < … < xn

Si suddivide l’intervallo xn – x1 in m sottointervalli di ampiezza m

xxn 1− .

Si collocano le n variabili campionarie nei vari sottointervalli detti classi.Sia Ni il numero di tali variabili che cadono nella classe i-esima.Si ipotizza che l’andamento delle Ni per ogni i abbia una certa distribuzione.Si vuole verificare se è vero o no ( H0 ).A tale proposito siano pi le probabilità ottenute integrando la densità di probabilità ipotizzatanell’intervallo [(i-1) – i] .Si definisce la seguente v.a.:

ii

ii p

npn

Ny

−= con i = 1, 2,.., m

Si dimostra che la v.a.:

∑=

=Χm

iiy

1

22

36

Page 37: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

è una v.a. con distribuzione χ2 a (m – 1) gradi di libertà.

Posto un α, allora se χ2 α−≤ 1x l’ipotesi H0 è da accettare.

37

Page 38: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

ANALISI STATISTICA DEI DATI DI PROVA

I risultati delle prove di vita vengono generalmente sottoposti ad un’analisi statistica per trarre leinformazioni che saranno poi utilizzate per fornire i dati di previsione dell’affidabilità deldispositivo.Dal punto di vista statistico si tratta di determinare una v.a. definibile in un certo campo di valorisempre positivi. Ha interesse determinare il tipo di distribuzione assunto da questa v.a. , per questoè necessario ricavare dalle osservazioni sperimentali alcune funzioni che caratterizzano ledistribuzioni statistiche. La prima di queste è la densità di probabilità:

)()( dxxXxPdxxf +≤≤= cioè la probabilità che la v.a. X cada nell’intervallo x, x+dx.Risulta più frequente l’utilizzo della funzione cumulativa F(x):

)()( xXPxF ≤= cioè la probabilità che X non superi il valore di x.Per qualsiasi distribuzione ha interesse calcolare i parametri statistici fondamentali : il valor mediox, la varianza σ2 e il valore mediano xm :

5,0)()()(

)()(

222

0

=−=

== ∫∞

mxFxExE

dtxxfxEx

σ

DISTRIBUZIONE ESPONENZIALE

È la distribuzione applicabile ai tempi di guasto quando la funzione di azzardo risulta costante neltempo (tasso di guasto λ). La densità di probabilità sarà:

tetf λλ −=)(I suoi parametri statistici:

λλ

λσ

λ

6931,02ln

1

1

==

=

=

mt

t

La funzione accumulativa e quella di affidabilità:

t

t

etRetF

λ

λ

=

−=

)(1)(

38

Page 39: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

La prima può essere linearizzata isolando l’esponenziale e facendo il logaritmo naturale degliinversi:

ttF

λ=

− )(1

1ln

otteniamo quindi un’espressione del tipo: y = λx. In questo modo è possibile tracciare la seguentecarta di controllo:

DISTRIBUZIONE DI RAYLEIGH

È la distribuzione che si applica quando la funzione di azzardo può ritenersi linearmente crescentenel tempo.La densità di probabilità:

2

2

22)( s

t

esttf

−= per t = s raggiunge il suo valore massimo.

La funzione cumulativa e quella di affidabilità:

2

2

2

2

2

2

)(

1)(

s

t

st

etR

etF

=

−=

I parametri statistici:

222 429,02

2

253,12

ss

sst

=

−=

==

πσ

π

39

Page 40: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

DISTRIBUZIONE NORMALE

È la più importante di tutte per il teorema centrale del limite.Questa distribuzione è idonea a rappresentare i tempi di guasto derivanti da un determinatofenomeno di degradazione.La densità di probabilità può essere espressa in 2 forme. La prima:

2

2

2

)(

21)( σ

µ

πσ

−−

=t

etf

doveμ rappresenta il valor medio della distribuzione (coincidente anche con il valore mediano)σ s.q.m.Si tratta di una distribuzione simmetrica centrata su μ e con 2 flessi in corrispondenza di σµ ± ,avente andamento a campana.La funzione cumulativa relativa è:

−+=

2)(1

21)(

σµterftF

dove erf è la funzione di errore.

Più spesso, la densità di probabilità viene espressa in una forma ridotta, ottenuta dalla precedente

introducendo la nuova v.a. σ

µ)( −= tx :

2

2

21)(

x

exf−

La funzione normale ridotta ha come valor medio lo zero e come s.q.m. l’unità.La corrispondente funzione cumulativa:

+=

21

21)( xerfxF

Per tracciare la carta di controllo si parte da un diagramma che mette in relazione la y con quellaridotta x, ma su questo asse coordinato si riportano, invece delle determinazioni x, i corrispondentivalori di F(x). Occorre fissare prima i valori minimo e massimo dell’intervallo F(x) che si vuolerappresentare, cioè )(),( MMmm xFFxFF == e stabilire la lunghezza D del relativo assecoordinato. I valori intermedi, d, si determinano attraverso la semplice proporzione:

mM

m

xxxx

Dd

−−

=

E’ opportuno che la scala delle ascisse abbia valori interi di F(x).

40

Page 41: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

DISTRIBUZIONE DI WEIBULL

È una distribuzione che si presta molto bene a rappresentare un’ampia gamma di v.a. continue, daquella esponenziale a quella approssimativamente normale.

La funzione di densità:β

αβ

ααβ

−−

=t

ettf1

)(

doveα è il parametro di scala , se aumenta f(t) diminuisceβ è il parametro di forma, compare sia come parametro moltiplicativo che come esponenziale,cambiandolo varia completamente la curva (forma).Entrambi sono positivi ma non necessariamente interi.Se:

- β = 1 : l’andamento è quello esponenziale- β = 2 : si ottiene la distribuzione di Rayleigh- al crescere di β l’andamento approssima sempre meglio quello di una distribuzione normale.

41

Page 42: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

I parametri statistici:

Γ

Γ

=

Γ⋅=

β

ββσ

ββα

1

2

2

1

2

22 t

t

dove Г(y) è la funzione gamma di y.Le altre funzioni caratteristiche:

β

β

α

α

=

−=t

t

etR

etF

)(

1)(

Per costruire la carta di controllo:La funzione cumulativa viene linearizzata attraverso un duplice passaggio ai logaritmi naturalidell’inverso del suo complemento ad uno:

[ ] )ln(ln)(1

1lnln αβ −=−

ttF

Si ottiene così un’espressione nella forma αββ ln−= XY avendo posto:

tXtF

Y

ln)(1

1lnln

=

−=

La carta di controllo riporta Y in ordinate e X in ascisse; generalmente però sugli assi coordinativengono indicati i valori di F(t) e di t.

42

Page 43: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

DISTRIBUZIONE CHI-QUADRO

È una distribuzione utilizzata nei test statistici per la verifica delle ipotesi.Questo deriva dal fatto che questa distribuzione viene definita attraverso una sommatoria deiquadrati di n v.a. indipendenti di tipo normale:

∑=

±=Χn

iiU

1

22 viene detta funzione chi-quadro ad n gradi di libertà.

Per ∞→n la Χ2 tende ad una normale (teorema centrale del limite).La somma di m v.a. Χ2 è ancora una v.a. con distribuzione Χ2 e m gradi di libertà.Nelle verifiche delle ipotesi sono importanti i percentili della distribuzione Χ2 ad n gradi di libertà.La funzione di densità di probabilità:

2

2

12

22

)(x

n

n

n en

xxf−

Γ

=

α=−===Χ>Χ ∫∞

Χ

ppdxxfPp

p 1100

)()(2

22

il valore di Χp2 è detto anche percentile o frattile a p%.

α è detto livello di significatività.

STIME PUNTUALI

Le stime puntuali consistono nel calcolo dei parametri caratteristici di un modello probabilisticoipotizzato per la popolazione esaminata. Esistono vari metodi:

- metodo della stima dei momenti: è il metodo più usato per effettuare una stima puntuale,impiegabile in tutte le applicazioni.

- metodo della massima verosimiglianza: se consideriamo n osservazioni della popolazionein esame come altrettante v.a. indipendenti, possiamo scrivere per ciascuna di esse la densitàmarginale esprimente la probabilità che sia ii xx = e dipendente dal parametro θ che deveessere stimato:

)(),( iiii xxPdxxf ==θsi definisce funzione di verosimiglianza L la funzione di densità di probabilità congiunta fornita dal prodotto delle n funzioni sopra citate:

∏=

=n

iin xfxxxL

121 ),();,...,,( θθ

il valore di θ non lo ricavo, ma vado a tentativi.

- metodo della stima lineare in media quadratica: è il metodo più semplice per stimare unav.a. Y funzione di un’altra v.a. indipendente X, tramite una funzione lineare di X:

baXY +=Trovo poi la retta di regresso in media quadratica, cioè la retta che approssima meglio i punti(minima distanza):

43

Page 44: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

CAMPIONAMENTO STATICO

La fase in cui vengono effettuate prove e misure su un prodotto industriale al momento del suopassaggio dal costruttore all’utilizzatore è spesso caratterizzata dal collaudo del materiale oggettodella transazione.Nelle produzioni in grande serie, la verifica delle prestazioni di tutti gli elementi di un lottocomporterebbe costi insostenibili; d’altra parte, l’immissione sul mercato di una produzione con unelevato numero di elementi difettosi costituirebbe, per la ditta costruttrice, un grave dannoeconomico.I costi delle attività di collaudo e delle difettosità del prodotto possono essere rappresentati in undiagramma, in funzione della percentuale di pezzi difettosi non individuati nei quantitativi immessisul mercato.

La curva del costo dei collaudi cresce dapprima lentamente, per poi aumentare rapidamente allorchéla percentuale suddetta deve essere ridotta a valori molto bassi.Al contrario, la curva dei costi derivanti dalle difettosità della produzione, risulta rapidamentecrescente con la diminuzione dei pezzi difettosi non rilevati nelle operazioni di collaudo.La somma di queste 2 curve presenta un valore minimo in corrispondenza di una certa percentualedi difettosi non rilevati (di solito superiore al valore nullo). Ciò significa che, dal punto di vista economico, non conviene verificare tutti i pezzi prodotti.Quindi solitamente, si effettuano le operazioni di collaudo su base statistica, prelevando in maniera

44

Page 45: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

casuale da ogni lotto, un campione omogeneo (che rappresenta staticamente tutte le proprietàtecniche della popolazione originaria) sul quale effettuare le prove e le misure.In primo luogo è necessario stabilire i limiti delle caratteristiche per il quale il prodotto vienedefinito difettoso; il controllo applicato in questo tipo di collaudo risulta essere generalmente quelloper attributi, in quanto la decisione finale è: passa – non passa (non quanto durerà).La decisione di accettare il lotto esaminato viene presa, nel caso più semplice, individuando ilnumero di pezzi difettosi presenti nel campione e verificando che tale numero non superi un valoreprefissato in base a determinati criteri probabilistici. La scelta di questi criteri è particolarmenteimportante al fine di evitare il rischio di rifiutare un lotto buono o di accettarne uno cattivo. Quindi si considera l’operazione di collaudo nel suo sviluppo generale, ossia si prende in esame ilcaso in cui molti lotti dello stesso prodotto vengono sottoposti al collaudo l’uno dopo l’altro: questoconsente di calcolare la probabilità di accettazione di ciascun lotto in funzione della sua difettosità curva operativa che assume un andamento caratteristico per ciascun piano di campionamento.Un piano di campionamento è caratterizzato da:N = grandezza del lottoN = grandezza del campioneD = n. di pezzi difettosi nel lotto

NDp = = frazione di difettosi nel lotto

d = n. massimo di difettosi ammessi nel campione al fine di considerare il lotto conforme alleprescrizioniSi può così calcolare la probabilità Pa , funzione di p, di accettare un lotto che abbia D difettosi:

−−

=∑

=

nN

kD

knDN

pP

d

ka

0)(

Per campioni di piccole dimensioni (quando 1,0≤Nn

) :

∑=

−−

=

d

k

knka pp

kn

pP0

)1()(

L’andamento della funzione è il seguente e costituisce la curva operativa del campionamento:

45

Page 46: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

Osservazioni:- all’aumentare di n/N la curva tende ad avere un andamento sempre più discriminante tra

l’accettazione e il rifiuto dei lotti- se n=N avremo un controllo al 100% e la curva operativa assumerebbe un andamento a

gradino, con Pa = 1 per p inferiore al valore di accettazione e Pa = 0 per p superiore a talevalore

Caratterizzano la curva operativa:- LQA: livello di quantità accettabile è il valore di p a cui corrisponde una probabilità di

accettazione di 0,95. Il complemento a 1 di LQA viene chiamato rischio del costruttore. - LQT: livello di qualità tollerabile è il valore di p a cui corrisponde una probabilità di

accettazione di 0,10. Il complemento a 1 di LQT viene detto rischio del committente.La curva della qualità media risultante (QMR) esprime la percentuale di elementi non conformirimanente dopo la verifica al 100% dei lotti rifiutati e dopo aver sostituito in questi gli elementidifettosi:

aPpQMR ⋅⋅= 100%

Presenta un punto di massimo la cui ordinata è detta limite di qualità media risultante (LQMR):il suo interesse per il committente risiede nel fatto che la frazione di difettosità della fornitura nonpotrà mai essere superiore al valore di LQMR qualunque sia la percentuale p di difettosità delmateriale fornito dal costruttore.Nell’attuazione pratica del campionamento sono previste alcune procedure:

- campionamento semplice:

dal lotto di numerosità N si preleva il campione di grandezza n da sottoporre a verifica. Siindividua così il numero d di difettosi nel campione e lo si confronta con il valore limite dM :se d<dM il lotto viene accettato altrimenti viene rifiutato.

46

Page 47: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

- Campionamento doppio:

è composto di 2 fasi. Nella prima si estrae dal lotto un primo campione di numerosità n1 e siindividua in esso il numero d1 di difettosi. Questo valore viene confrontato con 2 valorilimite dM1 e dM2 stabiliti dal piano di campionamento: se 11 Mdd ≤ il lotto è accettato,altrimenti se 21 Mdd ≥ viene rifiutato. La seconda fase consiste nel prelevare dal lotto unsecondo campione di numerosità n2 e nel rilevare i pezzi difettosi d2 in esso presenti. Siconfronta poi la somma 21 dd + con il terzo valore limite dM3 (eventualmente coincidentecon dM2 ); il lotto viene accettato se 321 Mddd ≤+ .

- Piani sequenziali:

sono rappresentati da 2 rette parallele tracciate nel piano coordinato avente come ascisse ilnumero n degli elementi ispezionati e in ordinate il numero d dei difettosi rilevati. La rettasuperiore è la linea di rifiuto e quella inferiore è la linea di accettazione. La procedura

47

Page 48: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

consiste nel prelevare successivamente dal lotto campioni di piccola entità e di sommare viavia il numero di pezzi difettosi rilevato. Se questa somma attraversa una delle 2 rette laprocedura si interrompe: il lotto è accettato se viene attraversata la retta inferiore altrimentirifiutato se viene attraversata quella superiore. Ma può capitare che non si giunga mai ad unadecisione; per evitarlo, ogni piano di campionamento sequenziale stabilisce un limitesuperiore nM per le unità ispezionabili e un limite superiore dM per i pezzi difettosiammissibili. Le 2 rette risultano espresse da:

snhdsnhd

r

a

+=+−=

2

1

dove da è il numero di difettosi consentiti per l’accettazione del lottodr è il numero di difettosi consentiti per rifiutarlon è il numero di unità ispezionateh1 e h2 sono calcolati attraverso il rischio del fornitore, LQA, il rischio del committente eLQT.

48

Page 49: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

TECNICHE DI ANALISI DELL’AFFIDABILITA’ DEI SISTEMI

Molte tecniche di analisi dell’affidabilità dei sistemi si propongono soltanto risultati di tipoqualitativo: effettuano un’analisi della struttura del sistema volta a stabilire le interdipendenze traguasti di componenti diversi e tra questi e il guasto di tutto il sistema.Si dividono in:

- metodi deduttivi: studiano la propagazione di un guasto dal livello di complessità più altoai livelli via via più bassi, cioè tendono a determinare quali cause possono essere all’originedi ogni modalità di guasto prevedibile per il sistema. Richiedono la conoscenza dei modi edegli effetti dei guasti sul sistema , sono utilizzati in fase iniziale di progettazione,richiedono un’equipe di attori e vengono utilizzati strumenti grafici (CAD).

- metodo induttivi: procedono invece dai livelli di complessità più elementari a quello piùelevato, cioè tendono ad individuare quali conseguenze sulla funzionalità del sistema possaavere il guasto di un singolo componente.

ANALISI DEI MODI E DEGLI EFFETTI DEI GUASTI

FMEA (Failure Modes and Effects Analysis) è un metodo induttivo che procede dal basso versol’alto per fornire informazione qualitative sull’affidabilità di un’apparecchiatura.L’analisi parte dall’esame di una struttura minimale del sistema, per ciascun elemento della qualesiano disponibili informazioni precise sui modi di guasto e sulle loro cause. Analizzando lerelazioni funzionali tra questi elementi essa permette di risalire agli effetti che ciascun tipo di guastoprovocherà sulle prestazioni dell’intero sistema.Per alcune apparecchiature è importante estendere questa analisi alla gravità delle conseguenze diun loro guasto su altri sistemi e sulla sicurezza dei loro utenti: in questo caso si parla di FMECA(Failure Modes, Effects and Criticity Analisis): analisi dei modi, degli effetti e della criticità deiguasti.Queste 2 tecniche fanno parte di un programma generale di assicurazione dell’affidabilità e trovanoil momento di applicazione principale nella fasi di progetto e di sviluppo del sistema (utilizzazionelimitata nelle fasi di studio e pianificazione).Queste indagini dovrebbero consentire di tracciare un panorama del comportamentodell’apparecchiatura in tutte le possibile situazioni di impiego e di diagnosticare ciascun tipo diguasto.

MODI DI GUASTO

Il modo di guasto rappresenta come si manifesta il fallimento del componente.I dati di appartenenza della tecnica FMEA sono costituiti dalle modalità di guasto caratteristiche perciascun elemento della struttura dalla quale essa prende l’avvio.L’esame dei modi di guasto non deve essere effettuato singolarmente per ciascun componente, mava approfondito per verificare l’eventualità che una qualsiasi causa provochi contemporaneamenteguasti della stessa modalità in 2 o più componenti del sistema. Quindi, la tecnica FMEA è utilizzataanche per studiare questo tipo di guasti, detti di modo comune, e per decidere gli interventi piùidonei ad eliminare le cause.

49

Page 50: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

ANALISI DELLE CRITICITA’

Nella FMECA, quindi nell’analisi delle criticità, assume importanza la stima delle probabilità con laquale ciascun effetto può manifestarsi.La graduatoria delle gravità delle conseguenze dei guasti di una determinata apparecchiatura su unsistema complesso può seguire i seguenti criteri, in ordine crescente di importanza:

I. mancato funzionamento del macrosistemaII. conseguenze economiche per il mancato funzionamento

III. danneggiamento di altre apparecchiature o dell’apparecchiatura stessaIV. lesioni al personale addetto all’esercizio del sistemaV. effetti letali sulle persone

Una classificazione della probabilità di occorrenza di ognuno dei suddetti eventi può seguire ilseguente criterio:

a) probabilità molto bassab) probabilità piccolac) probabilità mediad) probabilità alta

Le fasi dell’analisi FMECA sono:(1) ricerca dei difetti potenziali di ciascuna funzione elementare del prodotto(2) per ciascun difetto, ricerca dei suoi effetti, le sue cause, la criticità e la gerarchizzazione(3) per ciascuna azione correttiva prevista, designare un responsabile ed elaborare un piano

revisionale(4) messa in pratica e verifica delle azioni correttive(5) rivalutazione delle criticità(6) aggiornamento del piano di sviluppo

Indice di criticità: C = P G RDoveP è la probabilità non che si manifesti, ma che si rilevi durante la fase di collaudo (tra 0 e 1)G è la gravità (come le conseguenze gravano sul sistema, scala da 1 a 10)R è la rilevabilità (un difetto che si manifesta non è detto che venga rilevato, scala da 1 a 10)Quindi il massimo valore che può assumere C è 100.Per evidenziare i risultati della tecnica FMECA viene utilizzata la griglia di criticità:

50

Page 51: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

ANALISI DELL’ALBERO DEI GUASTI

FTA (Fault Tree Anlysis), albero dei guasti: è un metodo deduttivo che procede dall’alto verso ilbasso per studiare (generalmente in modo qualitativo) la dipendenza funzionale tra i guasti al livellomassimo e quelli al livello minimo (analisi grafica).La tecnica FTA si propone pertanto lo scopo di individuare le vie che dal guasto principalerisalgono ai guasti originari; i risultati vengono di solito rappresentati mediante un grafico i cuisimboli sono:

Questa tecnica ha varie fasi:

51

Page 52: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

(1) definizione dello scopo(2) costruzione dell’albero dei guasti(3) una volta che l’albero è completo si passa alla fase finale i cui scopi sono:

- identificazione dei guasti originari che sono causa diretta del guasto principale- valutazione dei livelli di severità dei guasti tollerabili dal sistema- verifica dell’indipendenza dei guasti- individuazione dei dati necessari per diagnosticare i guasti critici e loro meccanismi- identificazione delle modalità di diagnosi dei guasti e delle procedure di manutenzione

ANALISI CON IL MODELLO DI MARKOV

I modelli di Markov sono delle funzioni di 2 v.a.: s stato del sistemat tempo di osservazioneIn campo affidabilistico vengono utilizzate s discreta e t continua.Qualsiasi modello di Markov è caratterizzato da un certo numero di probabilità pij che sonoprobabilità di transizione del sistema dallo stato iniziale i allo stato finale j; pij dipende solo daglistati i e j presi in considerazione.Queste probabilità di transizione devono seguire 2 regole generali:

1- la probabilità di transizione dallo stato iniziale a quello finale, relativa all’intervallo ditempo δt, è individuata dal prodotto ttz δ)( , essendo z(t) la funzione di azzardo associata ai 2stati

2- la probabilità che nell’intervallo δt avvengano 2 o più transizioni è un infinitesimo di ordinesuperiore e può essere quindi trascurata

Un modello di Markov è risolvibili con metodi relativamente semplici solo se ci troviamo nelperiodo di azzardo costante.Nel caso di sistemi riparabili, la probabilità di transizione da uno stato guasto ad uno operativoviene indicata in funzione del valore del tasso di riparabilità μ (considerato costante nel tempo edespresso con la stessa unità di misura di λ).L’analisi con il modello di Markov fornisce, oltre ad un metodo uniforme e sintetico per lo studiodell’affidabilità e della disponibilità, anche un metodo utile nella scelta delle strategie dimanutenzione.

Diagrammi di statoQuesto tipo di analisi inizia con il tracciamento dei diagrammi di stato del sistema considerato,consistente in un diagramma di flusso che indica le possibili transizioni tra tutti gli stati assumibilidal sistema.Sistema non riparabile: il flusso è unidirezionale (dallo stato di partenza verso quello successivo) elo stato finale viene chiamato stato assorbente, perché esso non consente altre transizioni.Sistema riparabile: il flusso tra gli stati è bidirezionale.Il caso più elementare è quello di un solo elemento non riparabile che assume solo 2 stati:s0 operativos1 guastoSi otterrà:

dal quale si possono ricavare formule:

52

Page 53: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

{{ 1).()()(

0).()1)(()(

101

100

tPttPttPtPttPttP

+⋅=++−=+

λδδλδδ

dove:P1 + la probabilità dello stato s1

P0 + la probabilità dello stato s0

Con il passaggio al limite si ottengono le seguenti equazioni differenziali del primo ordine:

)()(

)()(

01

00

tPdt

tdP

tPdt

tdP

λ

λ

=

−=

risolvibili con i consueti metodi analitici, dopo aver stabilito le appropriate condizioni iniziali.

53

Page 54: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

TECNICHE DI INCREMENTO DELL’AFFIDABILITA’ EDISPONIBILITA’

AZIONI SUL PROGETTO

La massima affidabilità di un prodotto industriale si raggiunge nella fase di progetto (affidabilitàintrinseca): nelle fasi successive del suo ciclo di vita questo valore può solo diminuire.Per i dispositivi non riparabili è più logico far riferimento alla disponibilità, piuttosto cheall’affidabilità. Essa è strettamente legata alla loro manutenibilità, pertanto, per questi dispositivi, ènecessario prendere in considerazione nella fase progettuale anche tutte quelle azioni chefavoriranno le operazioni di manutenzione del prodotto finito.L’affidabilità e la manutenibilità sono i principali requisiti che devono essere presi inconsiderazione per ottimizzare il progetto. Queste grandezze devono essere specificate in terminiquantitativi:

- la prima mediante uno dei consueti parametri quali il tasso dei guasti, la vita utile o il valoredi MTBF

- la seconda attraverso il valore MTTR, il tempo massimo di riparazione.

AZIONI SUI COMPONENTI

La via più diretta per incrementare l’affidabilità totale è quella di scegliere i componenti col piùbasso tasso di guasto possibile. Ma la scelta non deve essere fatta solamente utilizzando questocriterio, anzi anche in base alla specifica situazione ambientale nella quale ciascun componenteverrà a trovarsi in quel particolare sistema (non si fanno rispettare le condizioni di lavoro nominali).Un prima tecnica per aumentare l’affidabilità è suggerita dall’esperienza, infatti, applicando ad uncomponente sollecitazioni inferiori a quelle nominali, la sua vita utile risulterà maggiore.Questa procedura è chiamata sotto-utilizzazione (de-rating).

RIDONDANZA

La disposizione operativa in parallelo di dispositivi simili conduce ad un incrementodell’affidabilità totale. Questa tecnica prende il nome di ridondanza e può assumere diverseconfigurazioni.Ridondanza attiva (active redundancy): la forma applicativa più immediata è quella di 2, o più,elementi connessi stabilmente tra di loro fino dal primo istante della messa in esercizio del sistema.Il punto di forza è che è poco costoso, ma vi sono 2 inconvenienti:

- difficilmente 2 dispositivi possono coesistere in un circuito senza interferire tra di loro- i fenomeni di degradazione si manifestano contemporaneamente nei 2 dispositivi, a partire

dallo stesso istante; uno dei 2 si guasterà dopo l’altro.Ridondanza in attesa o sequenziale (stand-by redundancy):è il tipo più consueto di ridondanza incampo elettrico ed elettronico; consiste nell’introdurre un dispositivo di commutazione cheintroduce l’elemento ridondante B solo dopo che si è guastato quello principale A. In questo caso i 2dispositivi non interferiscono circuitalmente; inoltre il secondo comincia a degradarsi solo almomento della sua messa in servizio e aumenta (raddoppia) l’MTBF. Inconveniente: è moltocostoso e necessita di un sistema logico di gestione.Una considerazione importante per questa tecnica riguarda la scelta del livello di complessità alquale effettuare la ridondanza, cioè se a livello di componente elementare o di sottosistema.Esempio: consideriamo il caso più semplice della ridondanza di 2 elementi:

54

Page 55: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

( )( )22,1

2,1

2,1

21212,1

212,1

11'

'''

RRR

R

RRRRRRRR

tot −−==

===

2211 '' RRRtot =

Quindi, il maggior incremento di affidabilità si ha generalmente attuando la ridondanza ai livelli piùbassi di complessità. Tuttavia, ciò comporta un maggiore onere economico per il maggior numero didispositivi ausiliari necessari. Per questo sarà necessario scegliere una situazione intermedia dicompromesso fra le 2 esigenze.

MANUTENZIONE

La manutenzione è il complesso di tutte quelle azioni che tendono a ripristinare le condizionioperative iniziali di un sistema. La sua attuazione richiede ovviamente che il sistema sia accessibileal fine di effettuare le necessarie operazioni di riparazione.La manutenibilità è l’attitudine di un dispositivo, in condizioni specificate d’uso, ad essereconservato o ripristinato in uno stato nel quale può adempiere alle funzioni richieste, quando lamanutenzione è effettuata in prestabilite condizioni e usando le procedure e i mezzi prescritti.

µ1=MTTR

dove μ è il tasso di riparabilità.tetA )()( µλ

µλλ

µλµ +−⋅

++

+=

dove A è Il valore di regime, per ∞→t , risulta:

MTTRMTBFMTBFA

+=

+=∞

µλµ)(

Quindi A aumenta al crescere del tasso di riparabilità ( = al diminuire dell’MTTR).

Tempi di riparazioneLe tappe fondamentali per la riparazione di un componente sono:

1. rilevamento della condizione di guasto del sistema (cliente)2. individuazione del guasto (assistenza)3. reperimento delle parti di ricambio (periodo più lungo, punto critico, assistenza)4. operazioni di sostituzione (tempo molto ridotto, assistenza)5. ripristino delle condizioni operative (come un collaudo post-riparazione)

Tipi di manutenzione:- correttiva: consiste in una vera e propria azione di riparazione effettuata sul sistema dopo la

comparsa di un guasto. I tempi di riparazione sono indicati precedentemente.- preventiva: consiste nel sostituire un componente prima che si guasti, quando si prevede

che esso possa entrare nel periodo dei guasti per usura. È meno costoso (non prevede letappe 1. e 2.); il rischio che si corre è di sostituire un componente con MTBF ancora alto.

55

Page 56: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

Definizione degli obiettivi di manutenibilitàLa manutenibilità di un sistema, come la sua affidabilità, deve essere definita in fase diprogettazione.In primo luogo si deve effettuare, per ogni parte o sottosistema, una scelta tra i 2 tipi dimanutenzione al fine di stabilire la condizione ottimale per raggiungere il prestabilito tasso dimanutenibilità. Il presupposto iniziale è quello di poter determinare i tempi richiesti da questi 2 tipi,in uomo x ora, per ciascuna delle fasi. Da questi valori si potrà stabilire la struttura basedell’organizzazione preposta alla manutenzione.Inizialmente viene predisposta una documentazione molto accurata.Per ridurre i tempi di individuazione del guasto, è consigliabile prevedere dei metodi per favorire ladiagnosi della stato di funzionamento; ad esempio predisponendo delle segnalazioni di guasti nelleparti più importanti tramite semplici mezzi di segnalazione.Sempre con questo scopo, possono essere predisposti nel sistema (in sede di progetto) appositi puntidi misura accessibili con strumentazione esterna per verificare lo stato di funzionamento. Perognuno di questi punti il costruttore dovrà indicare le grandezze che assicurano la correttafunzionalità del sistema. Questa attitudine dell’apparecchiatura ad una diagnosi esterna prende ilnome di verificabilità o testabilità (testability).Nei sistemi dove è possibile introdurre un microprocessore, si utilizza sempre di più l’autodiagnosi(BITE, Built-In Test Equipement).

PRECONDIZIONAMENTI

Sono diversi i motivi per i quali sarebbe opportuno che la vita di un dispositivo iniziasse subito conil periodo di azzardo costante:

- assicura la validità della legge esponenziale usata correntemente nei calcoli affidabilistici- corretta applicazione della manutenzione preventiva

Ma resta sempre l’inconveniente di fondo che l’utente di un’apparecchiatura deve sopportare, nelprimo periodo di utilizzo, un tasso di guasto superiore (periodo dei guasti prematuri). Lo studio metodi per ridurre l’incidenza dei guasti prematuri sui parametri affidabilistici di undispositivo rientra nelle tecniche di incremento dell’affidabilità.Si tratta di tecniche di precondizionamento da attuarsi su tutti i dispositivi immessi sul mercato,prima delle prove di determinazione e di conformità dell’affidabilità. Queste tecniche si fondanosull’ipotesi che tutta la popolazione esaminata sia costituita da:

- elementi buoni- elementi potenzialmente difettosi

Quindi, si ipotizza che la distribuzione della resistenza dell’intera popolazione ad una certasollecitazione presenti 2 massimi ben distinti.

Se si conoscesse la distribuzione si potrebbe subito rilevare il valore critico Sc della sollecitazioneche discrimina le 2 sottopopolazioni. Applicando a tutti gli elementi questo valore, quelliintrinsecamente deboli verrebbero così eliminati. Ovviamente ciò non si verifica nella pratica.

56

Page 57: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

Una delle tecniche più usate è la setacciatura con sollecitazioni ambientali (ESS, EnvironmentalStress Screening) che consiste nell’applicazione a tutto il prodotto di una successione di cicli consollecitazioni incrementate rispetto ai valori nominali di impiego. Il fattore di accelerazione diciascuna sollecitazione costituisce il punto critico della setacciatura. Esso deve essere abbastanzaelevato per eliminare pressoché tutti gli elementi della sottopopolazione debole, ma senza degradareapprezzabilmente quelli della sottopopolazione buona. L’eliminazione dei difetti latenti non èl’unico scopo dell’ESS, ma anche individuare i diversi modi di guasti, la loro incidenza relativa, leloro possibili cause e la loro variabilità nel tempo, in modo da acquisire gli elementi tecnici perattuare una retroazione correttiva sul processo costruttivo e quindi aumentare l’affidabilità delprodotto.Un atro tipo di precondizionamento è il cosiddetto rodaggio (burn-in) che si applicaprevalentemente ai sistemi e consiste essenzialmente in prove di vita di lunga durata. Lesollecitazioni applicate sono di solito quelle massime previste per il sistema, che vengono applicatefino a quando il tasso di guasto osservato si stabilizza su di un valore minimo di regime.

57

Page 58: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

NORMAZIONE

La normazione è l’attività che trova soluzioni ottimali a problemi che si ripetono in vari campi(scienza, tecnica…), cioè l’attività che porta alle norme.Le norme sono specifiche tecniche accessibili al pubblico ed approvate da un organismo qualificatosul piano nazionale, regionale ed internazionale. Sono regole unificate rispetto a possibiliproliferazioni, coerenti fra loro e accessibili a tutti gli interessati.La normativa:

- deve essere rispettata da ogni prodotto sul mercato- serve a sanare i contenziosi - è uguale per tutti (valida in tutta Europa)

Gli scopi della normazione (iso-iec 1977) sono:- facilitare gli scambi- unificare i metodi (es. simboli)- unificare i prodotti- facilitare la comunicazione tecnica- salvaguardare gli investimenti dei consumatori

Una volta la normativa tendeva ad armonizzare (adeguarsi) le normative nazionali preesistenti.Oggi, la tendenza della normativa, invece, è quella di creare nuove norme.Tendono a diminuire le norme nazionali, ormai sono tutte norme CENELEC (europee).La normazione tende ad essere una disciplina integrale:

- formulazione, emissione e diffusione degli standard- metrologia e servizi di calibrazione- controllo di qualità- certificazioni- ricerca e sviluppo- education & training

La normativa può essere:- imposta: sono previsti controlli- raccomandata: sono previsti incentivi

I vantaggi per l’impresa sono, con l’unificazione dei processi produttivi:- riduzione del bisogno di comunicazione tra progettisti- riduzione del tempo per trasferire le informazioni al nuovo personale- linguaggio comune tra venditore ed acquirente- riduzione dei tempi di consegna- semplificazione dei controlli- riduzione del volume e della complessità dei manuali di manutenzione

Mentre a livello di nazione si hanno i seguenti vantaggi:- si legifera in base a norme esistenti, oppure- si promuovono norme nuove - quindi si semplifica l’attività amministrativa e riduce i costi

Gli enti nazionali di normazione sono:- comitati congiunti: coordinano le attività di normazione in specifici settori (es. affidabilità)- comitati pilota: coordinano e guidano l’attività di molti comitati tecnici (TC) riguardo ad un

tema specifico (nell’IEC vi sono 7 CP)- comitati guida: istituiscono norme di carattere generale

es TC1: terminologia.

58

Page 59: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

La CEE ha investito molto per produzione e armonizzazione di norme della sicurezza, sanitàpubblica, tutela dei consumatori e protezione dei lavoratori a fronte di vari tipi di rischi.Esiste un nuovo approccio comunitario, si parla di rinvio alle norme nell’ambito della sicurezza:

- i prodotti che circolano nella CEE devono soddisfare precisi requisiti di sicurezza- gli organismi di normazione europea emetteranno le specifiche tecniche armonizzate- le amministrazioni sono obbligate a riconoscere i prodotti fabbricati secondo le norme

armonizzate una presunta conformità ai requisiti dichiarati essenzialiQuesto concetto si è iniziato ad applicare nei campi: costruzione meccanica, materiali dacostruzione, apparecchi elettronici.

59

Page 60: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

QUALITA’

Ogni prodotto è caratterizzato da dei parametri che esprimono le sue prestazioni.La qualità è la capacità del prodotto di mantenere inalterati tali parametri nel tempo (definizioneoperativa).Quindi più mantengo inalterati i parametri dei prodotti, tanto più la qualità sarà alta.La qualità è la capacità di un bene a soddisfare le necessità dell’acquirente (definizione generale,storica).Per la determinazione e la certificazione di tali parametri viene effettuato un controllo di qualità delprodotto, cioè monitoro i parametri per vedere che non cambino.La qualità è data da:

- affidabilità (caratteristica del prodotto, parametri statistici)- conformità (caratteristica dell’azienda, parametri deterministici)

Il controllo della qualità viene effettuato:- durante la produzione (controllo dei macchinari che non funzionano, come viene fatto il

prodotto…)- al momento del passaggio del prodotto finito all’acquirente (controllo in uscita)

La prova di tipo è una prova stabilita dalla normativa per verificare le caratteristiche del prodotto.

60

Page 61: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

GUASTI ED AVARIE

Un guasto (failure) è la cessazione dell’attitudine di un dispositivo ad adempiere alla funzionerichiesta. Si tratta quindi di un evento.L’avaria (fault) è lo stato di un’entità caratterizzato dalla inabilità a eseguire una funzionerichiesta. Si tratta quindi di una condizione stazionaria, di uno stato.Il guasto è un evento, al seguito del guasto il sistema entra in avaria (stato).L’entità (item) è ogni parte componente, sistema, sottosistema che può essere considerataindividualmente.I guasti sono classificabili secondo vari criteri.

Cause:- guasti per impiego improprio: attribuibili all’applicazione di sollecitazioni superiori ai

massimi livelli sopportabili dal dispositivo- guasti dovuti a deficienza intrinseca: dati da debolezze costruttive intrinseche ai

dispositivi- guasti primari: quelli non provocati dal guasto di un altro dispositivo- guasti indotti: quelli provocati dal guasto di un altro dispositivo- guasti per usura: quelli provocati da fenomeni di degradazione dei materiali componenti il

dispositivo

Effetti:- guasti critici: quando possono causare danni alle persone o danni gravissimi ad altre parti

del sistema- guasti di primaria importanza: quelli che possono ridurre le funzionalità del sistema- guasti di secondaria importanza: quelli che non riducono le funzionalità del sistema

Entità:- guasti parziali: consistono nella variazione di una o più prestazioni dei dispositivi ma tali

da non impedirne completamente il funzionamento richiesto- guasti totali: consistono in variazioni delle prestazioni tali da impedire completamente ai

dispositivi di fornire le funzioni richieste- guasti intermittenti: consistono nella successione di periodi di funzionamento e periodi di

guasto

61

Page 62: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

IL CONTROLLO STATISTICO DI PROCESSO

Il processo produttivo deve essere stabile e le perone impegnate nella produzione devono esserecontinuamente impegnate nel miglioramento del processo produttivo e nella riduzione dellavariabilità dei fattori coinvolti nella produzione. L’SPC (Statistical Process Control) è lostrumento primario per conseguire tale risultato, e le carte di controllo sono lo strumento piùsemplice per definire una procedura di controllo statistico di processo.Gli strumenti statistici di base per il controllo statistico di processo sono 7 e vengono chiamati imagnifici 7:

(1) istogrammi e grafici “rami e foglie”(2) fogli di controllo(3) grafici di Pareto(4) diagrammi cause ed effetto(5) diagrammi sulla concentrazione dei difetti(6) grafici a dispersione(7) carte di controllo

Ogni processo produttivo è soggetto ad una certa variabilità intrinseca o naturale detta rumore difondo e provocata dall’effetto cumulato di molti piccoli ma ineliminabili fattori casuali. Nel casoin cui la variabilità di un processo sia data solo da fattori casuali, il processo verrà detto sottocontrollo.Ma, tra le fonti di variabilità, ne esistono alcune che influiscono sulla qualità dei prodotti e possonopresentarsi nel processo produttivo solo occasionalmente: in questo caso parliamo di fattorispecifici e sono causati da 3 fattori principali:

- macchinari non ben funzionanti - errori degli operatori- materiali grezzi difettosi

Un processo che stia funzionando in presenza di questi fattori specifici viene detto fuori controllo.Se il processo è sotto controllo la maggior parte degli valori delle grandezze in oggetto cade tra ilimiti di specifica superiore (USL) e inferiore (LSL). Trovare questi 2 limiti non è semplice.

L’obiettivo primario del controllo statistico di un processo è individuare il più velocementepossibile il verificarsi di fattori specifici ed eliminare la variabilità all’interno del processo stesso:per quanto non sia possibile eliminarla completamente, le certe di controllo costituiscono unefficace strumento per ridurla il più possibile.

62

Page 63: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

FOGLI DI CONTROLLO

I primi passi per l’implementazione dell’SPC richiedono che si provveda ad una raccolta di datiriguardanti il processo oggetto di controllo: per tale scopo un utile strumento è il foglio dicontrollo.

La rilevazione effettuata in ordine di tempo risulta particolarmente utile per individuare un trendnella manifestazione dei difetti.Quando si progetta un foglio di controllo, è importante definire in modo chiaro il tipo diinformazione che deve essere raccolta, la data, l’operatore e qualsiasi altra nota che renda piùintelligibile la provenienza del dato. In alcuni casi potrà essere d’aiuto un periodo di test per verifical’efficienza del foglio di controllo.

63

Page 64: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

GRAFICI DI PARETO

Il grafico di Pareto è uno degli strumenti più utili nell’SPC: riporta l’istogramma e l’associatadistribuzione di frequenza cumulata di dati qualitativi ordinati per categoria.

Con questo grafico l’utente può facilmente individuare la più frequente tipologia di difetti.Il grafico di Pareto individua le cause che più di frequente si sono manifestate, non quelle piùimportanti per il funzionamento del prodotto.“La maggior parte del tutto è concentrata in pochi”.

DIAGRAMMI CAUSA ED EFFETTO

Una volta che un errore è stato identificato e isolato, devono essere cercate le cause potenziali diquesto indesiderabile effetto. In situazioni dove le cause non sono ovvie, il diagramma di cause ed effetto costituisce un efficacestrumento per la loro individuazione.

DIAGRAMMI SULLA CONCENTRAZIONE DEI DIFETTI

È un particolare disegno della struttura del prodotto, su cui vengono riportate tutte le visualirilevanti del prodotto stesso.

GRAFICI A DISPERSIONE

Sono utili per individuare potenziali relazioni funzionali tra 2 variabili.

64

Page 65: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

CARTE DI CONTROLLO

Una carta di controllo descrive una certa qualità di un prodotto misurata in diversi istanti di tempo.La carta riporta una linea centrale (CL) che rappresenta il valore medio della qualità, in generecorrispondente al valore desiderato quando il processo è sotto controllo.Le altre 2 linee orizzontali vengono chiamate:

- limite di controllo superiore (UCL, Upper Control Limit) - limite di controllo inferiore (LCL, Lower Control Limit)

Questi limiti di controllo vengono scelti in modo tale che, se il processo è sotto controllo, quasi tuttii valori campionari cadranno al loro interno e non sarà necessario alcun intervento correttivo.Si è soliti unire i punti consecutivi con dei tratti, così da rendere più facile la visualizzazionedell’evoluzione del processo nel tempo.

C’è uno stretto legame tra carte di controllo e verifica delle ipotesi (le carte di controllo sono larappresentazione visiva della verifica di controllo).Ristabilisce se l’ipotesi che il processo sia sotto controllo sia da accettare o meno.Se i limiti son ben posti ho un’alta probabilità che il processo sia veramente sotto controllo.La carta di controllo può essere usata anche come strumento di stima. Ovvero, sulla base di unacarta di controllo si possono stimare alcuni parametri del processo.Queste stime possono essere usate per valutare la capacità del processo (process capability) nelprodurre pezzi accettabili. Le carte di controllo possono essere usate in 2 modi a seconda della caratteristica della variabileoggetto di studio:

(1) se la caratteristica di un prodotto è rappresentabile su una scala continua di valori, vienedetta variabile ed è possibile descriverla con una misura di centralità e una di variabilità: lecarte di controllo per la centralità e la variabilità di un processo vengono chiamate carte dicontrollo per variabili

(2) nel caso in cui molte caratteristiche dei prodotti non possano essere misurate ne su scalacontinua ne su scale genericamente quantitative, ciascuna unità prodotta viene valutataconforme a seconda che possieda o meno certi attributi o a seconda del numero di difettipresenti nell’unità prodotta. Le carte di controllo costruite sulla base di queste grandezzevengono chiamate carte di controllo per attributi

Un passo importante nell’uso delle carte di controllo è la progettazione (scelta della dimensionecampionaria, dei limiti di controllo e della frequenza di campionamento -> se il campionamento ètroppo fitto i costi sono elevati, se il campionamento è rado si ha perdita di informazione).Le carte di controllo hanno avuto un’ampia applicazione per queste ragioni:

1- sono una comprovata tecnica per migliorare la produttività2- sono efficaci per prevenire la produzione di pezzi difettosi3- evitano di dover apportare inutili aggiustamenti sul processo produttivo4- forniscono informazioni diagnostiche5- forniscono informazioni sulla capacità del processo e sulla sua stabilità nel tempo

65

Page 66: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

SCELTA DEI LIMITI DI CONTROLLO

- limiti 3 – sigma- limiti con probabilità 0,001- limiti di sorveglianza delle carte di controllo: sono i limiti interni solitamente posizionati a

2-sigma, vengono chiamati limiti di sorveglianza superiore (UWL, Upper Warning Limits) einferiore (LWL, Lower Warning Limits)

Carta di controllo a 3 - sigmaSono costruite su campioni, ogni punto è una media.

Uso il teorema centrale del limite sommando n v.a. con la stessa distribuzione e ottengo unadistribuzione con media nμ e varianza nσ2 . Facendo la media di n v.a. si ottiene una distribuzione

con media μ e varianza n

2σ .

La media tende ad avere una distribuzione normale.I punti sono medie ottenute dai campioni. Se la loro media è CL costruendo i limiti 3 – sigma, siavrà il 99,73% di probabilità di trovare tutti gli elementi all’interno.

Carta di controllo a 1 - sigma

La probabilità di trovare i punti all’interno dei limiti scende al 66%.

66

Page 67: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

DIMENSIONE DEL CAMPIONE E FREQUENZA DI CAMPIONAMENTO

Quanto più grande è il campione tanto più facile sarà individuare piccoli spostamenti all’interno delprocesso. Per scegliere la dimensione campionaria ottimale bisogna avere presente qual è lo scostamento delprocesso che si vuole individuare più velocemente.Si preferisce aumentare la frequenza di campionamento.Vi sono 2 strumenti utili per calcolare l’ottimale dimensione campionaria e la frequenza dicampionamento:

- lunghezza media delle sequenze (ARL, Average Run Lenght) : è il numero medio dipunti che devono essere osservati prima che un punto cada al di fuori dei limiti di controllo.Quando il processo è sotto controllo:

3700027,011 ===

pARL

dove p è la probabilità che un punto superi i limiti di controllo. Se il processo rimane sottocontrollo, un segnale di fuori controllo si presenterà in media ogni 370 campioni.

- tempo medio al segnale (ATS, Average Time to Signal) : è il prodotto dell’ARL perl’intervallo medio di tempo intercorrente tra 2 campioni e indica il tempo mediointercorrente tra 2 segnali di fuori controllo. Se i campioni vengono esaminati a intervalli ditempo costante (in ore):

hARLATS ⋅=

ANALISI DEGLI ANDAMENTI TIPICI DI UNA CARTA DI CONTROLLO

Una carta di controllo può indicare una situazione di fuori controllo.Una successione di punti aventi un andamento crescente o decrescente viene chiamata sequenza.Un processo è da considerarsi fuori controllo (esempio Western Electric) se:

(1) un punto cade al di fuori dei limiti di 3 – sigma(2) 2 punti su 3 consecutivi cadono oltre i limiti di sorveglianza posizionati a 2 – sigma(3) 4 punti su 5 consecutivi cadono oltre la distanza di 1 – sigma dalla linea centrale(4) 8 punti consecutivi cadono tutti dalla stessa parte della linea centrale

COMMENTO ALLE REGOLE DI SENSIBILITA’ PER LE CARTE DI CONTROLLO

Più regole vengono usate nelle carte di controllo più è facile individuare i fuori controllo.Tuttavia, quando vengono usate contemporaneamente molte regole aumenta l’errore di I specie (direche è fuori controllo quando non lo è).Si supponga di usare k regole decisionali e che la regola i-esima abbia una probabilità di errore di Ispecie pari ad iα . L’errore globale di I specie (o probabilità di falso allarme) per la decisione presacon tutte le k regole è (Hp: k regole indipendenti):

∏=

−−=K

ii

1

)1(1 αα

67

Page 68: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

CARTE DI CONTROLLO PER VARIABILI

Sono carte di controllo per caratteristiche qualitative misurate su scala numerica, chiamatevariabili.Le carte per la variabilità sono importantissime per la qualità. Non evidenziano se il processo è sotto controllo.Minore è la variabilità maggiore è la qualità del prodotto.

CARTA DI CONTROLLO PER x e R

Supponiamo di avere m campioni di numerosità n, il range campionario R è la differenza tra la piùgrande e la più piccola determinazione campionaria:

minmax ii xxR −=La cosa più importante da trovare è il valore centrale (CL) attraverso l’uso di uno stimatore. Unastima corretta si ottiene facendo la media aritmetica:

{ } ∑

=

=

≅=

=

m

kk

m

kk

xm

CLxE

xm

x

1

1

1

1

minmax iii xxR −=

Range medio: m

RR

m

ii∑

== 1

Possiamo costruire 2 carte di controllo: una con xCL = e l’altra con RCL = .Ottenuto il range posso definire i limiti per la carta x :

RAxLCL

xCL

RAxUCL

2

2

−=

=

+=

dove A2 è una costante ricavabile dalle tabelle e dipende solo da n sotto la condizione che gli elementi delcampione siano presi indipendenti.

Per quanto riguarda la carta di controllo R:

RDLCLRCL

RDUCL

3

4

==

=

dove D4 e D3 sono costanti ricavabili dalle tabelle e dipendono solo da n.Quindi entrambi questi limiti valgono solo per campioni di uguale numerosità.

Consideriamo la carta R. La linea centrale sarà in corrispondenza di R . Per determinare i limiti dicontrollo abbiamo bisogno di una stima di σR . Ipotizzando che X abbia distribuzione normale, Rσ̂

può essere trovata analizzando la distribuzione del range relativo σRW = .

68

Page 69: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

I parametri di W (è aleatoria perché R è una v.a.) dipendono solo da n.Il valore atteso { } 2dWE = (anche d2 è tabulata e dipende solo da n).

Sapendo che σRW =

WR=σ

Dove W non è noto, ma il suo valore atteso si: { }

ntiWindipende

dR

WREE

Re

2

ˆ =

== σσ

Otteniamo che: (Limiti per carta x a 3-sigma)

ndRxxRAxUCL 133

22 +=+=+= σ

n1

perché vogliamo il σ della x

ndA

ndRxLCL

xCL

22

2

3

13

=

−=

=

Calcolo D3 e D4 :

σRW =

σw deviazione standard varia al variare di 3dn → Se n è costante: 3dw =σ

σσσ

3dWR

R ==

σ è ignoto ma prima l’abbiamo stimato:

Rdd

dRd

dR

R2

3

23

2

ˆ ==⇒= σσ

In definitiva, quindi, i limiti di controllo a 3 – sigma della carta R sono:

32

3

2

3

42

3

2

3

3133

3133

DRdd

RRdd

RRLCL

RCL

DRdd

RRdd

RRUCL

R

R

=

−=−=−=

=

=

+=+=+=

σ

σ

dove:

2

34

2

33

31

31

dd

D

ddD

−=

+=

Utilizzo del range per stimare σEfficienza relativa: quanto bene R approssima S2 e quindi σ.Se la dimensione del campione è relativamente piccola, il ricorso al range restituisce una stima dellavarianza σ2 sufficientemente precisa quanto quella ottenibile con la varianza campionaria S2 . Pervalori di n compresi tra 6 e 10 la stima già non è buona.

69

Page 70: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

Limiti di controllo di provaLo scopo di questi è di verificare se il processo era sotto controllo quando sono stati estratti gli mcampioni iniziali.Si osserva se tutti i punti sono all’interno dei 2 limiti; se qualche punto cade fuori allora èsopraggiunta una causa specifica che ha mandato il sistema fuori controllo.Si scartano quei punti e si ricalcolano i limiti e si verifica di nuovo se i punti cadono entrol’intervallo delimitato dai nuovi limiti.Si ripete l’operazione finche tutti i punti cadono dentro l’intervallo.In ogni operazione il limite tende a ridursi. Bisogna fare in modo che questi limiti non siano ottenuticon pochi punti prescelti (dopo diverse iterazioni).

COSTRUZIONE ED USO DELLE CARTE x E R

Vedi esempio pagina 159 (qualità).

Limiti di controllo, limiti di specifica e limiti di tolleranza naturaliI limiti di controllo vengono individuati in base alla variabilità naturale del processo (calcolatamediante il valore σ del processo) ovvero in base ai limiti di tolleranza naturali:

- UNTL: limite superiore di tolleranza naturale del processo- LNTL: limite inferiore di tolleranza naturale del processo

Solitamente vengono posti a 3 – sigma dal valore medio.Invece, i limiti di specifica, sono individuati indipendentemente dal comportamento naturale delprocesso (vengono in genere definiti dal management).Bisogna sempre tenere presente che qualsiasi processo è caratterizzato da una variabilità naturale eche non esiste alcuna relazione tra limiti di controllo e limiti di specifica.

Stima delle capacità del processoLa valutazione della capacità di un processo la si ottiene dal rapporto processo – capacità (process –capability, Cp ) che indichiamo come indice di capacità e che, per una certa caratteristica, di cuisiano noti i limiti di specifica, è dato da:

σ6LSLUSLC p

−=

Poiché σ è generalmente ignota, deve essere sostituita con una stima, di solito 2

ˆdR=σ , allora si

ottiene:

2

6dRLSLUSLC p

−=

Di solito Cp > 1.

70

Page 71: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

Il Cp ha anche un altro significato. La grandezza:

%1001

=

pCP

è proprio la percentuale di specifica usata dal processo.

CARTA DI CONTROLLO PER x e S

Supponiamo di avere a disposizione dei campioni di numerosità n e siano:ix la media del parametro del campione i-esimo

σ la variabilità del campione (in realtà è la deviazione standard degli elementi del campione) -> èriferita ai campioni (teorema centrale del limite)

nσ riferita ad ogni singolo campione

In presenza di dimensioni campionarie sufficientemente grandi, è opportuno stimare la deviazionestandard del processo con la deviazione standard campionaria S.Uno stimatore si dice corretto quando il suo valore atteso tende al valore vero del parametro dastimare (non distorto). Si dice consistente quando la sua varianza tende a zero all’aumentare dellanumerosità del campione.È noto che se σ2 è la varianza (sconosciuta) di una distribuzione, uno stimatore non distorto di σ2 è lavarianza campionaria:

1

)(1

2

2

−=

∑=

n

xS

n

ii µ con ∑

=

=n

iix

n 1

1µ valore atteso di x (v.a.) = E{x}

Nel caso in cui n>10:

1

)(1

2

2

−=

∑=

n

xxS

n

ii con ∑

=

=n

iix

nx

1

1 valore medio aritmetico

Nelle carte di controllo 2SS ≠ . Le carte costruite con 2SS = non sono corrette in quantosarebbero polarizzate: { } σ≠SE

22 σ→S termini asintotici 2}{ σ=SE termini statistici

Si può dimostrare che: σ4}{ cSE = dove c4 dipende solo da n.CL valore centrale della carta S.

244 1 ccUCL −+= σσ

In altre parole, la deviazione standard di S risulta:222

4222

4 }{1 SEcc −=−=−= σσσσ

dove E{S}2 rappresenta la distanza tra il valore centrale ed il limite dato.

Per una carta di controllo S a 3 – sigma risulta:

244

4

244

13

13

ccLCL

cCLccUCL

−−=

=

−+=

σσ

σ

σσ

71

Page 72: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

Pongo:

2446

2445

13

13

ccB

ccB

−+=

−−=

σ

σ

B5 e B6 sono costanti che dipendono esclusivamente da c4 che a sua volta dipende solo da n.I valori di B5 e B6 al variare di n sono tabulati.Risulta che:

σσ

σ

5

4

6

BLCLcCL

BUCL

==

=

Non posso ancora calcolare la S perché σ è ignota.Abbiamo m campioni di numerosità n. Per ognuno calcolo una Si :

∑=

=

m

kk

n

Sm

S

S

SS

1

2

1

1.

44

}{cS

cSE ==σ

Si ottiene:

45

46

cSBLCL

SCLcSBUCL

=

=

=

2dR≅σ

4cS=σ

SAxnc

SxLCL

xCL

SAxnc

SxUCL

34

34

13

13

−=−=

=

+=+=

72

Page 73: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

CARTE DI CONTOLLO PER ATTRIBUTI

Molte caratteristiche relative alla qualità di un prodotto non possono essere rappresentatenumericamente, ma in termini di difettoso o non difettoso. Caratteristiche di questo tipo prendonoil nome di attributi.Esistono 3 carte di controllo per attributi ampiamente usate:

- carta di controllo per frazioni di non conformi o di prodotto difettoso ottenuto da unprocesso produttivo, detta anche carta p

- carta di controllo per non conformità, o carta c, è stata ideata per trattare il caso in cui èpiù semplice esaminare il numero di difetti o di non conformità osservate piuttosto che lafrazione di non conformi

- carta di controllo per non conformità per unità, o carta u, utile quando il numero mediodi conformità per unità costituisce un riferimento più conveniente per il controllo di unprocesso

Le carte di controllo per attributi non forniscono tutte le informazioni che vengono fornite dallecarte di controllo per variabili. Basta un difetto fondamentale per il prodotto perché il processo siafuori controllo, al contrario, una serie di difetti ritenuti di poco conto non intaccano la produzione.

CARTA P

Isolo, trovo un difetto tale da far uscire di produzione il prodotto.p è la probabilità che il difetto si presenti sull’elemento (dato dall’esperienza).Qual è la probabilità che quel campione abbia un certo numero di elementi con quel difetto?La probabilità che si verifichi un evento tot volte su n tentativi -> distribuzione binomiale(Bernulli):Hp: p è uguale per tutti gli elementi

xnx ppxn

xDP −−

== )1()( con x = 0, 1, …, n

dove D è il numero di difettosi sul campione di dimensione nX è il numero di difettosi accettabili (imposto)

)!(!!

xnxn

xn

−=

È noto che la media e la varianza della v.a. D sono rispettivamente np e np(1-p) e non dipendono dax ma solamente da p.Ora posso costruire la carta: vi sono 2 casip nota

npppLCL

pCLn

pppUCL

)1(3

)1(3

−−=

=

−+=

p non nota, bisogna stimarlaSi prendono m campioni (20 – 30) ciascuno con n elementi e calcolo Di :

73

Page 74: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

nDp

D

Di

i

n

=

ˆ.

1

(statistica frazionaria o sequenziale)

m

p

mn

Dip

m

ii

m

i∑∑

== == 11

ˆ

Ricostruisco la carta di controllo:

npppLCL

pCLn

pppUCL

)1(3

)1(3

−−=

=

−+=

C’è una terza via: p volutamente non si conosce ma lo si pone. La carta ottenuta bisognainterpretarla come una carta cautela perché è difficile conoscere a priori il vero valore di p.Vedi esempio pag. 209 – 210 – 211 (qualità).

Progettazione di una carta di controllo per frazione di non conformi (Carta p)3 sono i parametri che caratterizzano una carta di controllo per frazione di non conformi:- dimensione campionaria- frequenza di campionamento- ampiezza dei limiti di controlloPer la scelta della dimensione n del campione, possono essere seguite vie diverse. Se p è moltopiccolo, n dovrà essere molto grande per trovare nel campione almeno un elemento difettoso,oppure bisognerà progettare i limiti di controllo in modo tale che la sola presenza di un elementodifettoso produca un’informazione di fuori controllo.Esempio:se p = 0,01 e n = 8, il limite superiore è:

1155,08

)99,0)(01,0(301,0)1(3 =+=−+=n

pppUCL

dove p è la probabilità di difettosità di un elemento del campione.Se c’è un solo elemento difettoso nel campione , si ha:

pp ≅== 125,081ˆ il valore stimato è più alto di quello dato.

Da cui si ottiene che il processo è classificabile come fuori controllo.Per evitare tale inconveniente è possibile scegliere un valore di n tale che mi dia la possibilità dirilevare la presenza di qualche elemento difettoso senza andare sempre fuori controllo.Posto sempre p = 0,01 si supponga di volere che la probabilità di avere almeno un’unità nonconforme nel campione sia >= 0,95. Se D indica il numero di unità non conformi, allora si dovrà cercare n tale che 95,0}1{ ≥≥DP . Usando l’approssimazione della variabile casuale di Poisson alla binomiale, si trova, usando latavola di probabilità cumulata della Poisson, che np=λ deve essere maggiore di 3.Di conseguenza, avendo p = 0,01 n dovrà essere 300.Duncan (1986): posto p = 0,01 si supponga di voler cercare n tale che la probabilità di osservare unoscostamento di p al valore 0,05 sia pari al 50%. Ipotizzando che sia accettabile l’approssimazione

74

Page 75: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

con la distribuzione normale della binomiale e indicando con δ l’ampiezza dello scostamento si hache n deve soddisfare la seguente espressione:

nppL )1( −=δ

da cui n risulta:

)1(2

ppLn −

=

δ

Ipotizzando di usare limiti di controllo a 3 – sigma:

56)99,0)(01,0(04,03

2

=

=n

Sempre nel caso che la frazione di non conformi sia molto piccola, si può scegliere di avere unacarta di controllo con limite inferiore positivo, così da costringere ad indagini ulteriori ogni voltache il campione contenga un numero troppo piccolo di non conformi.Poiché si chiede che valga:

0)1( >−−=n

ppLpLCL

ne segue che:2)1( L

ppn −>

CARTA DI CONTROLLO np

È possibili costruire la carta di controllo per numero di non conformi e non per frazione di nonconformi e viene chiama carta np. I suoi parametri sono:

)1(3

)1(3

pnpnpLCL

npCLpnpnpUCL

−−=

=−+=

dove, se non sono stati assegnati valori standard a p, si provvederà ad assegnargli una stima.Si ragiona in unità: si ha a disposizione il valore assoluto dei difettosi.

DIMENSIONE CAMPIONARIA VARIABILE

Se la dimensione campionaria è variabile (ad es. perché la produzione non produce sempre lo stessonumero di pezzi) anche i limiti di controllo di una carta per frazione di non conformi dovràcambiare. Vi sono 3 criteri:

Limiti di controllo ad ampiezza variabileCalcolo i limiti per ogni ampiezza campionaria.Esempio (tabella 6.4):

ip

ip

nppppLCL

nppppUCL

)1(3ˆ3

)1(3ˆ3

ˆ

ˆ

−−=−=

−+=+=

σ

σ

75

Page 76: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

Limiti di controllo basati sulla dimensione campionaria mediaCostruisco i limiti di controllo sulla base della dimensione campionaria media e ottengo così limitidi controllo approssimati.Supponendo m=25:

npppLCL

npppUCL

nn

n

ii

)1(3

)1(3

251

−−=

−+=

=∑

=

Carta di controllo con valori standardizzatiIl terzo approccio consiste nell’utilizzare valori standardizzati. La carta risultante avrà una lineacentrale posizionata sul valore 0 e i limiti UCL ed LCL rispettivamente a +3 e -3. la variabile darappresentare sulla carta sarà:

i

ii

npp

ppZ

)1(ˆ

−−

=

dovep è il valore imposto, il valore del processo sotto controllo

ip̂ è la stima i

i

nD

è una v.a. con deviazione standard in

pp )1( −

CARTA C

Un’unità non conforme è un prodotto che non soddisfa una o più caratteristiche qualitative ->difetto o non conformità.È possibile costruire una carta di controllo sia per il numero totale di non conformità per unitàprodotta sia per il numero medio di non conformità.

Procedure con dimensioni campionarie costantiIl campione è in genere costituito da un’unica unità di riferimento che può essere anche una solaparte dell’intero prodotto.Si ipotizzi che il numero di difetti abbia distribuzione di Poisson, ovvero:

!)(

xcexp

xc−

= con x = 0, 1, 2, …

dove x è il numero di non conformità c > 0 è il parametro della distribuzione di Poisson: cxVarxE == }{}{ non dipendono da numeri,possiamo fare tutto indipendentemente dal caso specifico.I limiti 3 – sigma della carta di controllo per non conformità sono:

ccLCL

cCLccUCL

3

3

−=

=+=

76

Page 77: 3504_Affidabilita_e_controllo_qualita_2003_2004_Peretto

Se nessun valore di riferimento viene assegnato è possibile stimare c col numero medio di difettirilevanti in un campione preliminare ( c ). In questo caso i limiti saranno:

ccLCL

cCLccUCL

3

3

−=

=+=

Vedi esempio pag. 227 – 228 – 229 (qualità).

Scelta della dimensione campionaria: CARTA U1 metodo: se ho c difetti in n elementi -> moltiplico c per n e ricado nel caso precedente.2 metodo: si definisce una carta basata sul numero medio di non conformità per unità di riferimento.Se vengono individuate complessivamente c non conformità in n unità di riferimento, allora lamedia del numero di non conformità per unità di riferimento è:

ncu =

dove se c ha distribuzione di Poisson anche u avrà distribuzione di Poisson e i parametri della cartasaranno:

nuuLCL

uCLnuuUCL

3

3

−=

=

+=

dove u è il numero medio di u rilevato nelle ispezioni preliminari.

Vedi esempio pag. 232 – 233.

77