TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015....

231
Politecnico di Milano Università degli Studi di Brescia Università degli Studi di Pavia Università degli Studi di Lecce Dottorato di Ricerca in TECNOLOGIE E SISTEMI DI LAVORAZIONE XII° CICLO METODI BAYESIANI PER IL CONTROLLO STATISTICO DI QUALITA’ RELATORE: Prof. Quirico SEMERARO COORDINATORE: Prof. Roberto PACAGNELLA CANDIDATO: Ing. Bianca Maria COLOSIMO

Transcript of TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015....

Page 1: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Politecnico di Milano

Università degli Studidi Brescia

Università degli Studidi Pavia

Università degli Studidi Lecce

Dottorato di Ricerca in

TECNOLOGIE E SISTEMI DI LAVORAZIONE

XII° CICLO

METODI BAYESIANI PER ILCONTROLLO STATISTICO DI QUALITA’

RELATORE: Prof. Quirico SEMERARO

COORDINATORE: Prof. Roberto PACAGNELLA

CANDIDATO: Ing. Bianca Maria COLOSIMO

Page 2: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Un sincero ringraziamento va in primo luogo al prof. Consonni, docente distatistica dell’università di Pavia. Devo principalmente alla sua chiarezzaespositiva il fatto di essere riuscita a seguire, senza troppe difficoltà, ilcorso di statistica bayesiana insieme ai dottorandi di statisticametodologica. Ed è questo passo che, in un’ottica bayesiana, harappresentato la mia “prior”.

Un sentito ringraziamento va poi al Prof. Tullio Tolio, che in questi anninon mi ha mai fatto mancare il suo valido consiglio, il suo sicuro apporto,ed uno stimolante scambio di opinioni.

Un irrinunciabile grazie va al Prof. Semeraro. In primo luogo per la sualucida capacità nell’indicarmi sempre il giusto equilibrio tra ricercametodologica ed applicazione ingegneristica. Più in generale per la suaabilità nel bilanciare il rigore di una guida e la disponibilità all’autonomiadel contributo personale.

Desidero infine ringraziare tutti gli amici della sezione per la pazienzacon cui hanno sopportato la mia naturale tendenza a condividereprofonde e talvolte “eccessive” passioni intellettuali.

Page 3: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

INDICE

CAPITOLO 1: Introduzione1.1. L’approccio bayesiano come alternativa di modellizzazione 4

CAPITOLO 2: Progettazione economica di un piano di campionamentobayesiano singolo multiattributo2.1. Introduzione 72.2. Modelli economici bayesiani per la scelta dei piani di campionamentoper attributi 112.2.1. I piani per il campionamento monoattributo 112.2.1.1. Campionamento singolo 112.2.1.2. Campionamento doppio e multiplo 122.2.2. I piani per il campionamento multiattributo 132.3. Notazione 152.4. Il piano di minimo costo atteso: il modello di Case, Schmidt e Bennet[Cas75]. 162.4.1. Ipotesi del modello 162.4.2. Funzione obiettivo 172.5. Un nuovo modello economico per la progettazione di piani bayesianimultiattributo 232.5.1. La modifica della funzione obiettivo 242.5.1.1. Introduzione di una scelta riguardo alla politica di scarto oripristino del lotto 242.5.1.2. Una più approfondita analisi della funzione obiettivo: lasuddivisione dei costi tra fornitore e cliente 262.5.2. La carta p per il controllo della distribuzione a priori 282.5.3. Un algoritmo di ricerca della soluzione ottima: il pattern searchcasualizzato. 302.5.3.1. La validazione dell’algoritmo di ottimizzazione 312.6. Il caso reale: determinazione del piano di minimo costo atteso per ilcollaudo del corpo valvola grezzo 342.6.1. Il corpo valvola grezzo 342.6.2. Analisi dei dati storici: stima delle distribuzioni a priori 352.6.3. Stima dei parametri di costo 382.6.3.1. Costo di collaudo: Cc 392.6.3.2. Costo di rifiuto: Cr 392.6.3.3. Costo di accettazione 402.7. Il piano di minimo costo atteso per il corpo valvola 412.7.1. Analisi di sensitività della soluzione adottata 412.8. Conclusioni e possibili sviluppi 46

Page 4: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

CAPITOLO 3:Le carte di controllo adattative bayesiane3.1. Introduzione 483.2. La progettazione economica delle carte di controllo in letteratura 533.2.1. Il modello di Duncan 533.2.1.1. Le ipotesi 533.2.1.2. La notazione 553.2.1.3. I ricavi ed i costi 553.2.1.4. Il modello 563.2.2. La progettazione economica delle carte di controllo: la ricerca dopoDuncan 633.2.2.1. Generalizzazione del modello 633.2.2.2. Semplificazione del modello 643.2.2.3. Progettazione statistico-economica 643.2.2.4. Produzioni di durata limitata 653.2.2.5. Carte di Controllo a Statistiche Dipendenti 653.2.2.6. La progettazione integrata del controllo di qualità 653.2.2.6.1. Modelli basati sulle rilavorazioni e sulla dimensione del lotto

663.2.2.6.2. Modelli basati sulla dimensione del lotto di produzione e diispezione 663.2.2.6.3. Modelli basati sulle politiche di controllo del processo e digestione della produzione 673.2.2.6.4. Modelli per il progetto congiunto delle carte 683.3. Le carte di controllo a parametri variabili 693.3.1. Modelli per carte a parametri variabili 713.3.2. Carte di controllo dinamiche non bayesiane 723.3.3. Carte di controllo dinamiche bayesiane 753.4. Progettazione economica di una carte di controllo adattativa bayesianaper il controllo delle non conformità 803.4.1. Notazione 803.4.2. Il modello 813.4.2.1. Ipotesi 813.4.2.2. Lo schema di controllo adattativo 823.4.3. La determinazione dei parametri di controllo 843.4.3.1. La funzione obiettivo 853.5. Valutazione numerica delle performance delle carte di controllo. 923.5.1. Analisi di sensitività della soluzione 953.6. Conclusioni e futuri sviluppi 98

Page 5: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

CAPITOLO 4 Misurare e monitorare la qualità del servizio: un approcciobayesiano4.1. Introduzione 1004.2. Il servizio e il prodotto 1034.3. La Qualità del servizio in letteratura 1054.4. Le dimensioni della qualità del servizio 1094.4.1. Indicatori “tangibili” del Servizio 1104.4.1.1. Indicatori di qualità interna 1104.4.1.1.1. Dimensione tecnica 1104.4.1.1.2. Dimensione economica 1114.4.1.1.3. Dimensione organizzativa 1124.4.1.1.4. Dimensione ambientale 1134.4.1.2. Indicatori di qualità esterna 1154.4.1.3. Controllo periodico degli indicatori 1184.4.2. Indicatori “intangibili” del Servizio: analisi di Customer Satisfaction

1184.4.2.1. Score Cards 1194.4.2.2. Reply Card 1204.4.2.3. Gestione reclami 1204.4.2.4. Transaction monitoring 1214.5. Metodi per la valutazione della qualità del servizio in letteratura

1224.5.1. Il Servqual 1224.5.1.1. La struttura 1234.5.1.2. Applicazioni del SERVQUAL 1244.5.1.3. Il dibattito sul SERVQUAL 1254.5.2. Il Qualitometro 1254.5.2.1. Il modello concettuale 1254.5.2.2. La struttura 1264.5.2.3. Confronto tra SERVQUAL e QUALITOMETRO 1274.5.3. IL SERVPERF 1274.5.3.1. Il modello concettuale 1274.5.3.2. La struttura 1284.5.4. Normed Quality 1284.5.4.1. Il modello concettuale 1284.5.4.2. La struttura 1294.5.5. TWO-WAY Model 1294.6. Proposta di una nuova metodologia di analisi dei dati di CustomerSatisfaction basata sulle reti di dipendenza bayesiane 1324.7. Le reti di dipendenza bayesiane 1334.8. Analisi di Customer Satisfaction: il caso “ Call Center ASSITALIA”

1364.8.1.1. Scelta della strategia di ricerca per il Questionario Assitalia

1394.8.2. Analisi dei dati e rappresentazione dei risultati 140

Page 6: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

4.8.2.1. I legami tra le domande del questionario 1414.8.2.2. Determinazione dei pesi di importanza 1474.8.3. Conclusioni 150

CAPITOLO 5 Conclusioni 152

Bibliografia 154

Appendice A Elementi di statistica bayesiana 166

Appendice B Le distribuzioni beta e polya e la proprietà diriproducibilità 168

Appendice C Risultati numerici della progettazione di una carta dicontrollo c adattativa bayesiana 172

Appendice D Bayesian Belief Network: il metodo e il software BayesianKnowledge Discovery 188

Page 7: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

INDICE DELLE FIGURE

Figura 2.1: Il corpo valvola grezzo ...................................................35

Figura 3.1: Parametri di progettazione di una carta di controllo.........52Figura 3.2: Differenti stati del sistema nel modello di Duncan ...........57Figura 3.3: Calcolo del sottointervallo di tempo τ nell’approccio di Duncan.

..............................................................................................59Figura 3.4: Classificazione delle carte di controllo a parametri variabili.70Figura 3.5: Lo schema di controllo..................................................84Figura 3.6: Calcolo di τi nell’approccio proposto................................86Figura 3.7: Calcolo di )0,0(T

if ........................................................87

Figura 3.8: Calcolo di )0,1(Tif ........................................................88

Figura 3.9: Calcolo di )1,0(Tif .........................................................88

Figura 3.10 Calcolo di )1,1(Tif ........................................................89

Figura 3.11: Andamento dei parametri al variare della probabilità di fuoricontrollo .................................................................................91

Figura 3.12 Normal plot dei risultati ottenuti con progettazione statica94Figura 3.13 Normal plot dei risultati ottenuti con progettazione dinamica

..............................................................................................94Figura 3.14 L’effetto dei diversi parametri nell’analisi di sensitività ....97

Figura 4.1: La qualità del servizio in Gronroos [Gro82]....................107Figura 4.2: La qualitá del servizio in Parasuraman, Zeithaml e Berry.109Figura 4.3: Un semplice Direct Acyclic Graph (DAG) che rappresenta una

rete di dipendenza bayesiana..................................................134Figura 4.4 Rete Bayesiana ottenuta dall’analisi dei dati (strategia di ricerca

Arc Inversion) ........................................................................141Figura 4.5 Legame Tempo-Sodddurata-Durott-Raccoltadati ............143Figura 4.6 Legame Capacita’-Telefonate ........................................146Figura 4.7 Legame Orario-Risposta...............................................147

Page 8: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

INDICE DELLE TABELLE

Tabella 2.1: Principali simboli utilizzati nel capitolo 2....................…16Tabella 2.2: Parametri statistici adottati nella validazione dell’algoritmo di

ricerca [Cas75] ........................................................................32Tabella 2.3 Parametri economici adottati nella validazione dell’algoritmo di

ricerca [Cas75] ........................................................................32Tabella 2.4: Risultati della fase di validazione dell’algoritmo di ricerca della

soluzione ottima. .....................................................................33Tabella 2.5: Gli attributi per il collaudo del corpo valvola grezzo.........36Tabella 2.6: Test 2χ per verificare la distribuzione a priori adottata ...37

Tabella 2.7: Stima dei parametri della distribuzione a priori ..............38Tabella 2.8: Costi per non conformi in lotti accettati .........................40Tabella 2.9: Piano di minimo costo per il corpo valvola grezzo............41Tabella 2.10: Piano attualmente adottato in azienda.........................41Tabella 2.11: Analisi di sensitività: effetto del costo di accettazione ....42Tabella 2.12 Analisi di sensitività: effetto del costo variabile di collaudo43Tabella 2.13 Analisi di sensitività: effetto della dimensione del lotto ...44Tabella 2.14 Analisi di sensitività: effetto della media della distribuzione a

priori ......................................................................................44Tabella 2.15 Analisi di sensitività: effetto della deviazione standard della

distribuzione a priori................................................................45Tabella 2.16 Analisi di sensitività: effetto dei parametri di costo indipendenti

dagli attributi ..........................................................................45

Tabella 3.1: Alcune delle caratteristiche distintive dei modelli esaminati per laprogettazione economica di carte statiche time varying..................72

Tabella 3.2: Modelli proposti per la progettazione economica di cartedinamiche non bayesiane .........................................................75

Tabella 3.3: Modelli proposti in letteratura per la progettazione economica diuna carte adattativa bayesiana .................................................79

Tabella 4 Principali simboli nell’approccio proposto ..........................81Tabella 3.5: Parametri adottati nella valutazione numerica................92Tabella 3.6: Casi simulati nell’analisi di sensitività. ..........................96Tabella 3.8 Risultati dell’analisi di sensitività...................................97

Tabella 4.1 Indicatori ed obiettivi delle dimensioni tangibili del servizio[Neg92] .................................................................................115

Page 9: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Tabella 4.2: Categorie di attributi della qualità del Two-way model ( -insoddisfazione, + soddisfazione, 0 neutrale) ............................130

Tabella 4.3:Confronto di alcuni strumenti utilizzati per la valutazione dellaqualitá del servizio [Cal97]......................................................131

Tabella 4.4 Domande e stati delle variabili per l’analisi delle dipendenze138Tabella 4.5 Tabella riassuntiva dei dati raccolti ..............................139Tabella 4.6 Valori di Verosimiglianza dei legami considerati.............144Tabella 4.7 Valori di probabilità condizionata. ................................145Tabella 4.8 Analisi del legame SODDISFAZIONE - CC/TRAD...........148Tabella 4.9 Verosimiglianza delle componenti della Soddisfazione ....149

Page 10: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 1Introduzione

1

CAPITOLO 1

INTRODUZIONE

"La Qualità… Sappiamo cos'è, eppure non losappiamo. Questo è contraddittorio. Alcune cosesono meglio di altre, cioè hanno più Qualità. Maquando provi a dire in che cosa consiste laQualità, astraendo dagli oggetti che la possiedono,paff, le parole ti sfuggono. Ma se nessuno sa cos'è,ai fini pratici non esiste per niente. Invece esiste,eccome… Perché mai la gente pagherebbe unafortuna per certe cose e ne getterebbe altre nellaspazzatura? Ovviamente alcune sono meglio dialtre… Ma in cosa consiste il meglio?"

Robert PirsigZen and the Art of Motorcycle Maintenance: An Inquiry into Values(1974, traduzione italiana, Adelphi 1981).

Il brano di Pirsig introduce e rappresenta in modo molto efficace laconfusione e l’incertezza che hanno accompagnato la definizione diqualità nel corso degli anni. C’è oramai convergenza tra mondoaccademico e aziendale sulla definizione di qualità come: “insieme dellecaratteristiche di un’entità che ne determinano la capacità di soddisfareesigenze espresse ed implicite.” (UNI EN ISO 8402).

Da questa definizione appare chiaro che il problema di controllare laqualità può essere suddiviso in due sottoproblemi. Il primo consiste neldeterminare in primo luogo quali sono le caratteristiche dell’entità chesono in grado di determinare soddisfazione in chi usufruisce del bene.

Page 11: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 1Introduzione

2

In secondo luogo occorre individuare un legame quantitativo tracaratteristiche e soddisfazione del cliente: decidere cioè i valori o gliintervalli di valori che ogni caratteristica può assumere per soddisfare leesigenze espresse ed implicite.

Noto il legame tra caratteristiche del bene e soddisfazione, occorredefinire una modalità di controllo nel tempo di queste caratteristiche.La necessità di un controllo ha ovviamente origine nella presenza diuna certa imprevedibile variabilità di queste caratteristiche nel tempo.

Il primo sottoproblema, ossia il legame tra soddisfazione ecaratteristiche dell’entità è spesso risolto nel caso in cui il cliente sia“evoluto”. Spesso infatti, per prodotti non di largo consumo, si pensi adesempio ai beni strumentali, le caratteristiche che individuano lasoddisfazione sono modellate attraverso il concetto di specifica. In uncomponente meccanico ad esempio, le tolleranze dimensionali egeometriche rappresentano l’insieme di vincoli che alcunecaratteristiche del prodotto devono soddisfare affinché il prodotto sia daritenersi soddisfacente. La soddisfazione in questo caso può quindicoincidere con il concetto di conformità, anche se non è trascurabile lapresenza di fattori tradizionalmente ritenuti secondari (es. estetica) cherimangono legati ad una percezione soggettiva del prodotto.

Il problema di definizione del legame tra caratteristiche esoddisfazione è invece molto meno chiaro per prodotti di largo consumoed è emerso ancor più prepotentemente alla ribalta negli ultimi annicon la crescente attenzione alla qualità dei servizi. In quest’ultimo casole problematiche relative all’identificazione ed alla misura dellasoddisfazione del cliente sono ancora questioni aperte e irrisolte, datoche non si è ancora assestata in letteratura una metodologiaquantitativa su cui esiste una certa convergenza.

Risolto il problema di definizione del legame tra caratteristichedell’entità e soddisfazione del cliente attraverso la definizione dellespecifiche, il concetto di qualità può allora riprendere il tradizionalesignificato di conformità alle specifiche. Controllare la qualità nel temposignifica quindi verificare che l’entità continui a rispettare i vincoliimposti dalle specifiche, realizzando quindi un bene che soddisfa leesigenze per cui è stato progettato. Come accennato in precedenza ilconcetto di controllo della qualità in questo caso è strettamente legatoal concetto di variabilità intrinseca a qualunque processo reale ditrasformazione. In questo caso con variabilità si intende variazioneimprevista rispetto ad un comportamento tollerato o accettato. Se adesempio è noto l’effetto dell’usura utensile sul diametro di un alberotornito, e si è già previsto attraverso una compensazione adattativadella profondità di passata o più semplicemente attraverso unasostituzione dell’utensile a intervalli opportuni, è ovvio che in questocaso si è comunque in presenza di variabilità prevista, o che puòritenersi accettata. Questa variabilità ritenuta naturale non è oggetto

Page 12: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 1Introduzione

3

del controllo statistico di qualità ed è spesso modellata attraverso unmodello statistico della variabile in uscita (distribuzione, parametri,struttura di autocorrelazione temporale). Le tecniche di controllo dellaqualità sono orientate invece a segnalare tempestivamente la presenzadi anomalie e imprevisti che determinano una extra-variabilità, o megliouna variabilità che non è ritenuta accettabile o naturale.

Tra le metodologie orientate ad effettuare un controllo statistico dellaqualità, i piani di campionamento e le carte di controllo sonosicuramente gli strumenti più diffusi. La differenza tra questi dueapprocci ha origine nella diversa natura e nei diversi obiettivi che le duemetodologie si propongono. Un piano di accettazione nasce dall'esigenzadi esercitare un controllo sui prodotti in ingresso ad un qualsiasi stadioproduttivo: l'attenzione è essenzialmente orientata al prodotto e soloindirettamente al processo di cui il prodotto risulta un risultato.L'adozione di piani di accettazione è infatti il più delle volte orientata avalutare le prestazioni di un fornitore, sia esso esterno o interno alsistema (ad esempio un altro stadio produttivo) sul cui processo non siè in grado di esercitare un effettivo controllo. In questo caso l'obiettivo èinoltre quello di definire la procedura più corretta per individuare lapresenza di parti difettose nel flusso, continuo o discreto, di parti iningresso. Informazione chiave è quindi quella relativa ai limiti dispecifica delle variabili di qualità di interesse, per giudicare se un pezzorisulta conforme o meno alle specifiche di progetto.

L'adozione di carte di controllo all'interno di un sistema produttivo èinvece essenzialmente orientata a porre l'attenzione sul processo:vengono misurate una o più caratteristiche di qualità allo scopo diinferire sullo stato del processo che le ha generate. In questo casoinfatti non si tengono in considerazione, salvo in casi particolari (ad es.limiti di controllo modificati), le specifiche della variabili di interesse:l'obiettivo è testare l'ipotesi di processo in controllo, dove con controllosi intende la situazione di funzionamento ''stabile'', ''a regime'' dellamacchina o stadio produttivo in esame. L'attenzione è quindi dedicataalla parte prodotta, intesa come risultato di uno stato di funzionamentodel processo che l'ha generata. Questa attenzione al processo più che alprodotto determina inoltre una maggiore capacità di influenzare leprestazioni della macchina o fase controllata. Qualora si evidenzi unasituazione di fuori controllo, si prevede infatti una precisa procedura diricerca della causa assegnabile e, eventualmente, un intervento sulprocesso al fine di ripristinare la situazione di funzionamento ''stabile''.Tale procedura di ricerca ha luogo presumibilmente a processo nonfunzionante, con evidente influenza sulla cadenza produttiva risultante.

Il lavoro si occuperà di fornire una proposta di soluzionerelativamente a tutti i problemi evidenziati, seguendo il flussoproduttivo del materiale in azienda.

Page 13: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 1Introduzione

4

Si inizierà infatti dall’analisi del processo di accettazione del materialein ingresso. Nel secondo capitolo si introdurrà un approccio per laprogettazione economica di piani di accettazione nel caso in cui piùcaratteristiche di qualità siano da controllare (piani multiattributo).

Una volta che il materiale in ingresso è stato accettato, a valle dellevarie fasi produttive è possibile adottare delle carte di controllo. Il terzocapitolo proporrà un approccio per la progettazione economica di cartedi controllo per la misura delle non conformità.

Infine il bene prodotto è consegnato al cliente, sia esso un’altraazienda o un utente finale. In quest’ambito occorre individuare qualisono gli aspetti che più pesantemente condizionano la soddisfazione delcliente riguardo ai servizi di erogazione del bene (servizio logistico) eassistenza post-vendita. Il quarto capitolo si occupa quindi delproblema di definire un approccio per l’analisi e la misura della qualitàdel servizio attraverso la misura della soddisfazione del cliente(customer satisfaction).

Comune a tutti gli approcci proposti è l’adozione di strumenti distatistica bayesiana. Le ragioni per cui una tale scelta si giustifica neidiversi ambiti, verranno di volta chiarite in ogni capitolo e riassuntenelle conclusioni. In questo capitolo si intende tuttavia fornire qualchecenno riguardo ai presupposti dell’inferenza bayesiana.

1.1. L’approccio bayesiano come alternativa dimodellizzazione

Un felice esempio che inquadra bene la differenza tra approcciobayesiano e approccio frequentista si deve a L.J. Savage (’61) [Ber85].L’autore ipotizza tre situazioni in cui si ritiene utile procedere ad unesperimento caratterizzato da prove bernoulliane (n prove indipendentiil cui possibile esito è successo/insuccesso e la cui probabilità disuccesso θ è costante nel tempo).

Le tre situazioni sono molto differenti: nella prima si intende valutarese un musicologo è in grado di indovinare se l’autore di uno spartito èHaydn o Mozart. A tal fine viene progettato un esperimento che consistein 10 prove, ognuna delle quali consiste in una estrazione casuale diuno spartito sottoposto al musicologo che deve decidere riguardol’autore. L’esperimento viene condotto e dà luogo a 10 successi su 10.

Il secondo esperimento riguarda una signora inglese la quale sostienedi riuscire a valutare, osservando una tazza di the con del latte, se èstato versato prima il the o il latte. L’esperimento condotto per valutarel’abilita dell’anziana signora consiste in 10 prove che danno luogo a 10successi su 10.

Page 14: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 1Introduzione

5

Nell’ultimo esperimento un ubriaco sostiene di riuscire a prevedere senel lancio di una moneta non truccata l’esito sarà testa o croce. Anchein questo caso viene condotto un esperimento in cui su 10 tentativi,l’ubriaco indovina 10 volte.

L’impostazione frequentista determina per tutti e tre gli esperimenti lastessa stima puntuale della probabilità di successo. Infatti i 3esperimenti sono formalmente identici: in ogni prova l’esito èrappresentabile attraverso una variabile booleana (1= successo;0=insuccesso); si è in presenza di 10 osservazioni xi i=1,..,10 dove

)( bernoulli θiid

ix ∼ , cioè ogni xi segue una distribuzione bernoulliana diparametro θ dove θ rappresenta la probabilità di successo. Conun’impostazione frequentista si procede alla stima di massimaverosimiglianza per θ che, in ognuno dei tre esperimenti risulta ugualee pari a:

11010

prove n.rosuccessi n.roˆ ===θ

Ma la domanda che ci si pone è: avere nei tre casi la stessa stima perla probabilità di successo è un risultato ‘intuitivamente’ accettabile?Rifacendosi ad un semplice buon senso è possibile ritenere che l’esitocomplessivo delle 10 prove sia da imputare passando dal primo al terzoesempio sempre più al caso e sempre meno all’abilità. In definitiva si haun informazione a priori sulla differenza tra le tre situazioni chepotrebbe essere opportunamente modellata ma che nell’impostazionefrequentista non trova spazio. L’approccio bayesiano si basa sulpresupposto che sia possibile considerare il parametro delladistribuzione, in questo caso θ, non semplicemente come un valoredefinito seppur incognito, da stimare. In un approccio bayesiano siritiene che anche il parametro possa essere caratterizzato da unadistribuzione di probabilità che, in un’impostazione bayesiana,rappresenta un’informazione a priori, soggettiva, )(θπ che si ha sulparametro. Nota questa distribuzione a priori del parametro e ladistribuzione delle osservazioni dato il parametro )( θxf , il teorema diBayes generalizzato consente di ottenere la distribuzione a posteriori:

)()()|(

)()|()()|(

)~|(x

xxx

mf

dff

xθπθ

θθπθθπθ

θπ ==∫

Θ

dove:- x vettore delle osservazioni;- θ parametro;

Page 15: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 1Introduzione

6

- { }Θ∈θθ ),(xf densità di probabilità;- )(θπ densità, distribuzione iniziale di θ (prior);- θθπθ dfm )()()( xx ∫Θ= densità marginale di x .

In definitiva l’approccio bayesiano consente di ottenere informazioni sulparametro attraverso la distribuzione a priori e i dati osservati (permaggiori dettagli sul meccanismo di inferenza bayesiano, si vedal’Appendice A).

Non disconoscendo la possibilità di ipotizzare una fondatadistribuzione a priori soggettiva, occorre sottolineare che in questolavoro non si ricorrerà mai all’introduzione di un’informazionesoggettiva. La distribuzione a priori sarà di conseguenza sempreintrodotta a partire dalla “storia” del processo. Di conseguenza verràsemplicemente sfruttata la maggiore flessibilità modellisticadell’approccio bayesiano confrontato con quello frequentista.

Page 16: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

7

CAPITOLO 2

PROGETTAZIONE ECONOMICA DI UNPIANO DI CAMPIONAMENTOBAYESIANO SINGOLOMULTIATTRIBUTO

2.1. Introduzione

Il campionamento di accettazione è uno degli strumenti di controllostatistico della qualità più adottati nella normale pratica manifatturierae consiste nel decidere riguardo ad un lotto di materie prime,semilavorati o prodotti finiti in ingresso. La decisione viene presaverificando il rispetto degli standard qualitativi di un sottoinsieme diparti nel lotto (campione di dimensione n). In funzione di quantoosservato ispezionando le parti nel campione, viene presa una decisione(accettazione o rifiuto) che riguarda l’intero lotto. In generale la verificadegli standard qualitativi è eseguita per attributi. Ciò significa che vieneverificato che il pezzo in ingresso sia da ritenersi conforme rispetto atutte le caratteristiche di qualità su cui sono imposte delle specifiche(attributi). La progettazione del piano consiste appunto nel definire,riferendosi al caso più semplice di piano di campionamento semplicemonoattributo, la dimensione del campione n ed il numero diaccettazione Ac, ossia il numero di non conformi superato il quale illotto è rifiutato.In realtà la scelta diventa più complessa se si passa a campionamenti

composti da più fasi decisionali o relativi a più attributi. Infatti, inletteratura esistono ormai più tipologie di piani di accettazione tra cui èpossibile scegliere. Una classificazione degli approcci più diffusiriguarda:

Gla tipologia di piano: la scelta è tra piani per attributi e pervariabili. Diversamente a quanto accade nel caso di carte dicontrollo, la tipologia più diffusa di piano è quella per attributi.

Page 17: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

8

E’ in relazione a questa tipologia di piano che son stati propostiil maggior numero di approcci che nel seguito andremo adelencare.

GIl numero di attributi considerati: in questo caso si parla dipiani mono o multiattributo. Per la seconda tipologia di piano,di cui si occuperà in dettaglio questo capitolo, gli approcciproposti in letteratura sono tutt’altro che numerosi. E’ possibilecomunque ovviare a questa mancanza utilizzando un approccioapprossimato che consiste nel ridurre un piano multiattributo,in cui i singoli attributi sono stocasticamente indipendenti, inpiù piani singoli, avendo cura di scegliere opportunamente ivalori di rischio per cliente e fornitore [Dun86].

Gil numero di stadi decisionali: si distinguono in questo caso ipiani singoli, doppi o multipli. Esiste infatti la possibilità diprogettare un campionamento in accettazione il cui esito(accettazione o rifiuto del lotto) può avvenire a seguito di uncero numero di test sequenziali. Ad ogni stadio decisionale, adesclusione dell’ultimo, si può accettare il lotto, rifiutarlo oprocedere con un ulteriore campionamento e quindi con unulteriore stadio decisionale.

Gpiani meno frequentemente utilizzati:•sequenziali: in questo caso si collauda una parte alla volta

(dimensione del campione n=1) finché il numero cumulato dipezzi non conformi determina l’accettazione o il rifiuto dellotto.

•piani a campionamento a catena: nel caso di collaudodistruttivo o di test molto costosi, la dimensione delcampione è spesso molto piccola. In questi casi si puòadottare un piano con campionamento a catena che riduce ilrischio del fornitore per percentuale di difettosi molto basse.

•piani a campionamento continuo: nel caso in cui le partiche arrivano dal fornitore non sono naturalmenteraggruppate in lotti, si può adottare un piano che consente digiudicare le singole parti alternando collaudi al 100% acollaudi di una frazione limitata f di parti, per ridurre i costidi campionamento.

•piani Skip Lot: sono una naturale estensione dei piani acampionamento continuo nel caso in cui però il fornitoreprovveda a fornire le parti in lotti. Anche in questo caso, se lapercentuale di difettosi riscontrata è particolarmente bassa,si provvede a ridurre lo sforzo di campionamentocontrollando solo una frazione dei lotti in ingresso.

Nella progettazione di un piano di campionamento per attributi sipossono adottare due scelte: la prima riguarda l’adozione di un

Page 18: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

9

approccio statistico o economico mentre la seconda riguarda l’adozionedi un’ottica bayesiana o frequentista.Al contrario di quanto accade nella progettazione delle carte di

controllo, che verrà trattata diffusamente nel terzo capitolo, le duepossibili scelte non sono tra di loro indipendenti.Nel tradizionale approccio alla progettazione di piani di

campionamento, si usa adottare un’ottica statistica, in cui si considerail concetto di rischio ma senza procedere ad una sua valorizzazioneeconomica. In quest’ambito infatti i parametri del piano sono scelti inbase alla curva caratteristica operativa che si intende adottare o, piùprecisamente, definendo due punti della curva rappresentativi delrischio del consumatore e del rischio del produttore.L’approccio economico si contrappone a quello statistico poiché la

scelta del piano da adottare è ottenuta attraverso l’ottimizzazione di unafunzione economica in cui si considerano i costi di ispezione, i costi diaccettazione di prodotti difettosi e i costi di rifiuto di prodotti conformi.Quasi tutti gli approcci economici proposti in letteratura si rifanno ad

un impostazione bayesiana e questa evidenza è da attribuirsi ad unimportante risultato che va sotto il nome di teorema di Mood [Moo43].Prima di introdurre la principale conclusione del teorema occorre farequalche premessa sull’approccio bayesiano in quest’ambito. Sisupponga che un prodotto è fornito in una serie di lotti da un fornitore.A causa di una naturale variabilità, questi lotti sono caratterizzati dauna qualità che varia nel tempo. Questa variabilità può essere distintain variabilità interna al lotto (campionamento) e variabilità tra lotti(campionamento più variabilità di processo). Se queste due fonti divariabilità sono uguali, significa che il processo è stabile nel tempo eche ogni lotto può essere considerato come un campione casualeestratto da un processo in cui la probabilità di generare non conformi ècostante. Questa situazione è sottintesa in tutti i piani dicampionamento tradizionali o non-bayesiani. Spesso però il processoche genera i lotti non è stabile nel tempo, per cui le ipotesi sulle quali sibasa l’approccio tradizionale al controllo in accettazione non sono piùverificate ed è naturale applicare un approccio bayesiano. Infatti in unapproccio non bayesiano il parametro che regola la generazione didifettosi nel lotto, p, è ritenuto costante anche se incognito. In unapproccio bayesiano invece sul parametro p si prevede unadistribuzione f(p), prior, che modellizza la variabilità di questoparametro nel tempo. Il principale risultato del teorema di Mood è chese f(p)=1 se p=p0 e f(p)=0 quando p ≠ p0, allora non c’è bisogno dicampionare [Mon96]. Di conseguenza la convenienza economica alcampionamento si ha solo in presenza di una variabilità naturale nellafrazione di difettosi con cui i lotti sono generati.Vista la naturale relazione tra progettazione economica ed approccio

bayesiano, quasi tutti i modelli bayesiani proposti in letteratura sono

Page 19: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

10

rivolti a progettare economicamente il collaudo in accettazione. Traquesti, molti si occupano, più in dettaglio, della progettazioneeconomica di piani monoattributo. In realtà nei casi reali, i lotti iningresso sono caratterizzati da più caratteristiche di qualità che devonoessere congiuntamente controllate.In questo capitolo si affronterà quindi il problema della progettazione

economica di piani di accettazione bayesiani multiattributo. Partendoda un’analisi dello stato dell’arte si procederà a valutare criticamente gliapprocci proposti su questo argomento, proponendo un metodo che nonassume a priori una politica nel caso di rifiuto del lotto. In letteraturainfatti, la progettazione economica di piani multiattributo è condottaassumendo che tutti gli attributi siano “scrappable” o “screenable”. Perattributo scrappable si intende una caratteristica che, qualora provochiil rifiuto del lotto, porta allo scarto del lotto. In questo caso si staimplicitamente ipotizzando che il collaudo al 100% sia o impossibile(per es. nel caso di controllo distruttivo) oppure antieconomico. Seinvece il rifiuto del lotto provocato da un attributo comporta il collaudoal 100% e l’eventuale ripristino dei pezzi non conformi, l’attributo èdetto screenable. L’unica ragione per assumere a priori che tutti gliattributi appartengano ad una o all’altra classe è una maggioresemplicità gestionale della procedura di accettazione.Nell’approccio proposto, che trae origine da [Des97], l’appartenenza di

un attributo all’una o all’altra classe (e quindi la politica da seguire sullotto a valle di un rifiuto rispetto a quell’attributo: collaudo al 100% oscarto del lotto) sarà ritenuta un’ulteriore variabile decisionale delmodello, scelta sulla base dei costi che occorre sostenere nei diversicasi.In secondo luogo verrà esaminata con maggiore attenzione l’adozione

di una data distribuzione a priori per gli attributi di interesse, puntocritico in genere dell’impostazione bayesiana. Verrà quindi propostauna stima della distribuzione a priori sulla base dei dati storici e unaprocedura per valutare se, nel tempo, l’adozione di una determinatadistribuzione a priori non sia più da ritenersi valida. L’adozionedell’approccio proposto verrà infine presentato in relazione ad un casoreale, evidenziando i vantaggi economici rispetto alle procedure adottatein azienda allo stato attuale.

Page 20: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

11

2.2. Modelli economici bayesiani per lascelta dei piani di campionamento perattributi

A parte l’approccio proposto dall’American Society for Quality Controlin [Cal90] relativo alla progettazione di un piano bayesiano conapproccio statistico, tutti gli approcci bayesiani sui piani di accettazionepropongono una progettazione economica del piano, come già anticipatonel precedente paragrafo.Analogamente a quel che accade nella progettazione statistica, la

maggior parte degli approcci proposti trattano di piani monoattributo,mentre solo due approcci, che verranno discussi in maggior dettaglio,riguardano la progettazione economica nel caso in cui ilcampionamento sia da effettuare in relazione a più attributi.Quest’ultima situazione rappresenta il caso in cui un pezzo puòrisultare non conforme, e quindi non superare il test di accettazione, acausa di m diversi tipi di non conformità, tra loro indipendenti.

2.2.1. I piani per il campionamentomonoattributo

2.2.1.1. Campionamento singoloLa maggior parte dei modelli proposti in letteratura per la

progettazione economica di piani di accettazione con approcciobayesiano, si occupano del caso più semplice: il piano singolomonoattributo. Il primo modello in quest’ambito si deve a Guthrie eJohns nel ‘59 [Gut59]. In questo primo lavoro sull’ottimizzazioneeconomica dei piani di accettazione, vengono evidenziati i principalicosti coinvolti dalla progettazione del piano, principalmente:

- costo di accettazione di pezzi non conformi nella parte di lottonon collaudata;- costo di riparazione dei pezzi non conformi rilevati;- costo di collaudo dei pezzi del campione;- costo di rifiuto di pezzi conformi nella parte di lotto non

collaudata.

Il modello determina, nel caso di dimensione N del lottosufficientemente grande, delle relazioni asintotiche che permettono dicalcolare il numero di accettazione. Riprendendo il modello di Guthrie eJohns, Hald nel ’60 [Hal60] semplifica l’approccio introducendo unafunzione di costo lineare e utilizzando il concetto di break-even quality

Page 21: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

12

pr: la frazione di difettosi che determina un punto di pareggio traaccettare o rifiutare il lotto. Nonostante la semplificazione introdotta e isuccessivi sviluppi proposti da Hald fino all’ultimo lavoro presentato nel’68 [Hal68], in cui gli autori propongono delle tabelle per facilitarel’applicazione dell’approccio proposto, la progettazione economicabayesiana risulta ancora distante da una semplice applicazione, per ilnumero elevato di informazioni che l’uso delle tabelle richiede.Tuttavia i principali spunti introdotti da Hald (l’uso di una forma

tabellare e il rilassamento del vincolo di interezza sul numero diaccettazione e sulla dimensione del campione) sono condivisi dall'unicanorma attualmente in vigore sui piani di campionamento bayesiani[JIS63]. In questa norma si fornisce una soluzione al problema dellaprogettazione del piano di accettazione bayesiano in tabelle, funzione ditre parametri ottenuti considerando il rapporto tra varianza all’internodei lotti e varianza tra i lotti, la dimensione dei lotti, i costi di collaudo,il punto di break-even e la frazione media di non conformi.Differente dagli approcci precedenti, l’approccio proposto in [Erc74]

propone due piani di campionamento singolo a inizio e fine del processoproduttivo. Sicuro apporto dell’approccio è l’individuazione dellarelazione esistente tra la qualità in uscita al processo produttivo e ilpiano di accettazione sulle materie prime in ingresso. Risulta conquest’approccio chiaro che la qualità in uscita è frutto di due forme dinonconformità, la prima proveniente dai materiali in ingresso, laseconda causata dal vero e proprio processo produttivo.L’ipotesi di funzione di costo lineare, comune a tutti gli approcci finora

elencati, viene infine modificata nel modello presentato in [Mos84b], incui si introduce il concetto di avversione o propensione al rischio deldecisore. Al costo atteso si sostituisce quindi l’utilità attesa che,sebbene risulti un interessante miglioramento del modello diottimizzazione economica, presenta i consueti problemi di stima dellafunzione utilità.Occorre infine citare, per dovere di completezza, un ultimo insieme di

approcci, che però modificano la struttura classica del processodecisionale di un piano di campionamento e che sono denominati PASS(Price-Adjusted Single Sampling). La progettazione economica di questotipo di piani singoli si basa sull’idea di accettare comunque il lotto aseguito del collaudo, modificando il prezzo pagato dal cliente infunzione del livello di non conformità riscontrato nel lotto [Fos72],[Fos77], [Cha83], [Ehr88].

2.2.1.2. Campionamento doppio e multiplo

In letteratura è stato presentato un unico modello di piano dicampionamento doppio. In [Ste78] è infatti proposto un approccio per

Page 22: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

13

campionamento a due stadi per tutti i tipi di collaudo: distruttivo (inquesto caso è di conseguenza impossibile procedere ad un collaudo al100% nel caso di rifiuto del lotto), non distruttivo e collaudo interrotto(curtailed inspection). Anche relativamente ai piani multipli, un soloapproccio è stato finora proposto in letteratura [Mor79]. In ipotesi didistribuzione a priori nota, il modello è strutturato come problemadecisionale markoviano in cui il processo è l’attività di campionamentoe la posizione del processo è definita da due valori: lo stadio e lo stato.Ogni stadio è definito dal numero di pezzi collaudati fino a quelmomento e lo stato è definito dal numero di pezzi non conformiriscontrati allo stesso istante. La probabilità di transizione da uno statoall’altro è la probabilità di trovare un certo numero di pezzi difettosi.Valorizzando economicamente tutte le possibili scelte, il modellopropone un set di equazioni ricorsive che porta a definire il pianomultiplo ottimo economicamente.

2.2.2. I piani per il campionamentomultiattributo

Tutti i modelli di campionamento multiattributo, condividono la stessaimpostazione: la definizione di una funzione obiettivo e l’applicazione diun metodo di ottimizzazione. Il problema è un problema a variabiliintere poiché occorre definire la coppia di valori Aci (numero diaccettazione) e ni (dimensione del campione), entrambe quantità intere,per ognuno degli m attributi, supposti indipendenti. Tutti i modelliadottano come algoritmo di ottimizzazione il pattern search, unalgoritmo di ricerca diretta della soluzione che risulta, però, fortementedipendente dall’ipotesi di funzione obiettivo unimodale e che verràapprofondito nel paragrafo 2.5.3.iI modelli per la progettazione di piani multiattributo si possono

essenzialmente suddividere in due categorie, in funzione dell’approccioutilizzato nella funzione obiettivo. Il primo tipo di piano, cuiappartengono gli approcci proposti in [Sch72], [Cas75], [Ail75] e[Mos86], mira alla minimizzazione del costo totale atteso; il secondo,proposto in [Mos84a], considera invece come funzione obiettivo l’utilitàdel decisore.Nel primo insieme di lavori, la prima differenza riguarda le ipotesi

assunte. In particolare [Sch72] usa una distribuzione poissoniana per ilnumero di non conformi nel campione e una distribuzione a prioriesponenziale mista. In [Cas75] invece, la distribuzione a priori utilizzataè una polya e, sfruttando la proprietà di riproducibilità (descritta inAppendice B) si deriva un modello discreto anziché continuo.

Page 23: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

14

[Mos86] e [Ail75] condividono l’impostazione di [Cas75], cherappresenta, almeno teoricamente un superamento dell’approccio in[Sch72]. In dettaglio però [Mos86] si occupa di fissare K programmi dicampionamento, uno al termine di ciascuno dei K stadi produttivi delprocesso, supposti in sequenza. Il metodo quindi propone soluzione adun problema di suddivisione dello sforzo di ispezione interno alprocesso più che ad un problema di progettazione del collaudo inaccettazione. [Ail75], invece, estende l’analisi di [Cas75] al caso dicontrollo contemporaneo per attributi e per variabili.Il secondo filone di ricerca è orientato a massimizzare l’utilità attesa ed

è rappresentato dall’approccio proposto in [Mos84a]. In questo casol’obiettivo è introdurre esplicitamente l’attitudine al rischio del decisore,e anche se teoricamente valido, presenta la consueta difficoltà distimare la funzione obiettivo.Tra gli approcci proposti in letteratura, si prenderà come punto di

partenza quello proposto in [Cas75] poiché si è interessati a sviluppareun piano per l’accettazione in ingresso nel caso di più attributi (e non dicaratteristiche modellabili in parte come attributi e in parte comevariabili) si farà riferimento all’approccio proposto in [Cas75],proponendone una modifica della funzione obiettivo e dell’algoritmo diricerca della soluzione ottima. Per comprendere meglio le differenzaproposte, si partirà introducendo l’approccio nel prossimo paragrafo. Inseguito, nel paragrafo 2.5, si descriveranno in dettaglio le modificheproposte.

Page 24: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

15

2.3. Notazione

Simbolom Numero di attributi

),..,1( mi ∈ Indice per identificare l’attributo

in Dimensione del campione relativamente all’i-mo attributo

iAc Numero di accettazione relativamente all’i-mo attributo

N Dimensione del lotto

iX Numero di nonconformi relativamente all’i-mo attributopresenti nel lotto

ix Numero di nonconformi relativamente all’i-mo attributopresenti nel campione di dimensione ni

fN(X) Distribuzione del numero di non conformi nel lotto

gni(xi) Distribuzione del numero di non conformi rispetto all’i-moattributo, nel campione di dimensione ni

pi Frazione di parti non conformi nei lotti in accettaziones,t,s’,t’,w Parametri della distribuzione a priori della frazione di pezzi

non conformi pi nel lotto

Pai Probabilità di accettazione relativamente all’i-mo attributoCc Costo di collaudo del lottoCr Costo di rifiuto del lottoCa Costo di accettazione del lottoCCi - costo di collaudo di un item rispetto all’i-mo attributo

(i=1,..,m);

Cscarto costo di scarto dell’intero lotto;

CAi

costo derivante dalla presenza di un pezzo difettoso noncollaudato in un lotto accettato (i=1,..,m);

Csost Costo di sostituzione di un pezzo danneggiato al collaudo:diverso da zero nel caso di collaudo distruttivo

iCC %100 costo per collaudare tutto il lotto rispetto all’i-mo attributo

replC costo di sostituzione (o rimpiazzo) di un pezzo nonconforme con uno conforme

Page 25: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

16

Crit . costo-opportunità del ritardo con cui il cliente processa ilnuovo lotto in ingresso qualora il lotto precedente sia statorifiutato

Tabella 2.1: Principali simboli utilizzati nel capitolo 2

2.4. Il piano di minimo costo atteso: ilmodello di Case, Schmidt e Bennet[Cas75].

2.4.1. Ipotesi del modello

1. Ogni singolo lotto in ingresso ha dimensione N, costante.2. Il collaudo di un pezzo è eseguito rispetto ad m attributi

indipendenti.3. Per ciascun attributo si intende determinare una coppia di numeri

interi (ni, Aci), per i=1,..,m, che rappresentano rispettivamentel’ampiezza del campione da collaudare ed il numero di accettazionerispetto all’attributo i-esimo. Il numero totale di pezzi prelevati èquindi }{max

iin .

4. Il collaudo è supposto distruttivo. Qualora il lotto non superi il test,non si può procedere con un controllo al 100%. In questo casoinfatti il lotto viene definitivamente scartato. Quando invece il lottoè accettato, i pezzi collaudati sono sostituiti con altrettanti pezziaddizionali.

5. Il collaudo è esente da errori (quest’ipotesi non è esplicitamentecitata nell’articolo, ma sembra opportuno segnalarla).

6. Sono note le stime delle seguenti grandezze economiche:- CCi = costo di collaudo di un item rispetto all’i-mo attributo

(i=1,..,m);- Cscarto= costo di scarto dell’intero lotto;- CAi= costo derivante dalla presenza di un pezzo difettoso non

collaudato in un lotto accettato (i=1,..,m);- Csost= costo di sostituzione di un pezzo (danneggiato al collaudo).

7. Per ogni attributo, la distribuzione a priori della frazione di pezzinon conformi pi è una somma pesata di due beta di parametri s, t,s’, t’>0. Le m distribuzioni sono indipendenti. I loro parametri sono

Page 26: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

17

stimati con il metodo dei momenti, note le stime delle medie µi edelle varianze σ2

i, con le seguenti equazioni:

ii

iiis µ

σ

µµ−

−= 2

2)1( (2.1.)

)1()1(

2

2

ii

iiit µ

σ

µµ−−

−= (2.2.)

Come dimostrato in Appendice B, nell’ipotesi che il lotto di dimensioneN sia estratto mediante campionamento binomiale da un processocaratterizzato, relativamente all’attributo i-mo, dalla frazione di pezzinon conformi pi con distribuzione a priori indicata nell’ipotesi 7, ladistribuzione del numero di pezzi non conformi relativamente allostesso attributo è la somma pesata di due polya di parametri si, ti, s’i,t’ i:

mitstsw

Ntsts

tXNt

sXs

XN

w

Ntsts

tXNt

sXs

XN

wXf

iiiii

ii

ii

i

ii

i

ii

ii

ii

ii

i

ii

i

ii

iiiN

1,.., ed 0' ,' , , 1,0 per

)''()''(

)'()'(

)'()'(

)1(

)()(

)()(

)()(

)(

=>≤≤

++Γ+Γ

Γ−+Γ

Γ+Γ

−+

+++Γ

+ΓΓ

−+ΓΓ

=

(2.3.)

Le m distribuzioni sono indipendenti.Per il teorema di Hald (descritto in Appendice B), la densità gni(xi) delnumero di pezzi non conformi nel campione si ottiene da fN(Xi),sostituendo ni ad N ed xi ad Xi..

2.4.2. Funzione obiettivo

La funzione obiettivo è il costo totale atteso, composto dalle seguenticategorie di costo:

Û Costo di collaudo: CcÛ Costo di rifiuto: CrÛ Costo di accettazione: Ca

Il costo di collaudo può essere calcolato come somma dei costi relativi alcollaudo per ogni attributo. Il costo del collaudo relativamente all’i-moattributo può, d’altra parte, essere calcolato come prodotto del costo

Page 27: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

18

unitario di collaudo relativamente all’i-mo attributo per il numero dipezzi collaudati relativamente allo stesso attributo:

∑=

=m

iiinCCCc

1(2.4.)

dove:CCi = costo di collaudo di un item rispetto all’i-mo attributo.

Per il calcolo del costo di rifiuto, occorre moltiplicare il costo di scartodel lotto, Cscarto, supposto noto (ipotesi 6) per la probabilità che il lottovenga rifiutato. Quest’ultima probabilità è il complemento ad uno dellaprobabilità di accettazione. D’altra parte un lotto verrà accettato sesupererà il test relativamente a tutti gli attributi (intersezione di eventi).Per l’ipotesi di indipendenza tra gli attributi, la probabilità diaccettazione è pari al prodotto delle probabilità di accettazionerelativamente ai singoli attributi.Rimane quindi da calcolare la probabilità di accettazione relativamenteall’i-mo attributo: il lotto supererà il test (verrà accettato) rispettoall’attributo i qualora il numero di non conformi xi riscontrato nelcampione di dimensione ni non risulti superiore al numero diaccettazione Aci. Sempre relativamente all’i-mo attributo, se ipotizziamonoto il numero di non conformi Xi presenti nel lotto di dimensione N, ilnumero di non conformi xi nel campione ni segue una distribuzioneipergeometrica.Condizionatamente a Xi, la probabilità di accettazione relativamenteall’i-mo attributo risulta quindi:

ricaipergeomet onedistribuzi una indica dove

)|(|

in

0

ϕ

ϕ∑=

=i

ii

Ac

xiinii XxXPa

(2.5.)

Indicata con fN(Xi) la probabilità di trovare Xi non conformi in un lotto didimensione N, si ottiene:

∑ ∑= =

=

N

XiN

Ac

xiini

i

i

ii

XfXxPa0 0

)()|(ϕ (2.6.)

Di conseguenza considerando l’insieme degli m attributi, il costo dirifiuto è dato da:

Page 28: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

19

−=−= ∏ ∑ ∑∏

= = ==

m

i

N

XiN

Ac

xiin

m

ii

i

i

ii

XfXxCscartoPaCscartoCr1 0 01

)()|(1)1( ϕ (2.7.)

D’altra parte la sommatoria:

)()()|(0

inN

XiNiin xgXfXx

ii

i=∑

rappresenta )( in xgi

, ossia la probabilità di riscontrare xi elementi

difettosi rispetto all’attributo i-mo nel campione di dimensione ni.. Diconseguenza la (2.7) può essere riscritta come:

−= ∏ ∑

= =

m

i

Ac

xin

i

ii

xgCscartoCr1 0

)(1 (2.8.)

doveCscarto= costo di scarto dell’intero lotto.

L’ultimo elemento da considerare è il costo di accettazione di un lottoCa. Si consideri in prima istanza noto il numero di numero di nonconformi, relativamente ad ognuno degli m attributi, in un lotto didimensione N: X1, ..., Xm. La probabilità di accettazione in questo casorisulta:

∏ ∑∏= ==

==m

i

Ac

xiin

m

iiim

i

ii

XxXPaXXPa1 01

1 )|()(),..,( ϕ (2.9.)

Per stimare Ca occorre poi considerare che qualora il lotto sia accettato,due fonti di costo devono essere considerate: la prima riguarda lasostituzione dei pezzi collaudati e la seconda l’accettazione di pezzidifettosi. Infatti, qualora il lotto risulti accettato, dal momento che ilcollaudo è supposto distruttivo, occorre sostituire i pezzi collaudati,sostenendo un costo Csost }{max

iin , visto che il numero di pezzi da

collaudare è pari a }{maxi

in .

La seconda fonte di costo riguarda il numero di non conformi che,relativamente all’i-mo attributo, può essere presente sia nella frazione

Page 29: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

20

di lotto non ispezionata N- }{maxi

in , sia nel gruppo di parti che

sostituiscono i pezzi collaudati }{maxi

in .

Se si considera che il gruppo di pezzi che sostituiscono quelli collaudatisono generati sempre dallo stesso processo, complessivamente ilnumero di pezzi non conformi sarà sempre riferito ad un lotto didimensione N e sarà quindi indicato con Xi.In definitiva:

∏ ∑∑= ==

+

=

m

i

Ac

xiini

i

m

iiim

i

ii

XxnCsostXCAXXCa1 01

1 )|(}{max),..,( ϕ (2.10.)

dove:CAi= costo derivante dalla presenza di un pezzo difettoso non

collaudato in un lotto accettato;Csost= costo di sostituzione di un pezzo (danneggiato al

collaudo).

Rimuoviamo infine l’ipotesi che sia noto il numero di difettosi Xi rispettoall’attributo i-mo presenti nel lotto. Considerando che la probabilità diavere Xi elementi difettosi relativamente all’attributo i-mo nel lotto didimensione N è fN(Xi), si ottiene:

∏∏ ∑∑ ∑ ∑== == = =

+=

m

iiN

m

i

Ac

xiin

N

X

N

Xi

i

m

iii XfXxnCsostXCACa

i

ii

m 11 00 0 1)()|(}{max...

1

ϕ

(2.11.)

Una scrittura equivalente ma più compatta evidenzia la possibilità diapplicare il teorema di Bayes:

∏ ∑ ∑

∏ ∑ ∑

∑ ∑∑

= = =

≠= = =

= ==

+

+•

=

m

i

N

X

Ac

xiNiini

i

m

ikk

N

X

Ac

xkNkkn

m

i

Ac

xiNiin

N

Xii

i

i

ii

k

k

kk

i

ii

i

XfXxnCsost

XfXx

XfXxXCACa

1 0 0

1 0 0

1 00

)()|(}{max

)()|(

)()|(

ϕ

ϕ

ϕ

(2.12.)

Page 30: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

21

Per il teorema di Bayes la distribuzione a posteriori )|( iiN xXψ delnumero di non conformi nel lotto rispetto all’i-mo attributo, dato che siè osservato un numero xi di non conformi relativamente allo stessoattributo nel campione, è data da:

)(

)()|(

)()|(

)()|()|(

0

in

iNiinN

XiNiin

iNiiniiN xg

XfXx

XfXx

XfXxxX

i

i

ii

ϕ

ϕψ ==

∑=

(2.13.)

Per cui:

)()|()()|( iniiNiNiin xgxXXfXxii

ψϕ = (2.14.)

Di conseguenza:

∑∑ ∑

∑∑

== =

==

==

=

i

ii

i

ii

i

i

ii

i

Ac

xinii

Ac

xiniiN

N

Xi

Ac

xiNiin

N

Xi

xgxXExgxXX

XfXxX

00 0

00

)()|()()|(

)()|(

ψ

ϕ

(2.15.)

Considerando inoltre che:

)()()|(0

inN

XiNiin xgXfXx

ii

i=∑

=ϕ (2.16.)

Sostituendo le espressioni (2.15) e (2.16) nell’equazione (2.12) si ottiene:

∏ ∑

∏ ∑∑ ∑

= =

≠= == =

+

+

=

m

i

Ac

xini

i

m

ikk

Ac

xkn

m

i

Ac

xiniii

i

ii

k

kk

i

ii

xgnCsost

xgxgxXECACa

1 0

1 01 0

)(}{max

)()()|(

(2.17)

In definitiva, il costo totale atteso che si intende minimizzare può esserericavato considerando le tre componenti di costo indicate (collaudo,rifiuto e accettazione):

Page 31: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

22

CaCrCcCTOT ++= (2.18)

E sostituendo le equazioni (2.4), (2.8) e (2.17) TOTC assumel’espressione:

∏ ∑

∏ ∑∑ ∑

∏ ∑∑

= =

≠= == =

= ==

+

+

+

+

−+=

m

i

Ac

xini

i

m

ikk

Ac

xkn

m

i

Ac

xiniii

m

i

Ac

xin

m

iiiTOT

i

ii

k

kk

i

ii

i

ii

xgnCsost

xgxgxXECA

xgCscartonCCC

1 0

1 01 0

1 01

)(}{max

)()()|(

)(1

(2.19)

Page 32: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

23

2.5. Un nuovo modello economico per laprogettazione di piani bayesianimultiattributo

Le modifiche proposte rispetto all’approccio descritto nel precedenteparagrafo riguardano essenzialmente la funzione obiettivo, la modalitàdi controllo della distribuzione a priori e l’algoritmo di ottimizzazione.Infatti l’approccio proposto in [Cas75] ipotizza che tutti gli attributidiano luogo ad un collaudo distruttivo, escludendo così la possibilità dieffettuare, a valle del rifiuto del lotto, un collaudo al 100% coneventuale ripristino dei pezzi non conformi. In realtà , se non tutti gliattributi danno luogo ad un controllo distruttivo, la scelta della politicapiù opportuna a valle di un rifiuto del lotto è da individuarsi in funzionedei costi coinvolti. Inoltre, occorre considerare che nella realtà non tuttii costi sono da attribuire allo stesso soggetto (consumatore o fornitoredel lotto). Spesso nella realtà produttiva si stipulano delle normecontrattuali che attribuiscono i costi da sostenere a seguito di un rifiutodel lotto al fornitore, per motivarlo a migliorare la qualità delle parti iningresso. Questa possibilità verrà, di conseguenza opportunamentemodellata nella funzione obiettivo, proponendo quindi un approccio cherisulta più facilmente applicabile alla realtà produttiva.Il secondo problema affrontato riguarda il controllo nel tempo della

validità della distribuzione a priori utilizzata, punto consideratotradizionalmente critico nell’impostazione bayesiana. Nel caso propostooccorre in primo luogo sottolineare che non si adotta un otticapuramente bayesiana, adottando un approccio tipo empirical bayes,visto che la distribuzione a priori è stimata, sia riguardo all’ipotesidistribuzionale sia riguardo ai parametri, dai dati storici disponibili.Secondariamente verrà proposta una carta di controllo da utilizzare perverificare che nel tempo, i parametri che caratterizzano la distribuzionenon varino, rendendo poco realistica la prior utilizzata.Infine verrà proposto un algoritmo di ottimizzazione basato, come per

gli altri approcci proposti in quest’ambito in letteratura, su unalgoritmo di ricerca diretta opportunamente modificato per considerareil caso in cui la funzione obiettivo sia discreta e non necessariamenteunimodale.

Page 33: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

24

2.5.1. La modifica della funzione obiettivo

2.5.1.1. Introduzione di una scelta riguardo allapolitica di scarto o ripristino del lotto

Nel caso di piani multiattributi, i modelli proposti in letteraturaprevedono una netta distinzione tra attributi “scrappable” e attributi“screenable”. Per attributo scrappable si intende una caratteristica che,qualora provochi il rifiuto del lotto, porta allo scarto del lotto. In questocaso si sta implicitamente ipotizzando che il collaudo al 100% sia oimpossibile (per es. nel caso di controllo distruttivo) oppureantieconomico. Se invece il rifiuto del lotto provocato da un attributocomporta il collaudo al 100% e l’eventuale ripristino dei pezzi nonconformi, l’attributo è detto screenable.Ipotizzare una distinzione a priori tra attributi screenable e scrappable

significa definire a priori l’azione che verrà eseguita su un lottorifiutato. In realtà solo per attributi caratterizzati da collaudi distruttivila scelta è obbligata: negli altri casi, può essere opportuno valutareeconomicamente le conseguenze di una o dell’altra azione. Se infattialcuni attributi sono collaudabili senza danno, si potrebbe valutareeconomicamente se convenga effettuare un collaudo al 100% oppurescartare il lotto.La proposta di un nuovo modello economico si basa quindi sul fatto

che possa essere opportuno inserire nella funzione obiettivo un’altravariabile decisionale che consente di definire la politica da eseguire avalle di un rifiuto del lotto.L’espressione del costo di rifiuto Cr deve essere quindi

opportunamente modificata.Per decidere se collaudare al 100% o sostituire il lotto, occorre quindi

confrontare le due grandezze seguenti:1. Cr1: costo del collaudo al 100% con rimpiazzo dei pezzi nonconformi per ciascuno degli attributi rispetto ai quali il lotto èstato rifiutato.2. Cr2: costo di rifiuto dell’intero lotto.

Ricaviamo in primo luogo l’espressione del costo atteso Cr1 nel primocaso. Si ipotizzi di collaudare il lotto al 100% solo rispetto agli attributiche hanno dato luogo al rifiuto. Per ogni attributo quindi la probabilitàche si proceda con un collaudo al 100% e rimpiazzo dei non conformi èpari al complemento ad uno della probabilità di accettazione rispetto aquell’attributo, data da:

Page 34: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

25

∑∑ ∑== =

=

=

i

ii

i

i

ii

Ac

xin

N

XiN

Ac

xiini xgXfXxPa

00 0)()()|(ϕ (2.20.)

Quindi la probabilità con cui ogni attributo dà luogo al collaudo e

eventuale ripristino dei non conformi è ∑=

−=−i

ii

Ac

xini xgPa

0)(11 .

Con questa probabilità quindi, relativamente all’i-mo attributo, siprocede al collaudo al 100% e alla sostituzione dei non conformi.Il numero atteso di non conformi rispetto all’i-mo attributo nel lotto didimensione N può essere calcolato come:

( )[ ]∑=

i

ii

n

xinii xgxXE

0)()|( (2.21.)

dove)|( ii xXE è il valore atteso del numero di difettosi rispetto

all’attributo i, dato che si sono osservati xi non conformi nelcampione;

)( in xgi

è la probabilità di osservare xi non conformi nel campione

di dimensione ni.Il costo complessivo della prima politica risulta quindi:

( )[ ]∑ ∑∑= ==

+=

m

i

Ac

xin

n

xiniii

i

ii

i

ii

xgxgxXECreplCCCr1 00

)(1)()|(%1001 (2.22.)

dove:iCC %100 rappresenta il costo per collaudare tutto il lotto

rispetto all’i-mo attributo;replC rappresenta il costo di sostituzione (o rimpiazzo) di un

pezzo non conforme con uno conforme.

Si noti che l’espressione ricavata è un upper bound del costo reale diquesta politica. Infatti si sta trascurando la possibilità che una parterisulti difettosa per più di un attributo tra quelli che hanno causato ilrifiuto, ipotesi per altro ragionevole visto che si sta trascurando uneffetto del secondo ordine.Il costo della seconda politica (politica 2) è invece già stato introdotto edindicato con Cscarto.

Page 35: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

26

CscartoCr =2 (2.23.)

Di conseguenza si introduce un’ulteriore variabile decisionale che verràscelta dal modello in funzione dei costi in gioco. Questa variabiledecisionale ξ è una variabile boolena che assumerà il valore 0 se lamiglior politica è la politica 1 (collaudo 100% e sostituzione dei nonconformi) e assumerà invece il valore 1 se risulta economicamente piùconveniente rifiutare il lotto.Più formalmente:

=>=

altrimenti 112 0

ξξ CrCrse

(2.24.)

dovele espressioni di Cr1 e Cr2 sono date rispettivamente dalle equazioni(2.22) e(2.23).Di conseguenza il costo di rifiuto Cr da inserire nella funzione obiettivosarà [ ]1)1(2 CrCr ξξ −+ per la probabilità di rifiutare il lotto:

[ ]

( )[ ]

−•

+−+=

=

−−+=

∏ ∑∑

∑ ∑

∏ ∑

= ==

= =

= =

m

i

Ac

xin

Ac

xin

m

i

n

xiniii

m

i

Ac

xin

i

ii

i

ii

i

ii

i

ii

xgxg

xgxXECreplCCCscarto

xgCrCrCr

1 00

1 0

1 0

)(1)(1

)()|(%100)1(

)(11)1(2

ξξ

ξξ

(2.25.)

2.5.1.2. Una più approfondita analisi dellafunzione obiettivo: la suddivisione dei costi trafornitore e cliente

Un’ipotesi alla base della formulazione della funzione obiettivo neimodelli adottati in letteratura è che tutti i costi siano da attribuire almedesimo soggetto. Questa ipotesi può risultare plausibile nel caso incui il piano di accettazione sia posto tra due reparti di una stessaazienda, qualora inoltre non si intenda trattare i due reparti comecentri di costo distinti.Quando il piano è eseguito su lotti in ingresso provenienti da unfornitore esterno all’azienda, l’attribuzione delle voci di costo dipende

Page 36: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

27

dalle specifiche contrattuali pattuite tra fornitore ed azienda. Inparticolare le specifiche contrattuali spesso riguardano la politica daadottarsi in caso di rifiuto del lotto.Spesso infatti, nel caso in cui il lotto non risulti accettabile inriferimento a qualche attributo, gli eventuali costi di rifiuto o dicollaudo vengono attribuiti al fornitore, in modo da generare unamaggiore attenzione agli standard qualitativi richiesti.Nel caso in cui questa situazione sia stipulata nel contratto, la funzioneobiettivo risulta modificata relativamente al costo di rifiuto Cr.In riferimento al caso produttivo reale che verrà descritto in dettaglionel paragrafo 2.6, si analizza di seguito la modifica da effettuare nelcaso in cui, come spesso accade, le spese da sostenere a seguito delrifiuto del lotto siano a carico del fornitore.La scelta economicamente più conveniente tra scartare il lotto oppurepassare ad un controllo al 100% con ripristino è una scelta cheriguarda il fornitore. In ipotesi che questa scelta sia effettuata con otticaeconomica, analogamente a quanto descritto nel paragrafo precedente,si introduce la stessa variabile booleana ξ che è pari a 0 se convienecollaudare al 100% e riparare i non conformi, 1 altrimenti.Di conseguenza, coerentemente a quanto descritto:

=>=

altrimenti 112 0

ξξ CrCrse

(2.26)

dovele espressioni di Cr1 e Cr2 sono date rispettivamente dalle equazioni(2.22) e(2.23).Il cliente invece sosterrà solo i costi relativi all’eventuale ritardo inproduzione. Infatti se il fornitore decide di collaudare al 100% conripristino dei difettosi, il cliente vedrà arrivare i primi pezzi subito dopoi primi collaudi, non dovendo sostenere il costo dovuto al ritardo(perdita di opportunità) tempi improduttivi. Se invece il lotto vienescartato, il cliente dovrà aspettare la realizzazione di un altro lotto equindi inizierà a processare le parti in ingresso con un certo ritardo. Ilcosto del ritardo è indicato con Crit.Dal momento che la funzione economica CTOT è stata stimataconsiderando il punto di vista del cliente, il costo di rifiuto deve essereopportunamente modificato.Il costo del rifiuto diventa in questo caso:

( )

−=−= ∏ ∑

= =

m

i

Ac

xin

i

ii

xgCritPaCritCr1 0

)(11 ξξ (2.27)

dove:

Page 37: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

28

Crit è il costo-opportunità del ritardo con cui il cliente processa ilnuovo lotto in ingresso qualora il lotto precedente sia statorifiutato.

Riassumendo, la funzione obiettivo che verrà considerata nel modello è:

∏ ∑

∏ ∑∑ ∑

∏ ∑∑

= =

≠= == =

= ==

+

+

+

+

−+=

m

i

Ac

xini

i

m

ikk

Ac

xkn

m

i

Ac

xiniii

m

i

Ac

xin

m

iiiTOT

i

ii

k

kk

i

ii

i

ii

xgnCsost

xgxgxXECA

xgCritnCCC

1 0

1 01 0

1 01

)(}{max

)()()|(

)(1ξ

(2.28.)

con

=

>=

altrimenti 1

12 0

ξ

ξ CrCrse(2.29.)

e

( )[ ]∑ ∑∑= ==

+=

m

i

Ac

xin

n

xiniii

i

ii

i

ii

xgxgxXECreplCCCr1 00

)(1)()|(%1001 (2.30.)

CscartoCr =2 (2.31.)

2.5.2. La carta p per il controllo delladistribuzione a priori

L’applicazione del modello di minimo costo atteso richiede la stima delladistribuzione a priori della frazione pi di pezzi non conformi rispettoall’i-mo attributo. Nell’ipotesi di scegliere una forma funzionalesufficientemente flessibile come la beta, diventa invece necessariomonitorare nel tempo la correttezza dei parametri che individuano ladistribuzione. Nella bibliografia esaminata quest’aspetto è trascuratoper cui si ritiene utile, per favorire un’applicazione dell’approccio,proporre una metodologia che consideri l’ipotesi di verifica nel tempodella distribuzione a priori.

Page 38: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

29

Si assuma che la distribuzione a priori sia una beta di parametri s e t.Questo significa ipotizzare che il processo sia caratterizzato da unamedia:

tssp prior +

= (2.32.)

ed il livello di certezza con cui affermiamo quest’ipotesi è dato da:

)1(

)1(

)1()( 22

++

−=

+++=

ts

pp

tsts

st priorpriorpriorσ (2.33.)

Come dimostrato in Appendice B, la posterior sarà ancora una beta diparametri s+x e t+n+x. Ciò significa che una stima della difettosità dellotto da cui abbiamo estratto il campione di numerosità n contiene xpezzi non conformi è

ntsxsxntspEppost ++

+== ),,,|( (2.34.)

In definitiva tale stima tiene conto dell’idea a priori e dell’informazionecampionaria.Se l’idea a priori su p si avvicina alla realtà, il dato sperimentaleconfermerà l’ipotesi, dando luogo a priorpost pp ≅ .In tal caso l’incertezza con cui è effettuata la nostra ipotesi viene ancheridotta dal dato sperimentale. Infatti la varianza della distribuzione aposteriori è data da:

)1(

)1(

)1()(

))((2

2+++

−=

+++++

−++=

nts

pp

ntsnts

xntxs postpostpostσ (2.35)

Qualora risulti priorpost pp ≅ , si ottiene priorpost22 σσ < .

Di conseguenza si può concludere che, se la distribuzione a prioridescrive adeguatamente l’andamento (in termini di frequenza) delladifettosità del processo, la stima postp del valore di p ricade all’internodei limiti di una carta di controllo progettata precisando un errore delprimo tipo pari ad α.Ricordando che la distribuzione beta, può assumere due tipi di forma,in funzione dei parametri, è possibile progettare due tipi di carte dicontrollo:

Page 39: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

30

Beta a forma di campana:UCL=k2CL= priorpLCL= k1Zona di allarme: LCLpUCLp

ipostipost <> e

Con k1 e k2 tali che:

∫∫ ==1

k2

k1

0 2),|( e

2),|(

ααdptspbetadptspbeta

Beta a forma di U:UCL=k2CL= priorpLCL= k1Zona di allarme: UCLpLCL ipost <<

Con k1 e k2 tali che:

),|(k2

k1∫ = αdptspbeta

2.5.3. Un algoritmo di ricerca dellasoluzione ottima: il pattern searchcasualizzato.

L’algoritmo utilizzato come base di partenza è il pattern search, unalgoritmo di ricerca sequenziale diretta non vincolata perl’ottimizzazione di funzioni n-dimensionali proposto da Hooke e Jeeves(per una descrizione dell’algoritmo si veda [Bei79] e [Dix73]).Le ipotesi alla base dell’algoritmo sono la continuità e l’unimodalità

della funzione da ottimizzare. Nella ricerca infatti ad ogni passol’obiettivo è cercare una direzione promettente verso cui l’algoritmo“accelera” confidando di trovare in quella direzione l’ottimo cercato.L’algoritmo si interrompe quando non riesce più a trovare una direzionein cui la funzione obiettivo migliora, a partire dall’ultimo puntoesplorato. Ovviamente se la funzione non è unimodale, non si hanessuna garanzia che l’ottimo (massimo o minimo) trovato sia assolutoe non relativo.Per superare questi limiti, si propone una variante dell’algoritmo: il

pattern search discreto casualizzato. Infatti nel problema della selezionedel piano di campionamento di minimo costo atteso occorre modificarel’algoritmo considerando che:

Page 40: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

31

- l’ottimizzazione riguarda una funzione a variabili intere e non ènecessariamente unimodale. Inoltre esistono un insieme di vincolicui la funzione è soggetta (vincoli di consistenza: Aci<ni, ni≤N; evincoli di interezza e non negatività);

- l’algoritmo di ottimizzazione deve avere tempi di elaborazioneragionevoli, decisi dall’utente.

Per ovviare al problema della tipologia di funzione, visto che non si hanessun elemento analitico per decidere che questa sia o menounimodale, occorre utilizzare più punti di partenza dai quali partire allaricerca della soluzione ottima. Questa scelta permette di ridurre laprobabilità di confondere ottimi relativi con assoluti.La scelta dei punti di partenza è eseguita attraverso una routine di

generazione di numeri casuali che determina soluzioni di partenza cherispettano i vincoli (interezza, non negatività, e vincoli di consistenza:numero di accettazione minore della dimensione del campione edimensione del campione minore o uguale alla dimensione del lotto). Leverifiche dei vincoli di consistenza non si limitano solo alla selezionecausale dei punti di partenza, ma sono ripetute anche nei passisuccessivi dell’algoritmo, durante l’esplorazione dell’intorno del puntocorrente e dopo il salto nella direzione ritenuta “promettente”.Il vincolo di interezza viene invece rispettato considerando sempre la

parte intera del valore di raggio utilizzato per esplorare l’intorno delpunto. A seguito di un insieme di prove iniziali, si è inoltre notato chevariazioni delle due variabili decisionali da decidere per ogni attributo(dimensione del campione e numero di accettazione) hanno effettidiversi sulla funzione obiettivo. Per far fronte a questa diversità,l’algoritmo adotta automaticamente raggi di esplorazione diversi (ilraggio di esplorazione per Aci è pari alla parte intera di un decimo delraggio usato per ni).Ovviamente ad ogni step dell’algoritmo è registrata la miglior soluzione

corrente: partendo da diversi starting point è necessario scegliere lamigliore delle soluzioni ottenute a partire dai diversi punti. Per validarel’algoritmo di pattern search discreto casualizzato, è stata effettuato unconfronto sulla base dei risultati riportati in [Cas75].

2.5.3.1. La validazione dell’algoritmo diottimizzazione

Per verificare la validità dell’algoritmo proposto è stata eseguita laricerca della soluzione di minimo costo atteso in riferimento ai datiriportati in [Cas75]. Il piano progettato in questo lavoro riguarda 3attributi, i cui parametri statistici ed economici sono riportatirispettivamente in Tabella 2.2 e Tabella 2.3.

Page 41: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

32

Parametri della prior Attributo 1 Attributo 2 Attributo 3Peso w 0,9 0,95 0,85s 0,98 0,998 0,992t 97,02 997,002 247,008s’ 0,8 0,996 0,9t’ 7,2 497,004 17,1

Tabella 2.2: Parametri statistici adottati nella validazione dell’algoritmodi ricerca [Cas75]

Costi unitari [$] Attr 1 Attr 2 Attr 3Sostituzione 0,20Rifiuto 0,41929Collaudo 0,001 0,002 0,001Accettazione pezzo nonconforme

11 3 8

Tabella 2.3 Parametri economici adottati nella validazione dell’algoritmodi ricerca [Cas75]

Il piano ottimo è progettato in riferimento a diverse dimensioni del lotto:20, 50, 200, 1000 e 14000.I risultati del confronto tra la soluzione riportata in [Cas75] e lasoluzione determinata con l’algoritmo di ricerca proposto sono riportatiin Tabella 2.4.

N Soluzione di[Cas75]

Soluzioneconl’algoritmoporposto

∆%

(n1,n2,n3)(Ac1,Ac2,Ac3)

Costototaleatteso

(n1,n2,n3)(Ac1,Ac2,Ac3)

Costototaleatteso

20 (7,0,7)(0,0,0)

4,7080 (7,0,7)(0,0,0)

4,7080 0

50 (9,0,9)(0,0,0)

11,6557 (9,0,9)(0,0,0)

11,6557 0

200 (26,0,26)(1,0,1)

44,8049 (26,0,26)(1,0,1)

44,8049 0

1000 (54,0,54)(2,0,2)

206,7574 (52,0,52)(2,0,2)

206,7197 -0,02

14000 (229,0,200)(9,0,7)

2706,635 (212,0,212)(9,0,7)

2704,535 -0,08

Page 42: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

33

Tabella 2.4: Risultati della fase di validazione dell’algoritmo di ricercadella soluzione ottima.

Come è possibile osservare, l’algoritmo proposto trova in tre casi sucinque la soluzione trovata dall’autore dell’articolo, mentre negli altridue casi rimanenti la soluzione proposta dall’algoritmo di patternsearch discreto casualizzato è caratterizzata da un costo minore, anchese di entità trascurabile.

Page 43: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

34

2.6. Il caso reale: determinazione del pianodi minimo costo atteso per il collaudo delcorpo valvola grezzo

2.6.1. Il corpo valvola grezzo

Il collaudo cui ci si riferisce nell’applicazione del modello proposto traespunto dall’attività di Controllo Qualità di un azienda che effettualavorazioni meccaniche conto terzi su macchine transfert e CNC. Inparticolare si studierà il piano di accettazione di minimo costo attesorelativo ad un corpo valvola di ottone. Infatti il corpo valvola arrivaall’azienda sotto forma di grezzo. L’azienda esegue quindi tutte lelavorazioni meccaniche (per dettagli relativi al ciclo di lavorazione, siveda [Mar96]) e consegna il finito al cliente. Il pezzo sarà poi montatoinsieme ad altri otto componenti per andare a realizzareun’elettrovalvola ELT/D Serie 55 da utilizzare per svariate applicazioni(tra le altre: macchine per caffè, macchine saldatrici, sistemi antifurto,macchinari ad uso dentistico).Il pezzo grezzo è un corpo valvola in ottone OT58 UNI 5705 del peso di

circa 55g, costituito da tre elementi [Figura 2.1):1. Cannotto asse sede;2. Cannotto porta gomma;3. Cannotto ingresso fluido.Allo stato attuale la ditta esegue in accettazione un campionamento

per attributi sui lotti di ingresso che dovrebbe, secondo gli accordicontrattuali, essere progettato con riferimento alla norma MIL-STD-105D e con un valore di AQL=1%. In realtà la ditta non ha maiapplicato a norma i piani di accettazione. Infatti per gli attributi la dittaapplica un piano singolo con collaudo ridotto, senza considerare leregole di switching. Per le variabili convertite in attributi, la dittaapplica un piano singolo con numeri di accettazione e rifiuto progettatisecondo le MIL-STD ma con numerosità del campione pari ad unafrazione fissa della numerosità del lotto. Visto che la dimensione deilotti varia (da 5000 a 40000 pezzi) si dovrebbe in realtà progettare divolta in volta la numerosità del campione appropriata riferendosi allanorma.

Page 44: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

35

Figura 2.1: Il corpo valvola grezzo

2.6.2. Analisi dei dati storici: stima delledistribuzioni a priori

Per progettare il piano di minimo costo atteso, si è proceduto in primoluogo ad analizzare i dati relativi al numero di pezzi non conformirelativamente al set di attributi utilizzati nel piano di accettazioneoriginario [Mar96]. I dati analizzati corrispondono ai moduli diregistrazione relativi al periodo gennaio 90- novembre 91. Osservando idati, si è proceduto alla definizione di un subset di attributi rilevanti.Sono stati infatti trascurati gli attributi per i quali non era mai statariscontrata nessuna non conformità e quelli per i quali non si procedevaad un vero e proprio campionamento ma ad una semplice verifica di

Page 45: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

36

conformità con quanto ordinato. In definitiva gli attributi oggettodell’analisi sono riportati in Tabella 2.5. In particolare nella primacolonna è riportata l’etichetta dell’attributo che verrà utilizzata nelseguito della trattazione, nella seconda si riporta l’etichettadell’attributo adottata in azienda, nella terza colonna è contenuta unadescrizione del tipo di attributo.

Attr Codiceattributoin azienda

Descrizione

1 3Verifica della presenza di macchie e/oammaccature che pregiudicano la funzionalitàe/o l’estetica del pezzo

2 4 Controllo di completezza dello stampato

3 6 Verifica della presenza di bave e/o difetti ditranciatura

4 7Verifica che il pezzo non sia storto o disassatoin modo tale da impedirne il correttoposizionamento nelle morse di serraggio

5 104Verifica del rispetto della tolleranza prescritta

[mm]: 3.01.0

11−+

6 106Verifica del rispetto della tolleranza prescritta

[mm]: 3.02.0

5.10 −+

7 107Verifica del rispetto della tolleranza prescritta

[mm]: 3.00

8−+

8 201Verifica del rispetto della tolleranza prescritta

[mm]: 2.02.0

5−+

9 204Verifica del rispetto della tolleranza prescritta

[mm]: 2.02.0

5.13 −+

Tabella 2.5: Gli attributi per il collaudo del corpo valvola grezzo

Page 46: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

37

Detta pi la frazione di prodotti non conformi relativamente all’i-moattributo, occorre stimare la distribuzione a priori

),,,,,,,,( 987654321 pppppppppf . Da un’analisi dei coefficienti dicorrelazione tra dati relativi a diversi attributi, si può ritenere che nonesista dipendenza, per cui si può procedere al calcolo delladistribuzione a priori come prodotto delle singole distribuzioni:

∏=

=9

1987654321 )(),,,,,,,,(

iipfpppppppppf

Per avere una prima indicazione sulla forma distribuzionale piùopportuna si è proceduto utilizzando il metodo riportato in [Hah67] che,esaminando i coefficienti di asimmetria e curtosi, consente di dareun’indicazione sulla forma funzionale più opportuna per modellare unset di osservazioni.Per tutte le caratteristiche, la forma più opportuna è risultata essereuna beta a forma di U. Per confermare l’ipotesi, si è procedutoeffettuando il test 2χ .Impostando un α del 5% si sono ottenuti i risultati in Tabella 2.6 (ilvalore di 2

0χ va confrontato con il valore di 2

αχ (22)=33,92):

ATTR 1 2 3 4 5 6 7 8 920

χ 0,46 17,84 33,05 30,62 17,18 26,06 24,46 22,27 17,33

p-value 1,00 0,72 0,06 0,10 0,75 0,25 0,32 0,44 0,75

Tabella 2.6: Test 2χ per verificare la distribuzione a priori adottata

Per tutti gli attributi non è stato quindi possibile rifiutare l’ipotesi didistribuzione beta. Di conseguenza dai dati storici si è proceduto astimare media e varianza campionarie per ogni set di dati (relativi adognuno dei 9 attributi). Note media e varianza campionarie è possibilequindi ricavare i parametri si e ti delle distribuzioni a priori per ognunodegli attributi considerati (Tabella 2.7).

Page 47: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

38

ATTRIBUTI iµ̂ iσ̂ si ti

1 0,0024 0,0060 0,1603 66,21502 0,1988 0,3452 0,0670 0,26993 0,2533 0,4140 0,0262 0,07714 0,1036 0,2746 0,0240 0,20765 0,2260 0,3944 0,0282 0,09666 0,3255 0,4639 0,0066 0,01367 0,1818 0,3519 0,0365 0,16438 0,0675 0,2247 0,0166 0,22969 0,1995 0,3813 0,0196 0,0786

Tabella 2.7: Stima dei parametri della distribuzione a priori

2.6.3. Stima dei parametri di costo

Richiamando la funzione obiettivo:

∏ ∑

∏ ∑∑ ∑

∏ ∑∑

= =

≠= == =

= ==

+

+

+

+

−+=

m

i

Ac

xini

i

m

ikk

Ac

xkn

m

i

Ac

xiniii

m

i

Ac

xin

m

iiiTOT

i

ii

k

kk

i

ii

i

ii

xgnCsost

xgxgxXECA

xgCritnCCC

1 0

1 01 0

1 01

)(}{max

)()()|(

)(1ξ

(2.36.)

con

=>=

altrimenti 112 0

ξξ CrCrse

(2.37.)

e

( )[ ]∑ ∑∑= ==

+=

m

i

Ac

xin

n

xiniii

i

ii

i

ii

xgxgxXECreplCCCr1 00

)(1)()|(%1001 (2.38.)

CscartoCr =2 (2.39.)

I parametri di costo richiesti per l’applicazione del modello di minimocosto atteso sono:

Page 48: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

39

- Costo di collaudo (Cc):•CCi = costo di collaudo di un item rispetto all’i-mo attributo.

- Costo di rifiuto del lotto (Cr):•Cscarto= costo di scarto dell’intero lotto;•CC100% i= costo del collaudo al 100% rispetto all’i-mo

attributo;•Crepl= costo di rimpiazzo di un pezzo non conforme;•Crit = costo per un eventuale ritardo in produzione causato dalrifiuto del lotto in accettazione.

- Costo di accettazione del lotto (Ca):•CAi = costo derivante dalla presenza di un pezzo difettoso non

collaudato in un lotto accettato;•Csost= costo di sostituzione di un pezzo (danneggiato al

collaudo).

2.6.3.1. Costo di collaudo: CcPer calcolare il costo di collaudo del lotto è necessario conoscere il

valore del costo di collaudo di un pezzo relativamente ad ogni attributo(CCi). CCi è stato stimato come composto da una componente fissa eduna variabile. La prima componente si stima considerando le attività diraccolta campione, messa a punto dei moduli di registrazione e misuradi consistenza del campione raccolto con il valore nominale delladimensione del campione previsto nel piano.Il costo fisso di collaudo è pari a £13550 per ogni lotto collaudato

mentre il costo variabile cambia a seconda che l’operazione di collaudopreveda un controllo visivo o la misura di una quota. Nel primo caso(attributi 1,2,3,4) il costo per attributo misurato è di £50/pezzo; nelsecondo caso corrisponde a 75£/pezzo.

2.6.3.2. Costo di rifiuto: CrCome descritto nel paragrafo 2.5.1.2, per calcolare il costo di rifiuto

occorre valutare le posizioni contrattuali di fornitore e cliente a seguitodel rifiuto del lotto. In questo caso specifico, è il fornitore ad assumersila responsabilità economica del rifiuto, ma gli viene comunque lasciatala scelta di scartare il lotto oppure procedere ad un collaudo al 100%con ripristino. Si è già discussa questa posizione del fornitore nelparagrafo 2.5.1.2, e la si è modellata attraverso una variabile booleanaξ. Il valore di ξ è fornito dal confronto tra Cr1 e Cr2 che dipendono da:

•Cscarto= costo di scarto dell’intero lotto;•CC100% i= costo del collaudo al 100% rispetto all’i-mo

attributo;•Crepl= costo di rimpiazzo di un pezzo non conforme;

Page 49: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

40

Per stimare CC100%i, visto che si tratta di un collaudo al 100%,occorre considerare i costi di collaudo descritti in precedenza econsiderare un lotto di dimensione pari a 20000 pezzi. Crepl è invecedato dal costo pieno industriale del grezzo (350 £/pezzo) meno ilricavato della rottamazione dei pezzi sostituiti (2,5 £/g *55 g/pezzo =137,5 g/pezzo).Rimane infine da stimare Cscarto. Se il lotto viene completamente

rottamato, si sostiene una perdita pari al costo pieno industriale per ilnumero di parti nel lotto (350 £/pezzo *20000 pezzi) cui occorresottrarre il ricavato della vendita del rottame di ottone (20000pezzi*55g/pezzo* 2,5£/g).Per il cliente l’unico possibile costo, che sosterrà qualora il fornitore

consegni il lotto in ritardo, è il costo del ritardo Crit=70£/pezzo*20000pezzi (stimato considerando il valore aggiunto che sisarebbe generato durante il tempo di ritardo).

2.6.3.3. Costo di accettazioneIl costo CAi derivante dall’accettazione di un pezzo difettoso rispettoall’attributo i-mo è stato stimato considerando le conseguenze che lanon rilevazione della difettosità di tipo i, determina nella lavorazionealle macchine utensili o nel collaudo finale. Si è quindi arrivati allastima riportata in Tabella 2.8

Attributo 1 2 3 4 5 6 7 8 9Identificativodell’attributonella notazioneoriginale

3 4 6 7 104 106 107 201 204

CAi [£/pezzo] 360 334 428 428 300 300 300 3600 3600

Tabella 2.8: Costi per non conformi in lotti accettati

In particolare l’elevato costo CAi per un pezzo accettato ma nonconforme rispetto agli attributi 8 e 9 si deve al fatto che in questi casi ildifetto determina un assemblato da scartare ed è quindi pari al costopieno industriale del finito. Poiché nessuno degli attributi prevede uncontrollo distruttivo, il costo di sostituzione Csost è nullo.

Page 50: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

41

2.7. Il piano di minimo costo atteso per ilcorpo valvola

In funzione dei dati di costo stimati, si è proceduto alla progettazionedel piano di minimo costo atteso, le cui caratteristiche sono riportate inTabella 2.9.

Attributo 1 2 3 4 5 6 7 8 9Aci 0 3 2 1 1 0 2 0 0ni 4 26 23 13 9 4 13 31 33

Tabella 2.9: Piano di minimo costo per il corpo valvola grezzo

Come si può osservare il piano individuato è caratterizzato dacampioni di dimensione ridotta. Il costo complessivo del piano è di60000£. Se si osserva la curva OC derivante dall’adozione di questopiano essa risulta avere pendenza elevata per bassi valori di p. Comeera prevedibile quest’andamento della curva OC significa un rischioelevato per il fornitore, la cui funzione di costo non è stata infatti tenutain considerazione nell’approccio.Confrontando la soluzione ottenuta con la soluzione attualmente

adottata in azienda (riportata in Tabella 2.10) si può osservare unanotevole riduzione dei costi. Infatti la soluzione attualmente adottata inazienda prevede un costo di 165000£.

Attributo 1 2 3 4 5 6 7 8 9Aci 5 5 5 5 5 5 5 5 5ni 125 125 125 125 20 20 20 20 20

Tabella 2.10: Piano attualmente adottato in azienda

2.7.1. Analisi di sensitività della soluzioneadottata

Le difficoltà che spesso si incontrano nella stima dei costi e deiparametri statistici che intervengono nella funzione obiettivo, rendeopportuno procedere con un’analisi di sensitività. In questo modo èpossibile valutare la variazione che si ha nella funzione obiettivoqualora si commetta un errore nella stima dei parametri di ingresso almodello.A rigore si dovrebbe procedere analizzando tutte le possibili

combinazioni di errori di stima dei parametri (che sono in totale 40),

Page 51: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

42

tuttavia una prima analisi prevede la deviazione di un solo parametroalla volta.Per progettare l’analisi di sensitività occorre valutare l’entità delle

variazioni che si intendono considerare. In questo caso si è scelto diimporre variazioni significative per considerare il comportamento delpiano in condizioni critiche.Inoltre risulta utile precisare che i parametri statistici si e ti,

caratterizzanti la distribuzione a priori, sono stati fatti variare conqualche accorgimento. Dal momento che i parametri si e ti delladistribuzione a priori relativamente all‘i-mo attributo, sono stimati conil metodo dei momenti a partire dai valori di media e varianza, èsembrato più opportuno introdurre una variazione in questi ultimiparametri, piuttosto che intervenire direttamente su si e ti . Diconseguenza si sono ottenuti differenti valori per le modifiche deiparametri statistici per ogni attributo.

Costo di accettazioneATTR valore originale valore modificato costo totale atteso

[migliaia di £]1 0,36 3,6 75,6112 0,334 3,34 1263 0,428 4,28 88,8074 0,428 4,28 90,6645 0,3 3 97,4796 0,3 3 69,0977 0,3 3 110,688 3,6 36 97,1869 3,6 36 101,45

Tabella 2.11: Analisi di sensitività: effetto del costo di accettazione

Osservando i risultati in Tabella 2.11 si può concludere che lasoluzione ottima è abbastanza robusta a variazioni del costo diaccettazione di un pezzo non conforme. Infatti a fronte di un aumentodi un fattore 10 di questi parametri di costo si ottiene un costo totaleatteso mediamente amplificato di un fattore 1,5 (e mai superiore a 2).Questo risultato risulta interessante soprattutto considerando le

approssimazioni che a volte è necessario adottare nella stima di questoparametro. Analogamente, come si osserva in Tabella 2.13, anche erroridi stima o una naturale variabilità nella dimensione del lotto,influenzano in misura limitata il risultato in termini di costo totaleatteso.

Page 52: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

43

Al contrario la soluzione risulta particolarmente sensibile ad errorigrossolani di stima dei costi variabili di collaudo Tabella 2.12. Questorisultato è in primo luogo da imputare alla situazione modellata. Infattila presenza della variabile booleana ξ, determina un salto nella funzionedoi costo. In particolare ξ passa dal valore 0 al valore 1 quando i costidi collaudo al 100% a seguito di un rifiuto diventano troppo grandi: inquesto caso il fornitore ha convenienza a scartare il lotto, facendosostenere al cliente i costi relativi al ritardo con cui un nuovo lottoarriva.Analogamente un forte aumento della media della frazione di pezzi non

conformi causa un notevole incremento del costo atteso. Ciò è dovuto inprimo luogo allo stesso effetto osservato per il costo di collaudo: lavariabile boolena ξ passa dal valore 0 al valore 1. In secondo luogol’aumento della media causa un aumento del costo atteso diaccettazione del lotto, aumentando il numero medio di non conforminella parte del lotto non ispezionata che si traducono in un costo nelcaso in cui il lotto passi il controllo di accettazione. Infine, occorreosservare che anche la stima della deviazione standard risulta critica.La principale motivazione per questo comportamento deriva ancora unavolta dal salto a gradino compiuto dalla funzione obiettivo quando ilvalore della variabile booleana ξ cambia.

Costo variabile di collaudoATTR valore originale valore modificato costo totale atteso

[migliaia di £]1 0,05 0,5 1307,52 0,05 0,5 1317,43 0,05 0,5 1316,14 0,05 0,5 1311,65 0,075 0,75 1311,86 0,075 0,75 1308,47 0,075 0,75 1314,58 0,075 0,75 1326,69 0,075 0,75 1328

Tabella 2.12 Analisi di sensitività: effetto del costo variabile di collaudo

Page 53: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

44

Dimensione del lottoN costo totale atteso

[migliaia di £]40000 95,24130000 77,32510000 41,4945000 32,5362000 27,162

Tabella 2.13 Analisi di sensitività: effetto della dimensione del lotto

MediaATTR valore originale valore modificato costo totale atteso

[migliaia di £]1 0,0024 0,0242 1331,42 0,1988 0,7953 1407,13 0,2533 0,7598 1388,44 0,1036 0,829 1421,25 0,226 0,678 1398,16 0,3255 0,651 1368,17 0,1818 0,727 1409,48 0,0675 0,675 1424,19 0,1995 0,7981 1403,9

Tabella 2.14 Analisi di sensitività: effetto della media della distribuzionea priori

Page 54: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

45

Deviazione standardATTR valore originale valore modificato costo totale atteso

[migliaia di £]1 0,006 0,0478 62,8392 0,3452 0,0345 1426,13 0,414 0,0414 1431,24 0,2746 0,0275 1402,85 0,3944 0,0394 1433,36 0,4639 0,0464 1451,57 0,3519 0,0352 14178 0,2247 0,0225 1473,79 0,3813 0,0381 1426,2

Tabella 2.15 Analisi di sensitività: effetto della deviazione standard delladistribuzione a priori

valoreoriginale

valoremodificato

costo totaleatteso[migliaia di £]

costo di rifiuto del lotto 1400 14000 59,41costo fisso di collaudo 13,55 135,5 181,36costo unitario di rimpiazzo di unpezzo non conforme

0,212 2,12 59,41

Tabella 2.16 Analisi di sensitività: effetto dei parametri di costoindipendenti dagli attributi

Infine osservando la Tabella 2.16, si osserva che i parametri di costonon dipendenti dagli attributi risultano rilevanti in situazioni in cuicoinvolgono variazioni della variabile ξ. In particolare, aumenti del costodi rifiuto del lotto e del costo unitario di rimpiazzo di un pezzo nonconforme non introducono significative variazioni del costo totaleatteso, mentre il costo fisso di collaudo introduce una variazione delcosto totale atteso di una magnitudo circa pari alla variazione delparametro (fattore 10). In realtà osservando meglio la soluzione trovata,si può osservare che qualunque errore di stima del suddetto parametrorisulta ininfluente sulla scelta del piano, modificando solo il valore delcosto totale atteso ma non i parametri di progetto del piano.

Page 55: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

46

2.8. Conclusioni e possibili sviluppi

In questo capitolo è stato proposto un approccio per la progettazionedi un piano di campionamento multiattributo. Grande attenzione èstata principalmente dedicata alla definizione di un approccioapplicabile, per superare il tradizionale ambito puramente accademicoin cui la progettazione economica dei piani di accettazione è da annirelegata. Avendo sempre come riferimento un caso produttivo reale si èproposto un approccio in grado di considerare:- la caratteristica di multidimensionalità degli attributi su cui siesegue un collaudo in accettazione;- la possibilità di selezionare economicamente la migliore politica avalle del rifiuto del lotto (politica che è spesso definita a priori);- la presenza di due soggetti economici distinti (fornitore e cliente) tracui i costi di un eventuale rifiuto si suddividono, spesso per contratto.E’ sempre con l’idea di proporre approcci applicabili che si possono

evidenziare diverse direzioni di futura indagine.In primo luogo si ritiene opportuno, migliorare l’analisi numerica di

sensitività valutando l’effetto di variazioni dei parametri anche menocritiche. E’ possibile secondariamente provare a rilassare l’ipotesi dilavoro basata su famiglie coniugate e indagare altri tipi di distribuzioni,adottando nella soluzione approcci tipo Markov Chain MonteCarlo[Gil96].Si potrebbe inoltre estendere la portata del modello rilassando qualche

ipotesi che potrebbe risultare poco realistica in alcuni contestiproduttivi. In primo luogo si potrebbe introdurre la possibilità di averelotti di dimensione variabile e non necessariamente fissa. In secondoluogo potrebbe essere opportuno includere eventuali errori di ispezionenella fase di collaudo, soprattutto nei casi in cui l’ispezione abbia unaforte componente umana.

Page 56: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 2Progettazione economica di un piano di campionamento bayesiano singolomultiattributo

47

Page 57: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

48

CAPITOLO 3

LE CARTE DI CONTROLLOADATTATIVE BAYESIANE

3.1. Introduzione

I processi produttivi sono sempre soggetti ad un certo grado divariabilità ritenuta “naturale”. Quando il processo opera in condizioni divariabilità naturale, si ritiene che esso sia in controllo.Occasionalmente a questa variabilità propria del processo, si aggiungeun’extra-variabilità dovuta a cause occasionali quali, ad esempio,settaggi impropri delle variabili di controllo, errori degli operatori,materiali in ingresso non conformi con le specifiche [Mon96]. In questecondizioni si ritiene utile agire tempestivamente rimuovendo la causaassegnabile, in modo da ricondurre il processo ad uno stato difunzionamento ritenuto “regolare”. Il beneficio di questo intervento sulprocesso si traduce in un miglioramento delle performance. Infattil’extra-variabilità dovuta ad una causa occasionale si traduce spesso inun aumento della difettosità in uscita dal processo.

Obiettivo degli strumenti di controllo statistico di processo(Statistical Process Control, SPC) è proprio quello di fornire delletecniche qualitative e quantitative che supportino il decisore adindividuare tempestivamente cause di variabilità che non sono ritenuteaccettabili.

Tra le principali tecniche proposte in letteratura, si possono elencare:

Istogrammi: sono utilizzati per ottenere la distribuzione empirica dellefrequenze delle realizzazioni di certi eventi rilevanti per il processo;

Check sheet: permettono di classificare i vari tipi di difetti riscontratiriportando nel tempo la frequenza di accadimento.;

Carte di Pareto: sono diagrammi a barre che rappresentano lafrequenza di accadimento o il costo di un certo numero di categorie dicause, ordinate in modo decrescente rispetto alla grandezza misurata;

Page 58: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

49

facilitano l'individuazione dell'insieme di cause più rilevanti per un datocriterio di priorità.

Diagramma di causa-effetto: si tratta di una tecnica dirappresentazione delle cause potenziali che determinano un dato effettoche è l'oggetto dello studio. L'utilizzo di questo diagramma è moltospesso iterativo in quanto ogni causa può essere l'effetto di altre cause;

Defect Concentration Diagram: sono rappresentazioni di un prodottoin cui sono riportate le posizioni dei difetti riscontrate durantel’ispezione. E’ quindi possibile ottenere un’indicazione dellalocalizzazione più frequente per ogni tipo di difetto, facilitando quindil’individuazione della causa.

Scatter plots: sono diagrammi bidimensionali che su ciascun asseriportano il valore di due distinte caratteristiche di interesse.Diagrammi di questo tipo aiutano ad evidenziare la presenza dicorrelazione fra i dati in esame;

Carte di controllo: utilizzando una rappresentazione grafica, si riportal'andamento nel tempo di una statistica (media campionaria, deviazionestandard campionaria, range) legata alla caratteristica di qualità diinteresse (ad esempio frazione di difettosi nel campione, misura di unaquota, ecc.). Ogni punto rappresentato sulla carta è confrontato con ilimiti di controllo che definiscono la regione di rifiuto di un test d’ipotesiche mira a scoprire se il processo è cambiato oppure no. Se il puntofuoriesce da questa banda, ossia cade nella regione di rifiuto, significache c’è evidenza statistica per ritenere che il processo sia fuoricontrollo. A seguito di questo segnale si procede alla ricerca di unacausa assegnabile che può aver determinato questo fuori controllo. Sela causa assegnabile è individuata, si procede a rimuoverla, ossia aripristinare una condizione naturale di funzionamento del processo. Seinvece la causa assegnabile non è individuata, si ritiene che il fuoricontrollo sia dovuto ad un falso allarme, quindi si continua a operare

Tra le varie tecniche di SPC introdotte, le carte di controllo hannoavuto sicuramente maggior successo e diffusione. A partire dal primomodello ideato da Shewart negli anni ’20, la ricerca ha continuato econtinua tuttora a proporre nuove metodologie di controllo di processoche traggono spunto dalla tradizionale carta di Shewart ma sono adattealle più svariate applicazioni.

Una breve classificazione degli approcci proposti riguardaessenzialmente:

Page 59: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

50

⇒il numero di caratteristiche di qualità da monitorarecongiuntamente. Questa caratteristica distingue due tipologie diapprocci:

õcarte di controllo per singola caratteristica di qualità;õcarte di controllo multivariabili, in cui è nota, o

stimata dalle osservazioni, la struttura di correlazione(matrice di varianza covarianza) tra le differenticaratteristiche di qualità del prodotto.

⇒il tipo di caratteristica da monitorare. In primo luogo ènecessario distinguere tra caratteristiche misurate attraversovariabili, o attraverso attributi:

õcarte di controllo per variabili: in questo caso simisura, a valle del processo una caratteristica che puòassumere valori in un continuo. In particolare, moltodiffuse sono le carte adottate per controllare media edispersione della grandezza di interesse:

åcarte X -R: se la dispersione è stimata econtrollata usando il metodo dell’escursione (range);

åcarte X -S: se la dispersione è stimata econtrollata attraverso la deviazione standardcampionaria.

õcarte di controllo per attributi: si misura unacaratteristica che è rappresentabile attraverso unavariabile booleana. In particolare due tipologie di cartevengono in quest’ambito utilizzate:

åcarte p (np): in cui la statistica di interesse è lafrazione (il numero) di non conformi riscontrati inun campione di dimensione n;

åcarte c (u): in cui la statistica di interesse è ilnumero di non conformità in un campione di n (onella singola) unità di ispezione.

⇒la struttura di autocorrelazione temporale tra i dati: inquest’ambito si può ipotizzare indipendenza o autocorrelazionecon passo dato. In quest’ultimo caso si può procedere, in ipotesidi variazione lenta della media, con un approccio EWMA,altrimenti, se la struttura di autocorrelazione è più complessaoccorre utilizzare modelli si analisi delle serie storiche (adesempio ARIMA).

⇒l’entità della variazione che si desidera sia segnalata. Inquesto caso, la scelta tra approcci è spesso legata al concetto dicapacità di processo. Con riferimento alla media di unacaratteristica di qualità, se il PCR (ossia il rapporto tra intervallodi specifica e tolleranza naturale del processo) è elevato, si puòpensare che spostamenti anche rilevanti della media non dianoluogo a significative variazioni della difettosità in uscita dal

Page 60: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

51

processo. L’approccio tradizionale allora dà luogo ad un numeroeccessivo di allarmi per fuori controllo. In questo caso si procedequindi all’adozione di una carta a limiti modificati.

Al contrario, se il PCR è piccolo si intende adottare una cartamolto sensibile anche a piccoli spostamenti, per evitare eccessiviaumenti della difettosità in uscita (carte CUSUM, EWMA, MovingAverage).

Scelta, in funzione delle caratteristiche del processo e del sistema dimisura, la tipologia più opportuna di carta, occorre procedere alla fasedi progettazione. La progettazione di una carta di controllo consistesostanzialmente nella definizione di tre parametri: la dimensione delcampione n che andrà ispezionato, la frequenza di campionamento h eil coefficiente dei limiti di controllo k (cioè la distanza dei limiti dicontrollo dalla linea centrale espressa in unità di deviazione standardcampionaria).

Per decidere il valore di questi tre parametri di progetto,sinteticamente rappresentati in Figura 3.1, la letteratura proponeprincipalmente due approcci: l’approccio statistico e l’approccioeconomico1.

La progettazione statistica di una carta di controllo si basasull’analogia tra carta di controllo e test d’ipotesi: come già anticipatouna carta di controllo può di fatto essere considerata un test di ipotesieseguito ad intervalli regolari di tempo. Come in ogni test di ipotesi ènecessario quindi procedere alla scelta degli errori di primo e secondotipo che si intende accettare.

Nell’approccio economico la scelta delle variabili di controllo è inveceeseguita ottimizzando una funzione obiettivo economica. In questo casogli errori di primo e secondo tipo non sono fissati a priori, ma sonoselezionati considerando il modo in cui la loro scelta condiziona leprestazioni economiche della politica di controllo.

Qualunque sia l’approccio adottato, in letteratura tradizionalmente iparametri di controllo sono selezionati in fase di progetto e utilizzati poidurante l’esercizio della carta di controllo senza modifiche.

Questa ipotesi consente di semplificare la complessità matematicadella trattazione e di ottenere una più semplice gestione della proceduradi controllo durante l’esercizio. Tuttavia, i recenti sviluppi nell’ispezionee nella misura automatica e nella elaborazione on-line di una grandequantità di dati, hanno notevolmente ridotto la necessità di adottaresemplici modelli statistici di analisi dei dati. In questo scenario,l’adozione di procedure di controllo statistico dinamiche è quindidiventata una valida alternativa al tradizionale approccio. 1 In realtà esiste un terzo approccio “ibrido” definito statistico-economico cheverrà però approfondito nel secondo paragrafo come variante dell’approccioeconomico.

Page 61: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

52

Una carte di controllo è considerata dinamica o adattativa se almenouno dei parametri di controllo può variare in real time sulla base delleinformazioni relative allo stato corrente del processo, rappresentato dalvalore della statistica campionaria di interesse.Di conseguenza, una carte di controllo adattativa prevede un continuoaggiornamento dei parametri decisionali che individuano la proceduradi controllo, utilizzando tutte le informazioni disponibili fino aquell’istante. L’aumento di flessibilità di uno schema di controlloadattativo sembra determinare un più efficace monitoraggio delprocesso, in riferimento a criteri statistici o economici.

tthh

CCaammppiioonnee ((nn ppaarrttii))

CL=µ w

UCL=µ w+ kk σ w

LCL=µ w - kk σ w

Figura 3.1: Parametri di progettazione di una carta di controllo

In questo capitolo si intende proporre una metodologia diprogettazione economica di una carta di controllo adattativa,utilizzando lo schema di inferenza bayesiano.

Prima di procedere con i dettagli sul modello proposto, si procederàad una descrizione dello stato dell’arte relativo alla progettazioneeconomica di carte di controllo. Successivamente si descriverà lo statodella ricerca relativa alle carte adattative, prestando particolareattenzione ai modelli di progettazione economica. Sarà poi descritto ilmodello proposto e la fase di sperimentazione numerica in cui leprestazioni dell’approccio sono state messe a confronto con quelle di untradizionale approccio statico.

Page 62: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

53

3.2. La progettazione economica delle cartedi controllo in letteratura

Il primo utilizzo della progettazione economica per la determinazionedelle procedure di controllo è proposto da Girshick e Rubin nel ’52[Gir92]. Successivamente, Duncan propone nel ‘56 un modello per laprogettazione economica di una carta per la media [Dun56],comunemente considerato il punto di partenza della ricerca in questocampo. Dal primo ‘pioneristico’ modello di Duncan molti autori hannosuccessivamente contribuito alla ricerca in diverse direzioni.Per comprendere le differenti direzioni di ricerca si ritiene utile partiredescrivendo in dettaglio questo modello che rappresenta lo startingpoint in quest’ambito. I vari filoni di ricerca verranno quindi descrittiindividuando le variazioni rispetto a questo modello di riferimento.

3.2.1. Il modello di DuncanIn questo paragrafo dettaglieremo e discuteremo criticamente il modellodi Duncan [Dun56].Basandosi sul precedente lavoro di Girshick e Rubin [Gir92], Duncanpropone nel 1956 un criterio di progetto il cui obiettivo è lamassimizzazione del profitto per unità di tempo. Si assume che lamedia della caratteristica oggetto del monitoraggio abbia livello incontrollo pari a 0µ e che il manifestarsi aleatorio della causaassegnabile produca uno spostamento (shift) della media di processodal valore 0µ a δσµ +0 oppure a δσµ −0 .Il processo è monitorato utilizzando una carta per la media X la cuilinea mediana è pari a 0µ ed i limiti di controllo superiore ed inferiore

sono rispettivamente n

k σµ +0 e n

k σµ −0 . I campioni di produzione

sono estratti ogni h unità di tempo. Per ciascuna delle unità campionatesi misura la caratteristica di qualità oggetto del controllo, si calcola lamedia dei valori misurati e la si traccia sulla carta. Se il valore ottenutoper un campione eccede il limite di controllo superiore oppure quelloinferiore, si produce un ''allarme'' che porta alla ricerca della causadell'anomalia e, se essa esiste, al ripristino del processo.

3.2.1.1. Le ipotesi

L'autore ipotizza che:1. il processo di guasto sia istantaneo;2. la causa di guasto sia singola;

Page 63: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

54

3. il modello di guasto sia poissoniano;4. in seguito ad allarmi prodotti dal sistema di controllo non si

proceda all'arresto della macchina, nè per ricercare la causaassegnabile nè per ripristinare il processo;

5. la frequenza di campionamento determinata in sede di progettosia poi tenuta fissa durante il funzionamento del sistema;

6. il processo non si autocorregga.Per processo di guasto all'ipotesi 1 si intende il meccanismo ditransizione verso lo stato di produzione di fuori controllo. Si assumequindi che, alla manifestazione della causa assegnabile, il livello dellamedia di processo passi istantaneamente dal livello desiderato 0µ a

δσµ +0 o δσµ −0 . Il termine ''guasto'' è quindi qui utilizzatoimpropriamente: non si tratta infatti di un vero guasto del processo, madi uno stato di produzione che potremmo dire degradato. Quest'assuntorende il modello inadatto a descrivere spostamenti graduali della mediacome per esempio nel caso dell'usura di un utensile2.L'ipotesi 2 asserisce che per il sistema studiato esiste una sola causaresponsabile dello spostamento della media e di effetto noto. Nellarealtà essa è raramente soddisfatta e questo ha motivato un'estesaricerca in quest'area. Il lettore interessato veda [Dun71], [Kna69].In 3 si assume che il numero di cause assegnabili che hanno luogo inun certo intervallo di tempo è descritto da un processo stocastico diPoisson omogeneo, la cui intensità è λ manifestazioni per unità ditempo. Quest'ipotesi classica, comune a molti altri modelli diprogettazione, è utile perchè determina una considerevolesemplificazione formale. Diversi autori si sono interessati allo sviluppodi modelli che considerino distribuzioni diverse da quella esponenziale:uno studio interessante in quest'area è quello di Baker [Bak71].In 4 si suppone che il processo non sia arrestato nè durante il periodopreposto alla ricerca della causa assegnabile nè durante quelloassociato alla sua rimozione: queste azioni avvengono dunque duranteil processamento delle parti. Questo restringe grandemente, a nostroavviso, l'ambito di utilizzo del modello. Riformulazioni successive delproblema da parte di altri autori hanno provveduto a rimuovere questoassunto.L'ipotesi 5 impone che il tempo che intercorre fra l’estrazione di duecampioni successivi è tenuto costante dopo la progettazione delle carte.Alcuni autori hanno osservato che una tale politica non si rivelaottimale per un ampio range di casi applicativi e ciò ha motivato unampio filone della ricerca nel campo delle carte di controllo adattative.Con 6 invece si considera che, una volta manifestatasi la causaassegnabile, il processo, se non subisce alcun intervento da parte del

2 Lavori proposti in questa area sono [Dre89], [Gib67], [Que88], [Sch90].

Page 64: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

55

personale preposto al suo controllo, rimane nello stato di fuori controlloraggiunto.

3.2.1.2. La notazioneL'autore indica con:

λ il parametro della distribuzione esponenziale che regola ilmeccanismo di manifestazione della causa assegnabile;

δ lo shift della media che si intende rilevare espresso in unità dideviazione standard σ ;

σ la deviazione standard della caratteristica controllata;h l'intervallo di tempo fra due campioni successivi;k il parametro che definisce i limiti di controllo rispetto alla

media;n la numerosità del campione prelevato ogni h unità di tempo;V0 il ricavo per unità di tempo di produzione con processo in

controllo;V1 il ricavo per unità di tempo di produzione con processo fuori

controllo;a1 il costo di campionamento fisso sostenuto per ogni campione

estratto;a2 il costo variabile di campionamento per unità campionata;a3 il costo sostenuto per la ricerca della causa assegnabile e per

la sua rimozione nel caso di un allarme fondato;a’3 il costo sostenuto per la ricerca della causa assegnabile nel

caso di un falso allarme;g il tempo necessario per l'estrazione un esemplare dalla

produzione;D il tempo necessario per la rimozione della causa assegnabile.

3.2.1.3. I ricavi ed i costiDuncan considera tre categorie di ricavi e di costi: ricavi da produzione,costi da estrazione di campioni e costi associati all'investigazione edeventualmente al ripristino del processo.

Ricavi da produzioneSi adottano due distinti coefficienti di ricavo per unità di tempo percaratterizzare la produzione del sistema: il primo, V0, rappresenta ilricavo per unità di tempo che deriva dalla produzione in stato diprocesso in controllo; il secondo, V1, caratterizza invece la produzionerealizzata in stato di fuori controllo.

Costi di estrazione dei campioni

Page 65: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

56

Per essi si considera una componente fissa a1 ed una variabile a2. Laprima insorge ogni volta che si estrae un campione, mentre il costovariabile insorge per ogni unità campionata. Il costo totale che siassocia all'estrazione di un campione è quindi pari a a1+a2n.

Costi di ripristino e di investigazioneSono definiti da due distinti coefficienti: a3 e a3’. L'utilizzo di due distinticoefficienti di costo si giustifica con il fatto che le azioni diinvestigazione e di rispristino, cioè di investigazione e di rimozione dellacausa assegnabile, differiscono sostanzialmente tra di loro sia per iltempo necessario alla loro esecuzione sia per i costi che essecomportano. L'autore ritiene quindi necessario penalizzarle in mododiverso.

3.2.1.4. Il modello

Duncan definisce quattro stati di sistema:v stato 1, o stato di produzione in controllo;v stato 2, o stato di produzione fuori controllo non segnalato;v stato 3, o stato di produzione fuori controllo dopo il primo

allarme per raccolta dati necessari all'indagine;v stato 4, o stato di produzione fuori controllo per ripristino del

processoL'evolvere del sistema nel tempo è descritto da un processo stocasticorenewal reward. Il soggiorno del processo fra i suoi stati di sistema puòinfatti essere visto come una serie di cicli indipendenti che si ripetononel tempo, ciascuno dei quali inizia e termina con la fine di una fase diripristino. Gli istanti che segnano il termine della fase di ripristino sonodetti rinnovamenti per il fatto che il processo, dopo questi istanti, evolvecome se quello che è avvenuto precedentemente non avesse mai avutoluogo. Ad ogni ciclo è associata una ricompensa (o reward), che nelnostro caso è costituita dal ricavo netto che il sistema realizza fra duerinnovamenti successivi. La Figura 3.2 rappresenta i legami fra letransizioni di stato del sistema.

Page 66: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

57

tt

hh

CCaammppiioonnee ((nn ppaarrttii)) FFuuoorrii ccoonnttrroolllloo

RRiicceerrccaa eedd eelliimmiinnaazziioonnee ddeellllaaccaauussaa aasssseeggnnaabbii llee

kk

CCaauussaa aasssseeggnnaabbiillee

1 2 3 1

2’τ

Figura 3.2: Differenti stati del sistema nel modello di Duncan

Ogni ciclo inizia con un periodo di produzione in stato 1. Dopo un certotempo, si manifesta la causa assegnabile, evento che segna il passaggiodel processo nello stato di produzione fuori controllo. Il processo visoggiorna fino a che la procedura di controllo, dopo l'estrazione di uncampione, produce un allarme. Ciò segna il passaggio in stato 3 e dàinizio alla fase di investigazione per la ricerca della causa dell'allarme.Una volta individuata, si accede allo stato 4 nel quale avviene l'effettivoripristino del processo. Al suo termine il ciclo si conclude e comincia ilsuccessivo con una nuova transizione nello stato 1. L'evolvere delprocesso nel tempo fra questi stati è rappresentato in Figura 3.2.Indicando il valore aggiunto associato ad un ciclo con R e con T la suadurata, l'obiettivo del modello è la massimizzazione del valore aggiuntomedio per ciclo in funzione dei parametri di progetto delle carte n,h e k,ossia la massimizzazione di E(R/T).Il calcolo di questo valore atteso risulta semplificato in virtù di unimportante teorema [Ros83]:

In un processo stocastico renewal reward, siano Xn l'intervallo ditempo tra due rinnovamenti successivi, Rn la ricompensa che siriceve all'inizio dell'n-esimo rinnovamento e R(t) la ricompensatotale ricevuta al tempo t. Siano altresì le coppie (Xn,Rn) fra di loroindipendenti ed identicamente distribuite.

Page 67: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

58

Si ha con probabilità uguale a uno:

)()()(lim

TERE

ttRE

t=

∞→(3.1.)

Il valore atteso del rapporto )/( TRE si riduce quindi al rapporto deivalori attesi )(/)( TERE . Duncan procede quindi separatamente alcalcolo di E [R ] e di E [T ].

Indicando con Ti, i=1,2,3,4 il tempo che il processo trascorre nello statoi, il calcolo di E [T ] utilizza una nota proprietà dei valori attesi:

)()()()()( 4321 TETETETETE +++= (3.2.)

Il primo valore atteso è il tempo medio che il processo trascorre incontrollo all'interno di un ciclo. In virtù dell'ipotesi di modellopoissoniano di guasto, esso è:

λ1)( 1 =TE (3.3.)

Per il periodo T2 l'autore osserva che la probabilità che all'estrazione diun campione ci si accorga dello stato effettivo del processo, dato che siè manifestata una causa assegnabile, è una prova di Bernoulli conprobabilità di successo 1-β. β rappresenta l'errore di secondo tipocommesso dalla carta che, nel caso in cui la caratteristica controllataabbia distribuzione normale, è calcolato come:

+−= ∫∫

∞−

−−∞− nk

nk dzzdzz δδ φφβ )()(1 (3.4.)

dove )(zφ rappresenta la funzione densità di probabilità della normalestandard.

Pertanto, il numero medio di campioni da estrarre prima di accorgersidell'avvenuta manifestazione della causa assegnabile è pari a 1/(1-β ).Considerando che l'intervallo tra due campioni successivi è costante epari ad h, si deduce che l'intervallo di tempo fra l'ultimo campioneprelevato in controllo prima della manifestazione della causaassegnabile e la segnalazione dell'allarme è h\(1- β ). Come si puòevincere dalla Figura 3.2, questo calcolo comprende l'intervallo ditempo τ in cui il processo è in controllo fra i due campioni in cui si

Page 68: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

59

manifesta la causa assegnabile che abbiamo già considerato nel calcolodi E(T1). Occorre quindi sottrarre questa quantità da h\(1- β).

dt

λ e-λt dtf(t)= λe-λt

jh (j+1)htt

Figura 3.3: Calcolo del sottointervallo di tempo τ nell’approccio diDuncan.

Osservando la Figura 3.3, si può dedurre che:

( )

)1(

)1(1)1(

)1(

h

h

hjjh

t

hjjh

t

e

eh

dte

dtejht

λ

λ

λ

λ

λ

λ

λ

λτ

+ −

+ −

+−=

−=

∫(3.5.)

Si può concludere quindi che il tempo medio all'interno di un ciclo cheil processo trascorre fra la manifestazione della causa assegnabile el'allarme prodotto dalla procedura di controllo è:

τβ

−−

=1

)( 2hTE (3.6.)

Durante il periodo di produzione in stato 3, si indaga sulle causedell'allarme appena manifestatosi. L'autore assume che il tempo medioper eseguire il campionamento necessario per individuare la causaresponsabile dell'allarme sia una funzione lineare della dimensione delcampione prelevato, ossia:

gnTE =)( 3 (3.7.)

Una possibile obiezione che si può muovere a quest'ipotesi è che non èvero in generale che la dimensione del campione da estrarre perindividuare le cause dell'allarme debba essere necessariamente pari an. Potrebbe infatti accadere che la causa assegnabile sia

Page 69: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

60

particolarmente ostica da ricercare e che un campione di dimensione nnon sia sufficiente.

L'ultimo periodo che compone il ciclo è quello in cui si procedeeffettivamente alla rimozione della causa assegnabile. L'autore supponeche il tempo necessario alla rimozione della causa sia noto, costante epari a D, quindi:

DTE =)( 4 (3.8.)

Il valore atteso della durata di un ciclo completo, in virtù dell’equazione(3.2) risulta quindi:

DgnhTE ++−−

+= τβλ 1

1)( (3.9.)

Per il calcolo del valore aggiunto medio realizzato in un ciclo, l’autoreconsidera i ricavi e costi discussi al paragrafo 3.2.1.3. Scomponiamo ilricavo netto R nelle sue componenti, ossia ricavi derivanti dallaproduzione RP, costi di campionamento CC, costi da falsi allarmi CFA ecosti di ripristino CR:

RFACP CCCRR −−−= (3.10.)

Anche in questo caso è possibile semplificare il calcolo come:

)()()()()( RFACP CECECERERE −−−= (3.11.)

Ricavi attesi. I ricavi attesi di ciclo sono calcolati in funzione dello statodel sistema. Il ricavo per unità di tempo V0 è attribuito a quella parte diciclo T nella quale il processo produce in controllo il cui valore atteso èE (T1). Alla restante parte di ciclo, la cui durata attesa è E (T)-E (T1) èassociato il ricavo derivante dalla produzione fuori controllo V1.

( ))()(1)( 110 TETEVVRE P −+=λ

(3.12.)

Si fa notare che Duncan assume che sia possibile procedere alripristino o all'ispezione del processo mentre esso continua ad operare.Al di là del fatto che questo sia effettivamente possibile nei diversi casireali, osserviamo che così si assume implicitamente che sia convenientenon arrestare il processo durante il ripristino.

Page 70: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

61

Costi di campionamento. Per ottenere il costo medio derivantedall'estrazione di campioni di produzione durante un ciclo, il costo diestrazione di un campione per il numero atteso di campioni estrattidurante un ciclo di durata E(T ). Il costo che si sostiene per estrarre uncampione è costituito dalla somma di un contributo fisso che insorgeogni volta che il campione è estratto e da un termine proporzionale alnumero di unità prelevate: a1+a2n. Essendo i campioni estratti con unafrequenza di h unità di tempo, il numero atteso di campioni estratti inun ciclo è hTE /)( . Il costo atteso di campionamento per ciclo è dunquefornito da:

hTEnaaCE C

)()( 21 += (3.13.)

Questo calcolo merita qualche osservazione. Duncan così supponeimplicitamente di estrarre campioni di produzione anche durante ilripristino della macchina. Questo è un controsenso in virtù del fatto cheè inutile prelevare un campione di produzione per inferire sullo statodel processo quando è ben noto che esso si trova in stato di fuoricontrollo.

Costi dovuti a falsi allarmi.Essi sono calcolati moltiplicando il numero medio di allarmi rivelatisifalsi per il costo associato alla loro investigazione a’3. Se si considerache i falsi allarmi possono aver luogo solo quando il processo è incontrollo e che la probabilità che si verifichi uno shift in h unità ditempo è fornita da he λ−−1 , il numero atteso di campioni estratti primache abbia luogo uno shift è distribuito come un geometrica il cui valor

medio è h

h

e

λ

−1. Se si indica con α l'errore di primo tipo della carta,

ossia la probabilità che la carta produca un allarme dato che il processoè in controllo, il numero medio di campioni prelevati dal processoquando esso è in controllo e che danno luogo a falsi allarmi è

h

h

e

λα

−1.

Nel caso in cui la caratteristica controllata abbia distribuzione normale,l'errore di primo tipo α è:

∫∞=k

dzz )(2 φα (3.14.)

dove )(zφ è la funzione densità di probabilità della normale standard.

Page 71: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

62

I costi associati a questi allarmi sono quindi:

αλ

λ

h

h

FAe

eaCE−

−=

1')( 3 (3.15.)

Costi da ripristino del processo. In virtù del fatto che un ciclo è definitocome l'intervallo di tempo che trascorre tra due ripristini successivi,segue che durante un ciclo può aver luogo solo un ripristino. Per questomotivo il costo medio da ripristino del processo per ciclo è pari al costodi un singolo ripristino, ossia:

3)( aCE R = (3.16.)

In virtù dell’equazione (3.11), si può concludere che:

( ) αλ λ

λ

h

h

e

eaahTEnaaTETEVVRE

−−−+−−+=

1')()()1()(1)( 332110 (3.17.)

Infine, la funzione obiettivo oggetto di massimizzazione è:

( )

Dgnhe

eaa

hTE

naaTETEVV

TERE h

h

++−−

+

−−−+−−+

=−

τβλ

αλ λ

λ

11

1'

)()()1()(

1

)()( 332110

(3.18.)

L'autore termina l'articolo con un'analisi di sensitività. Basandosi su uncaso reale, viene quindi studiata l'influenza dei diversi parametricaratteristici di sistema sui valori ottimi delle variabili di progetto dellecarte. Le conclusioni dell'analisi sono che:

G la dimensione ottima del campione n è determinataprincipalmente dal valore δ dell'ampiezza dello shift che siintende rilevare. In generale per shift ampi, ossia δ ≥2, sonosufficienti campioni di ampiezza compresa fra 2 e 10. Shift diminor dimensione, ossia 1≤ δ ≤2, producono campioni nel rangefra 10 e 20, mentre shift molto piccoli, cioè δ ≤1.5, possonorichiedere campioni di dimensione superiore a 40 unità.

G la differenza V0- V1 influisce principalmente sull'intervallo dicampionamento h. Differenze consistenti portano a valori di h piùridotti.

Page 72: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

63

G i costi associati alla ricerca della causa assegnabile a’3 e alripristino a3 hanno impatto principalmente sull'ampiezza deilimiti di controllo, nel senso che loro grandi valori portano alimiti di controllo più ampi.

G variazioni dei costi d'estrazione dei campioni influiscono sui treparametri di progetto: ad un aumento del costo dicampionamento fisso a1 corrisponde un aumento dell'intervallodi tempo h fra due campioni successivi e del numero di unitàprelevate n; maggiori valori di a2 portano a campioni didimensione minore presi meno frequentemente e a più strettilimiti di controllo.

G tassi di transizione minori conducono ad una minorefrequenza di campionamento h.

G l'ottimo di progetto è relavamente poco sensibile ad errori distima dei coefficienti di costo, ossia la superficie di costo èrelativamente piatta nell'intorno dell'ottimo. L'ottimo economico èinvece molto sensibile ad errori di stima dei parametri δ, µ0 e σ.

3.2.2. La progettazione economica dellecarte di controllo: la ricerca dopo Duncan

3.2.2.1. Generalizzazione del modelloI contributi più importanti in quest'area sono stati quelli di Lorenzen eVance [Lor86] e di Von Collani [Col88].I primi propongono un modello diprogetto più generale di quello di Duncan che possa essere utilizzatoper tutti i tipi di carte e per i più diversi sistemi produttivi,indipendentemente dalla statistica utilizzata. Il loro lavoro discuteanche le ipotesi di assenza di memoria per la distribuzione esponenzialedel tempo in controllo e di causa assegnabile singola di shift digrandezza data. Basandosi su un esempio di progetto e sulla relativaanalisi di sensitività, gli autori concludono che l'ampiezza dello shift δche ci si propone di rilevare influenza la perdita minima oraria diprogetto ma non i parametri di progetto della carta.Von Collani propone una diversa formulazione del problema e riponemaggior enfasi sulla semplicità del modello non rinunciando allo stessotempo alla sua generalità. Il modello permette di incorporare diversepolitiche d'azione come il controllo, l'ispezione, e la sostituzione delleparti. Pregi di questo lavoro sono l'unificazione delle diverse teoriesinora utilizzate, la riduzione del numero delle variabili in gioco e

Page 73: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

64

funzioni obiettivo più semplici che rendono più agevole l'utilizzo dialgoritmi d'approssimazione.

3.2.2.2. Semplificazione del modelloQuesto filone della ricerca è motivato che dal fatto che generalmente letecniche di progetto economico delle carte portano a considerareparametri di costo difficili da stimare nei diversi contesti produttivi ed amodelli molto complessi da risolvere. Sebbene siano stati propostidiversi algoritmi per risolvere gli specifici problemi, essi molto spessorichiedono hardware e software specifici che non sono in generaledisponibili in ogni azienda. Inoltre molti autori hanno messo in rilievocome la complessità inerente di questi modelli si sia rivelata essere unodei principali deterrenti per l'implementazione di queste tecniche.Dei molti lavori che hanno contributo in quest'area, quelli che hannoindicato la strada da percorrere sono stati quelli proposti da von Collani[Col86] [Col88] [Col89]. Egli propone un modello che può essere risoltosenza l'ausilio di un computer e che prevede la stima di soli treparametri di costo. Il valore dei lavori che propone risiede nellariduzione dello sforzo sia computazionale per la risoluzione del modelloche di stima dei parametri necessari per il progetto.

3.2.2.3. Progettazione statistico-economicaQuest'area della ricerca è stata motivata dalle critiche di Woodall neiconfronti della progettazione economica delle carte di controllo chepossono essere così riassunte (si veda a questo proposito [Woo86]):

⇒progetti economicamente ottimali tendono a produrre carte dicontrollo che hanno un numero eccessivo di falsi allarmi;

⇒carte di controllo progettate secondo criteri economici hanno ingenerale scarse prestazioni dal punto di vista statistico;

⇒i modelli proposti considerano generalmente un solo shift nellacaratteristica di qualità di grandezza fissata. Se invece fossepossibile rilevare shift di grandezza anche minore rapidamente,si eviterebbero ulteriori perdite di ricavi;

⇒i modelli economici sono in contraddizione con la filosofia diDeming, secondo la quale è necessario avere uno stretto controllodel processo e la produzione di esemplari non conformi non deveessere permessa.

Saniga [San89], a questo proposito, propone un modello che permette laprogettazione economica congiunta delle carte X e R imponendo vincolisugli errori di primo e secondo tipo delle carte. Un modello simile per lecarte EWMA è successivamente proposto da Montgomery, Torng,

Page 74: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

65

Cochran e Lawrence [Mon95]. Altri lavori in quest'area sono quelliproposti da McWilliams [McW94] e da Saniga, Davis e McWilliams[San95].

3.2.2.4. Produzioni di durata limitataTutti i modelli di progettazione economica che hanno seguito il lavoro diDuncan assumono una descrizione del sistema basata sui processistocastici renewal reward Questi processi stocastici considerano unasuccessione infinita di cicli di rinnovamento ed i modelli di progettoeconomico che su essi si basano fanno riferimento all'evolverestazionario del processo produttivo. Qualora invece la produzione abbialuogo su intervalli di tempo limitati, il comportamento del sistemaproduttivo dipende fondamentalmente dalle condizioni iniziali e quindi imodelli basati su questi processi stocastici risultano non applicabili. Ilavori di maggior interesse in quest'area sono quelli di Weigand [Wei92],[Wei93], e di del Castillo e Montgomery [Del93] [Del96a]

3.2.2.5. Carte di Controllo a Statistiche Dipendenti

Un'altra area di recente interesse è quella della progettazione di carte astatistiche dipendenti, per le quali i punti riportati sulle carte sono fraloro dipendenti. Questo è il caso delle carte EWMA cui si sonointeressati Montgomery, Torng, Cochran e Lawrence [Mon95] e CUSUMper le quali si può vedere [Kea94]. A questo filone di ricercaappartengono anche gli studi sulle carte per la media a varianzaincognita, per le quali uno studio interessante è quello di del Castillo[Del96b], perchè il fatto che la varianza non sia nota rende i puntiriportati sulle carte dipendenti.

3.2.2.6. La progettazione integrata del controllo diqualità

Il campo della progettazione integrata delle carte di controllo ha sinoraprodutto un numero di lavori modesto rispetto a quelli relativi alsemplice progetto economico.L'attenzione è qui rivolta all'integrazione delle politiche di controllo dellaqualità con quelle di gestione della produzione. Raggrupperemo i lavoripresenti in letteratura in quattro gruppi.

Page 75: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

66

3.2.2.6.1. Modelli basati sulle rilavorazioni e sulladimensione del lotto

Tradizionalmente i modelli di gestione della produzione assumevanoche il controllo del processo fosse perfetto e che non avessero mai luogorilavorazioni di pezzi non confromi. In realtà ciò è ben lontanodall'essere vero nella maggior parte dei casi, e il problema che ci sipropone di risolvere è di determinare la dimensione del lotto per larilavorazione se si considerano i costi di set-up e di mantenimento ascorta. Questo problema è di grande interesse perché esso ha nellarealtà un'influenza non trascurabile sul sequenziamento delle parti.Lavori in quest'area sono quelli di Gupta e Chakraborty [Gup84] e diTayi e Ballou [Tay88]. Gupta e Chakraborty hanno proposto un modelloper determinare la dimensione ottimale del lotto di produzione e diquello di rilavorazione applicabile nel caso dell'industria alimentare edel vetro dove la rilavorazione avviene solo dall'inizio alla fine delprocesso produttivo. Nel caso più generale, la rilavorazione può averluogo in una qualsiasi fase del sistema produttivo e questo influenzafortemente il sequenziamento dei prodotti sulla singola macchina,aspetto che gli autori non considerano. Tayi e Ballou estendono ilmodello di Gupta e Chakraborty modellando anche il fatto che ci possaessere controllo della qualità degli esemplari realizzati ad ogni stadiodella processo produttivo. Entrambi questi modelli suppongono che leprocedure di controllo siano perfette e che tutte le unità scartate dalsistema di controllo, a qualsiasi stadio esse lo siano, siano riprocessatea partire dal primo stadio del processo produttivo. Quest'ipotesi è stataoggetto di diverse critiche da parte di più autori.

3.2.2.6.2. Modelli basati sulla dimensione del lottodi produzione e di ispezione

In questo ambito due sono i problemi connessi al progetto del sistemadi ispezione del processo. Il primo è relativo al determinare dove porre lestazioni di ispezione in un processo produttivo multistadio, mentre ilsecondo fa riferimento all'attribuzione degli operatori alle stazionid'ispezione.Il primo dei due problemi presenta il trade-off fra due tipologie di costi:aumentando le stazioni preposte all'ispezione aumentano i costi diispezione e quelli legati alla gestione delle parti riconosciute comedifettose (i.e. scartarle, ripararle, rilavorarle), mentre sono menorilevanti i costi associati alla lavorazione di parti difettose che sonostate individuate e le penalità relative al consegnare parti non conformial cliente.Un risultato fondamentale per il problema della location è stato fornitoda Lindsay e Bishop [Lin64] che hanno stabilito che per sistemi in cui

Page 76: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

67

l'ispezione è perfetta e la struttura dei costi lineare, la politica ottimaled'ispezione è non ispezionare oppure ispezionare tutto il lotto. Questorisultato ha portato allo sviluppo di diversi modelli di localizzazionedelle stazioni d'ispezione basati sulla programmazione dinamicaTrippi [Tri66] ha invece fornito una soluzione al problemadell'allocazione degli operatori alle stazioni d'ispezione in un sistemaproduttivo seriale multi stadio. Il suo modello tuttavia suppone che lagenerazione dei difetti sia regolata da una distribuzione stazionaria diBernoulli e che gli ispettori non commettano errori, il che limital'ambito d'applicazione del modello.

Il problema dell'imperfetta ispezione è stato affrontato per la prima voltada Eppen e Hurst [Epp74] che hanno considerato l'errato rifiuto diunità effettivamente conformi e l'errata accettazione di unità nonconformi. Il modello, basato sulla programmazione dinamica, consideraperò che l'individuare un pezzo difettoso sia indipendente dal tipo didifetto in questione e dallo stadio nel quale esso deve essere rilevato.Questa formulazione è stata poi estesa da Yum e McDowell [Yum87] iquali hanno considerato diverse politiche di gestione per le unità chesono state scoperte essere difettose: riparazione, rilavorazione e scarto.Raz e Bricker [Raz87] hanno presentato un modello basato sulleispezioni ripetute. L'idea che propongono è di eseguire l'ispezione delleparti più volte in modo da ridurre l'impatto degli errori d'ispezione.Un lavoro completo è quello di Barad [Bar90]. Applicando il concetto dipunto di pareggio all'ispezione dei lotti, il lavoro dimostra che, dati unastruttura di costo, gli errori d'ispezione e la percentuale di difettosi inun dato lotto, la politica ottimale è non ispezionare il lotto se lapercentuale di difettosi è inferiore ad un certo valore critico oppureispezionare tutto il lotto se questo valore è superato.

3.2.2.6.3. Modelli basati sulle politiche di controllodel processo e di gestione della produzione

A quest'area di ricerca non è stata dedicata l'attenzione che merita. Ilprimo lavoro che ha messo in rilievo la grande importanza del legamefra politiche di controllo del processo e quelle di dimensionamento dellotto è stato quello di Porteus [Por86], il quale ha mostratoanaliticamente come costi di set-up più bassi possono giovare alsistema produttivo determinando migliori performance in termini diconformità. Nonostante alcune ipotesi stringenti, il modello di Porteusha permesso di dare una giustificazione analitica ai nuovi concetti dimatrice giapponese quali quello di qualità alla sorgente e di necessità diriduzione dei tempi di set-up.Altri lavori hanno concentrato l'attenzione sui legami fra controllo diprocesso e politiche di manutenzione. In particolare Posner e Tapiero

Page 77: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

68

[Pos87] hanno affrontato in maniera congiunta i problemi relativi aiprogrammi di manutenzione, di controllo di qualità e di produttività,sviluppando un modello che esprime la distribuzione di probabilità dellivello di qualità in funzione della politica di manutenzione scelta. Altrilavori in quest'area sono quelli proposti da Hsu e Tapiero [Hsu88],[Hsu89], [Hsu90], [Hsu92].Rosenblat e Lee [Ros86] si soffermano invece sulle relazioni cheintercorrono fra dimensione del lotto, costi della qualità, costi e tempi diset-up, costi di mantenimento a scorta e aspetti legati al deterioramentodei processo produttivo. Il modello proposto consente di determinare ladimensione del lotto ottimale considerando il fatto che il processoproduce parti sia conformi che non conformi. Il lavoro però ha il neo diconsiderare queste relazioni a livello di singola macchina e non a livellodi sistema. In questa stessa area si colloca anche il lavoro di del Castillo[Del95] che però si focalizza su una carta di controllo per la media edun processo di produzione monostadio e monoprodotto in cui ladomanda è descritta da un processo stocastico stazionario. Il modello,nel suo ambito di utilizzo, permette di progettare il sistema di controlloper raggiungere un certo livello di servizio oppure di trovare la politicadi produzione migliore che permetta di massimizzare il livello di serviziodati certi parametri di controllo della carta. Uno dei lavori più recenti inquest'area è quello di Rahim e Ben-Daya [Rah98]. Il modello propostopermette la determinazione simultanea del lotto di produzione, delpiano d'ispezione e del progetto della carta di controllo per un processodi produzione continuo. L'ottimizzazione economica che è alla base delcalcolo di questi parametri di funzionamento del sistema, considera trefondamentali voci di costo: costi di set-up, costi di mantenimento ascorta; costi del controllo della qualità attraverso una carta X .

3.2.2.6.4. Modelli per il progetto congiunto dellecarte

Quest'area di ricerca è forse la più povera di lavori fra tutte quellesinora discusse, ma non per questo meno interessante. Gli unici lavoriin quest'ambito sono quelli di Peters e Williams [Pet87], [Pet89] e diColosimo e al. [Col00]. I primi lavori di Peters e Williams consideranocongiuntamente il problema del progetto delle carte e del loroposizionamento, tuttavia la formulazione proposta tende a valutare ilprogetto solo in termini di costo ed a non riporre la necessariaattenzione sugli aspetti legati all'effettiva produttività di parti conformidel sistema. Nell’approccio di Colosimo e al. invece si considera lapossibilità che la correlazione tra caratteristiche di qualità influenzicomplessivamente le prestazioni del sistema, modificando laproduttività complessiva dello stesso. L’approccio è tuttavia ancoralimitato a due fasi in sequenza e ulteriori estensioni sono, allo statoattuale, in fase di studio.

Page 78: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

69

3.3. Le carte di controllo a parametrivariabili

L’opportunità di aumentare l’efficacia della politica di controllorilassando il vincolo di parametri di controllo costanti, è stata esplorataper la prima volta negli anni ’60. Nel primo modello di Bather [Bat63] lapoltica di controllo ottima per un processo è infatti risolta adottandovalori fissi per n (dimensione del campione) e h (frequenza dicampionamento), ma consentendo al parametro k (ampiezza dei limiti dicontrollo) di variare nel tempo.

Nel modello di Carter [Car72] solo il parametro h è invece assuntocostante, mentre i parametri n e k sono determinati consentendo loro divariare nel tempo. Tuttavia la diffusione di questi primi approcci èrisultata molto limitata essenzialmente per la complessità dellatrattazione matematica che determina la politica di controllo ottima.Infatti da questi primi modelli occorre aspettarre circa 20 anni perritrovare in letteratura un rinnovato e diffuso interesse per le carte dicontrollo dinamiche o a parametri variabili. I modelli proposti inletteratura nell’ultimo decennio sono, al contrario dei primi,caratterizzati da una grande attenzione alla semplicità della trattazionee ad un continuo confronto con approcci equivalenti ma statici, perdimostrare i vantaggi derivanti dall’adozione di politiche di controllo aparametri variabili.

Tra gli approcci proposti in quest’ambito, occorre distinguere tracarte di controllo a parametri variabili e carte di controllo adattative odinamiche. Nel primo caso la metodologia di controllo proposto prevedeche i parametri varino nel tempo, ma con una dinamica di variazionegià nota a priori. Ciò significa che in fase di progettazione, prima diutilizzare la carta di controllo, vengono determinati tutti i valori che itre parametri di progetto andranno ad assumere nell’orizzontetemporale di riferimento. Una volta fissati questi valori di hi, ni, ki, peri=1,2,…, essi non sono più aggiornati, durante il monitoraggio delprocesso. In definitiva lo schema di controllo è a parametri variabili mastatico.

Il secondo tipo di approccio, che dà luogo a carte di controlloadattative o dinamiche, prevede che uno, due o tutti e tre i parametridella carta possano variare nel tempo in real time, in funzionedell’informazione fornita dall’ultimo (o dagli ultimi) campioni misurati.All’interno di questa tipologia di approccio, se nella scelta dei parametriil meccanismo di aggiornamento della conoscenza si basa sullastatistica bayesiana, la carta di controllo è detta adattativa bayesiana.

Page 79: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

70

CARTE DI CONTROLLO A PARAMETRIVARIABILI

CARTE DI CONTROLLO ADATTATIVE

(O DINAMICHE)

CARTE DI CONTROLLOADATTATIVE BAYESIANE

h, n, k variano nel tempo

h, n, k variano nel tempo in funzionedell’informazione proveniente dal sistemain real time

h, n, k variano nel tempo in funzionedell’informazione proveniente dal sistema inreal time secondo un meccanismo diaggiornamento della conoscenza bayesiano

Figura 3.4: Classificazione delle carte di controllo a parametri variabili.

La principale differenza tra approccio adattativo e adattativo-bayesiano consiste nel fatto che nel primo la decisione riguardo aiparametri di controllo da adottare nel futuro, è eseguita considerandosolo il valore dell’ultima statistica collezionata dal processo.Nell’approccio bayesiano invece, il meccanismo di aggiornamento dellaconoscenza prevede che la decisione riguardo ai parametri di controlloda adottare nel futuro sia presa considerando, in modo opportuno, tuttii valori della statistica campionaria collezionati a partire dall’ultimoripristino (azione correttiva) sul processo.

Per comprendere meglio quest’affermazione, si ipotizzi di essereall’inizio del periodo di produzione. All’istante 0 la probabilità che ilprocesso sia fuori controllo è nota e pari a 0 (in ipotesi di assenza dierrori nel ripristino). Con questa sicurezza si scelgono i parametrirelativi al prossimo campionamento. Secondo questo schema, dopo uncerto intervallo temporale, verrà misurato un campione di parti e lastatistica di riferimento verrà memorizzata. Considerando questastatistica, la probabilità che il processo sia fuori controllo verràaggiornata come media pesata dell’informazione a priori (probabilità cheil processo sia fuori controllo, prima dell’ultima osservazione) e delvalore della statistica osservato. Se questa probabilità a posteriori diessere fuori controllo non è troppo “elevata”3, la carta non segnala unfuori controllo e, sono scelti conseguentemente i parametri di controlloper il futuro. Se si reitera il ragionamento, è chiaro che dopo il secondocampionamento la probabilità a posteriori sarà composta da una mediapesata dell’informazione collezionata sul processo dall’iniziodell’orizzonte temporale e dell’informazione disponibile prima che la

3 Ulteriori dettagli su quest’affermazione saranno definiti quando si entrerà nel merito dellaprogettazione economica di una carta di controllo adattativa bayesiana

Page 80: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

71

produzione iniziasse. In definitiva, finchè la storia del processo non è“cancellata” da un intervento di ripristino, la carta adattativa bayesianacontinua a collezionare in modo opportuno tutta l’informazioneproveniente dai campionamenti e sceglie di conseguenza i parametri dicontrollo da adottare.

3.3.1. Modelli per carte a parametrivariabili

Lo studio di carte a parametri variabili è stato essenzialmente motivatodalla necesità di trattare meccanismi di failure diversi da quellopoissoniano. Infatti, sebbene la distribuzione esponenziale del tempo diinterarrivo tra guasti4 sia realistica in molti casi di componenticaratterizzati da tasso di failure costante (TFC), come ad esempio icomponenti elettronici o i sistemi composti da un gran numero dicomponenti; in molti processi è plausibile ipotizzare un meccanismo diinvecchiamento, per la presenza di fenomeni come la fatica e l'usura,che determina un tasso di guasto crescente (TGC), spesso modellatoattraverso la densità di Weibull.

Per questi processi, la probabilità di uno shift è crescente con iltempo di produzione. E' perciò ragionevole aspettarsi che uncampionamento progressivamente più frequente, o limiti di controllopiù severi, per esempio, possano condurre ad uno schema di controllodi processo più economico.

Modelli per la progettazione economica di carte con limiti di controllotime varying sono stati proposti da Banerjee e Rahim [Ban88],Parkhideh e Case [Par89], Rahim e Banerjee [Rah93] e Rahim [Rah94].

Tutti riguardano la progettazione di carte. I modelli di Banerjee eRahim trattano come parametro time varying unicamente l'intervallo dicampionamento, assumendo che durante il processo la dimensione ndei campioni e il limite di controllo individuato da k, restino costanti.

Invece Parkhideh e Case consentono a tutti e 3 i parametri diassumere valori indipendenti dagli esiti campionari, ma variabili neltempo. Tutti modelli citati prendono in esame almeno cause che sipresentano in accordo con la funzione di densità di Weibull.

Rahim in [Rah94] integra il modello di controllo statistico di processocon quello per la determinazione del lotto di produzioneeconomicamente ottimo (EPQ, economic production quantity),considerando i costi di setup e di mantenimento a scorta, in aggiunta aquelli più tipici del controllo di processo.

L'ottimizzazione dei rispettivi modelli, limitatamente ad un modelloprobabilistico di guasto Weibull, si traduce in politiche sostanzialmente 4 Con guasti si intende qualunque modifica nel modo di variare “naturale” del processo.

Page 81: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

72

differenti. In [Ban88] [Rah93] e [Rah94], se da un lato n e k sonocostanti, dall'altro gli intervalli di campionamento decresconorapidamente. In [Par89] invece h, k, n decrescono tutti ma lentamente.

Nonostante questa differenza entrambi le impostazioni consentono direalizzare vantaggi di costo, nei casi numerici presentati, dell'ordine del5% - 10%, arrivando fino al 16%, rispetto ad una carta altrettantostatica, ma con parametri costanti.

Banerjeee Rahim[Ban88]

Parrkhidehe Case[Par89]

Rahim eBanerjee[Rah93]

Rahim

[Rah94]Tipo di carta X X X XTempo di guasto Weibull Weibull IFR,

genericaIFR,

genericaNumero di causeassegnabili

1 1 1 1

Intervallo produttivo Infinito Infinito finito finitoParametri variabili h h, n, k h hParametri fissi n, k --- n, k n, kDeterminazione dellotto produttivo

no no Sì sì

Riduzione dei costi 5%-17% 1%-15% 1,5%-7,5% 3%-6%

Tabella 3.1: Alcune delle caratteristiche distintive dei modelli esaminatiper la progettazione economica di carte statiche time varying

3.3.2. Carte di controllo dinamiche nonbayesiane

A giudicare dalla produzione di articoli nella letteratura scientifica,l'interesse manifestato in quest'ambito appare essere tutt'altro chetrascurabile [Tag94].

Si osservi però che per la maggior parte delle carte di controllodinamiche non bayesiane presentate in letteratura, non vengonoformulati modelli per una progettazione economica, ma statistica,contrariamente a quanto accade per quelle bayesiane. Le loroprestazioni non sono valutate in relazione ai costi coinvolti, bensì sullabase di parametri statistici appositamente introdotti. Infatti l'efficienzastatistica di uno schema di controllo è determinato dalla "rapidità" concui esso evidenzia l'occorrenza di cause assegnabili e dalla frequenzadei falsi allarmi.

Page 82: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

73

l'ARL (average run length)5, parametro di prestazione statistica piùdiffusamente utilizzato, è una misura valida per confrontare l'efficienzadi diversi schemi di controllo, solo se l'intervallo di campionamento h ècostante e uguale per i due schemi che si stanno confrontando. Nellecarte VSI (variable sampling interval), che sono le più diffuse fra quelleadattative, questa condizione non sussiste. Perciò si introducono, fra glialtri:

ATS (average time to signal) = valore atteso del tempo dall'inizio delprocesso fino all'istante in cui un allarme viene generato.

ATTS (adjusted average time to signal)= valore atteso dell'intervallo ditempo dall'occorrenza della causa assegnabile all'istante in cui la cartagenera un allarme.

La scelta dei valori per le variabili di progetto avviene ottimizzandoparametri di prestazione statistica come quelli indicati e confrontandorispetto a questi parametri di prestazione gli approcci statici con quellidinamici. Occorre comunque precisare che l’assenza di unavalorizzazione economica della prestazione degli schemi di controllo,può condurre a situazioni in cui vantaggi statistici dell’approcciodinamico, come la rapidità attesa nell'evidenziare l'accadimento di unacausa assegnabile e la ridotta frequenza di falsi allarmi, ottenibili dauno schema di controllo dinamico rispetto ad uno statico, possonoessere accompagnati da una accresciuta frequenza di campionamento oda un incremento della dimensione del campione. Una progettazioneeconomica garantisce invece di non incorrere in simili situazioni.

Tuttavia molto meno numerosi sono i modelli proposti per laprogettazione economica di carte dinamiche non bayesiane. Comeriportato in [AlS97] gli approcci in quest’area sono proposti da Park eReynolds [Par94], Prabhu,Montgomery e Runger [Pra97], Das e Jain[Das97a], Das, Jain e Gosavi [Das97b].

Park e Reynolds in [Par94], propongono un modello per una cartaX con dimensione del campione adattativa (VSS, variable sample size),in cui n può assumere due soli valori, piccolo, ns, e grande, nl,costituenti la dimensione del prossimo campione da prelevare aseconda che il valore attuale di X rispettivamente superi o no in valoreassoluto, un valore soglia di attenzione w , inferiore al limite dicontrollo k . L'intervallo di campionamento h è costante, al pari di k. Ilprocesso, evolve indefinitamente ed è soggetto a molteplici causeassegnabili che si manifestano indipendentemente e con tempi diinterarrivo esponenziale: ciascuna causa origina shft di diversa entità. Iparametri di progetto h, w, k, ns ,nl vengono determinati minimizzandouna funzione di costo atteso per unità di tempo. Dai casi numerici

5 L'ARL è definito come una funzione del reale stato del processo e fornisce ilnumero medio di campioni da prelevare prima che la carta generi un allarme,falso o giustificato, appunto a seconda della condizione del processo.

Page 83: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

74

proposti essi evincono che il loro modello consente risparmi fino al 25%rispetto ad una carta statica (con n costante), anch'essa progettataminimizzando la setssa funzione obiettivo. Inoltre l’approccio consentedi ottenere migliori prestazioni statistiche rispetto alla stessa carta FSS,poiché sia AATS sia la frequenza dei falsi allarmi sono inferiori .

Prabhu,Montgomery e Runger in [Pra97] presentano un modello perla carta X con 2 variabili di progetto adattative: n, dimensione delcampione che può assumere 2 soli valori ns (short) e nl (long), ed h,intervallo di campionamento, anch'esso a 2 soli valori hs (short) e hl

(long): la carta viene perciò spesso definita VSS ed anche VSI, variablesampling interval.

Una sola causa assegnabile esponenzialmente distribuita puòoccorrere nel processo che evolve all'infinito; essa determina unospostamento della media a µ1= µ0±d·s. In funzione delle variabili diprogetto della carta, con i simboli già introdotti per [Par94], hs , hl , ns ,nl , w, k, viene determinata una funzione obiettivo costo atteso per unitàdi tempo. Gli autori anziché determinare le variabili di progettoottimizzando la funzione obiettivo, focalizzano l'attenzione su unaminimizzazione vincolata al soddisfacimento di prefissati vincoli diprestazione statistica, ATS(µ0)> soglia1 e ATS(µ1)< soglia2.

Dall'analisi di 16 casi numerici si evince che la carta dinamicaconsente valori attesi del costo per unità di tempo minori rispetto allacorrispondente carta statica; ha inoltre ATS(µ0) migliori, cioè più lunghi,ma anche ATS(µ1) più lunghi.

Das e Jain in [Das97a] presentano un modello per carta X con VSI eVSS come Prabhu,Montgomery e Runger in [Pra97]. Da questi ultimi sidifferenziano però perché:1. considerano hi ed ni variabili aleatorie, a causa della aleatorietà delprocesso;2. utilizzano regole empiriche o "run rules" 6 per la selezione delprossimo intervallo di campionamento.

Gli autori esaminano una carta con due differenti modelliprobabilistici per descrivere la v.a. hi : i parametri delle funzioni didensità utilizzate devono essere noti o stimati dal progettista dellacarta: sono parametri in input al modello; a ciascun modello è poiassociato un intervallo di possibili dimensioni dei campioni.

La funzione obiettivo è ancora il costo atteso per unità di tempo, e gliautori riportano i risultati ottenuti in riferimento ad un esempionumerico. La procedura di ottimizzazione si dimostra condurre solo inun minimo locale.

Das, Jain e Gosavi in [Das97b], viene proposto un modello per unacarta X VSI, con h che assume solo i valori hs (breve) e hl (lungo). 6 Regole empiriche che consistono nell’osservare l’andamento di un certo numero direalizzazioni passate della statistica.

Page 84: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

75

L'unica causa assegnabile considerata, che si presenta con tempi diinterarrivo esponenzialmente distribuiti, determina uno shift dellamedia da µ0 a µ1= µ0 + d·s , con d>0 .

Gli autori derivano l'espressione per il valore atteso del costo perunità di tempo che viene minimizzato rispetto alle variabili di progettohs, hl, n, w e k .

Il confronto della carta proposta con una statica di riferimento, neicasi numerici indagati, evidenzia vantaggi di costo per la carta dinamicadell'ordine del 5%, quando lo shift è contenuto, cioè per un parametro din input al modello inferiore a 1,5; invece per valori di d superiori, ilvantaggio rapidamente diminuisce fino a scomparire per d =2,5 , dove w= k e le due carte divengono identiche.

Park eReynolds[Par94]

Prabhu,Montgomery

e Runger[Pra97]

Das eJain

[Das97a]

Das, Jain eGosavi

[Da97b]Tipo di carta X X X XTempo di guasto Esponenzial

eesponenziale esponenzi

aleEsponenzial

eNumero di causeassegnabili

m > 1 1 1 1

Intervalloproduttivo

Infinito Infinito Infinito finito

Parametriadattativi

n h, n h, n h

Parametri fissi h, k k k n, kFunzioneobiettivo

Valoreatteso delcosto perunità ditempo

Valore attesodel costo per

unità ditempo

Valoreatteso delcosto perunità ditempo

Valoreatteso delcosto perunità ditempo

Tabella 3.2: Modelli proposti per la progettazione economica di cartedinamiche non bayesiane

3.3.3. Carte di controllo dinamichebayesiane

Tra i modelli proposti sulle carte di controlo adattative bayesianeoccorre distinguere un primo set di lavori in cui l’attenzione è

Page 85: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

76

principalmente rivolta agli aspetti teorici dell’approccio, più che a quelliapplicativi. A questo insieme di lavori appartengono quelli proposti daBather [Bat63], Taylor [Tay65] [Tay67], Carter [Car72] e Crowder in[Cro92]. Come è possibile osservare tutti gli approcci sono stati propostinegli anni ‘60-’70, ad esclusione di [Cro92] che, a partire da [Bat63],enfatizza l'interesse verso i piccoli lotti di produzione.

Questi primi lavori sono ad ampio spettro e non si rivolgonodirettamente alla progettazione di carte di controllo. Tuttavia, i modelliin [Bat63], [Tay65] , [Tay67] e [Cro92], possono essere messi incorrispondenza con carte di controllo ad intervallo di campionamento he dimensione del campione n costanti, ma limite di controllo kadattativo . Invece il modello in [Car72] presenta sia n che k adattativi,ma h costante.

Un risultato teorico molto importante di questi primi modelli è cheesiste una politica controllo ottimale se si utilizza un’impostazionebayesiana in cui tutta l’informazione disponibile sullo stato delprocesso, è racchiusa nella probabilità che il processo sia fuoricontrollo, probabilità che è continuamente aggiornata attraversoteorema di Bayes generalizzato.

Tuttavia le implicazioni operative di questi primi modelli sono statelimitate dalla complessità delle regole di controllo da essi generate.

I modelli più recenti per la progettazione di carte di controllodinamiche bayesiane sono esclusivamente presentati a tale scopo,perciò viene posta particolare attenzione alle loro implicazioni operative,cercando, di contenerne la complessità.

L'unico modello per una progettazione statistica di una cartabayesiana è quello proposto da Vaughan in [Vau93]; i pochi altri inveceriguardano la progettazione economica.

Vaughan in [Vau93] propone una carta per attributi, di tipo n·p(numero di difettosi), con intervallo di campionamento h adattativo, ncostante e coefficiente k individuante la posizione del limite di controllo,pure costante, ma trasformato in un intero, detto numero diaccettazione c = 0 . Sia di il numero di pezzi non conformi nel campionei. L'insorgenza della causa assegnabile determina uno shift delladifettosità da p0 a p1 con p1 > p0 .

Dopo ogni prelievo campionario con il teorema di Bayes, vieneaggiornata la probabilità π che il processo sia fuori controllo, a partireda quella nota prima del prelievo. La lunghezza dell'intervallo dicampionamento hi è determinata dal fatto che ciascun campione èprelevato quando π raggiunge un prespecificato valore πs .

In funzione del numero di accettazione c , funzione di n e di πs , sidetermina il seguente schema di controllo:

⇒se di > c , viene generato un allarme e, dopo la ricerca della causaassegnabile e l'eventuale ripristino, lo schema di controllo riprendecon un assegnato h1;

Page 86: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

77

⇒se di = c , non c'è alcun allarme, e il processo continua con hi+1, chedipende dal numero di di non conformi presenti nel campione.

Questa carta è stata confrontata da Vaughan con la corrispondentecarta np FSI, fixed sampling interval. Dal confronto emerge che la cartabayesiana presenta un valore atteso della frequenza di falsi allarmi piùbasso e una velocità attesa di cogliere shift del processo a p1 piùelevata. Se il reale stato di fuori controllo p differisce da quello per cuila carte è stata progettata (p1) la prestazione statistica della cartabayesiana è ancora preferibile rispetto alla statica se p< p1 o di poco >,mentre per p >> p1 non lo è più.

Modelli per la progettazione economica di carte di controllodinamiche bayesiane sono stati proposti da vari autori: Tagaras [Tag94][Tag96], Calabrese [Cal95], e Porteus e Angelus [Por97].;

Il modello presentato in [Tag94] propone una carte di controllo per lamedia X , adattativa h e k (n=1 costante). La causa assegnabile, che simanifesta con tempo di interarrivo esponenziale, determina uno shift aµ1 = µ0+ d·s . Quando la carta genera un allarme il processo vieneinterrotto e si inizia la ricerca della causa assegnabile. Il problema diottimizzazione viene descritto con una formulazione di programmazionedinamica in cui si definisce il minimo valore atteso del costo in unorizzonte temporale finito di durata H. Vengono inoltre presentati 24casi numerici in cui si dimostra che il vantagio di un approcciobayesiano, rispetto ad un analogo approccio statico, varia da 2,9% a25,8% ed in media risulta pari a 14,5%.

Tagaras in [Tag96], estende il modello del ‘94 [Tag94] per la carta Xrendendolo adattativo non solo in h e k , ma anche in n . Egli presenta28 casi numerici che documentano come la carta bayesiana, rispetto aquella statica di riferimento, consente riduzioni del costo atteso inmedia del 8,95% , e, in alcuni casi, prossimi al 15% .

Il modello proposto da Calabrese [Cal95], presenta una cartaadattativa bayesiana per il controllo statistico della difettosità diprocesso, p. L'intervallo di campionamento h e la dimensione n deicampioni sono costanti, mentre il coefficiente per il limite di controllo,k, è adattativo. Si assume che due soli valori sono possibili per ladifettosità: quello nominale p0 quando il processo è in controllo e p1 > p0

quando il processo è fuori controllo. L'occorrenza della causaassegnabile (che induce lo shift p0 a p1) avviene con tempi di interarrivoesponenzialmente distribuiti. Si ipotizza inoltre che, durante la ricercadella causa assegnabile il processo venga interrotto. Ancora una volta ilcontrollo statistico del processo si attua monitorando la probabilità πche il processo sia fuori controllo, probabilità che è aggiornata, a valledi ogni campionamento, attraverso il teorema di Bayes generalizzato.L’autore prova che la politica di controllo ottimale si realizza quando lacarta genera un allarme se π supera un certo valore critico. Sebbene in

Page 87: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

78

questo schema di controllo i limiti di una carta p tradizionale non sonoconsiderati esplicitamente, è possibile stabilire una equivalenza tra ilvalore critico di π e il limite di controllo di una carta p all’i-mocampione (ki , in breve). In questo senso il meccanismo di controllostatistico bayesiano, può essere visto come adattativo in k. L'orizzontetemporale in cui in processo evolve è finito e costituito da N intervalli dicampionamento di ampiezza h . Anche in questo caso la funzioneobiettivo è data dal valore atteso dei costi legati alla politica di controllo.Calabrese fornisce i risultati in una serie di casi numerici chedocumentano una riduzione dei costi attesi che va dal 10% al 15%,rispetto ad una carta p statica progettata con approccio simile a quellotradizionale di Duncan.

L’ultimo approccio analizzato è proposto nel ’97 da Porteus e Angelus[Por97], i quali sviluppano un modello per controllare la difettosità diun processo. Le ipotesi sono comuni ai modelli descritti: l'occorrenza diuna singola causa assegnabile determina un accrescimento dellafrazione di non conformi rispetto a quella del processo in controllo, lacausa assegnabile si manifesta con un tasso di guasto costante. Unicadifferenza significativa è che in questo approccio la lunghezza delperiodo di produzione dipende dalla dimensione del lotto di produzione,che é una variabile di decisione del modello. In definitiva l’approcciopropone una selezione congiunta della politica di controllo e delladimensione del lotto ottimale. Analogamente a quanto avviene negli altriapprocci bayesiani adattativi, l’informazione disponibile sullo stato delprocesso è rappresentata dalla probabilità π che il processo sia fuoricontrollo, aggiornata usando il teorema di Bayes generalizzato. La cartaproposta è adattativa in h e k, mentre il parametro n risulta fissato epari a 1. In aggiunta ai consueti costi associati al controllo di processo,gli autori considerano i costi di setup e di mantenimento a scorta. Essiutilizzano il valore atteso del costo sostenuto per valutare schemi dicontrollo alternativi e decidere contestualmente la dimensione del lotto.

Sebbene alcuni esempi numerici sono presentati e discussi, Porteused Angelus non fanno un confronto diretto dei costi con una politica dicontrollo statica. Invece esprimono i loro risultati in forma di"opportunità per un miglioramento nel controllo statistico di processo":un insieme di osservazioni sulla validità di un approccio bayesianoadattativo. Alcune di queste sono peculiari del contesto produttivoesaminato, ma la maggior parte sono applicabili in generale e riferitealla scelta degli intervalli di campionamento.

Page 88: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

79

Tagaras[Tag94]

Calabrese[Cal95]

Tagaras[Tag96]

Porteus eAngelus[Por97]

Tipo di carta X p X pTempo di guasto esponenz. esponenz. esponenz. esponenz.Numero di causeassegnabili

1 1 1 e 2 1

Orizzonte temporale Finito Finito Finito FinitoParametri dinamici h, k k h, k, n h,kParametri fissi n=1 h, n --- n=1Determinazione dellotto produttivo

no no no Si

Funzione obiettivo Valoreatteso dei

costi

Valoreatteso dei

costi

Valoreatteso dei

costi

Valoreatteso dei

costiRiduzioni di costo 2,9%-

25,8%10%-15% 1%-15% Non fornito

Tabella 3.3: Modelli proposti in letteratura per la progettazioneeconomica di una carte adattativa bayesiana

Page 89: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

80

3.4. Progettazione economica di una cartedi controllo adattativa bayesiana per ilcontrollo delle non conformità

Tra gli approcci proposti per la progettazione economica di una cartaadattativa bayesiana (Tabella 3.3), nessun modello si è occupato dellaprogettazione di carte per il controllo del numero di nonconformità.Secondariamente tutti gli approcci proposti in letteratura si rivolgonoad una situazione produttiva in cui l’orizzonte temporale di riferimentoè fissato a priori. Quest’ipotesi sottintende una situazione in cui, acausa di un ripristino per manutenzione programmata o per set-up,ogni H unità di tempo, si può ipotizzare che il processo sia riportato aduno stato di funzionamento nominale o in controllo. Seppur plausibilein numerosi contesti produttivi, quest’ipotesi è necessaria nei modelliper ottenere un modello analiticamente trattabile.

L’approccio proposto in questo capitolo rilassa l’ipotesi di orizzontetemporale finito, introducendo però un’approssimazione nella ricercadella soluzione ottima. I risultati della sperimentazione numericaconfermano comunque che i vantaggi della soluzione proposta rispettoall’equivalente soluzione ottenuta con approccio statico sonoparagonabili a quelli che si ottengono con i metodi adattativi bayesiani“esatti” proposti in letteratura (Paragrafo 3.3.3).

3.4.1. Notazione

t Indice temporale i Periodo di produzione tra l’ i-1mo e l’imo campione

ih Intervallo di tempo tra due campionamenti.

{ }10,X i ∈ Stato del sistema alla fine dell’imo periodo diproduzione (0: in-controllo; 1: fuori- controllo)

iY Numero di nonconformità nell’imo campione

iy Numero di nonconformità osservate nell’imo campione

10 , λλ Numero medio di nonconformità quando il processo è,rispettivamente, nello stato 0, 1.

ν/1 Tempo medio per avere un cambiamento di stato

{ }1,0∈ia Decisione all’inizio dell’ imo periodo di produzione (0:

Page 90: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

81

continua a produrre; 1: ferma produzione) { )()( ilji apa =P Matrice delle probabilità di transizione dallo stato Xi-1=l

allo stato Xi=j dopo aver preso l’azione ai

iπ , i'π Probabilità che Xi =1, rispettivamente, prima e dopol’ispezione dell’ imo campione

),( 1 iii aXf − Profitto atteso nell’ imo periodo, dati Xi-1 e ai

,( 1 iiT

i aXf − Profitto atteso nell’unità di tempo nell’imo periodo, datiXi-1 e ai

)( ii aF Profitto atteso nell’unità di tempo nell’ imo periodo, datoai

10 , VV Ricavi netti nell’unità di tempo quando Xi=0 e Xi=1,rispettivamente

A Costo di ricerca di una causa assegnabile (costi difalso allarme)

R Costo di riparazione del sistema

I Costi di ispezione

FAt Tempo di ricerca di una causa assegnabile

Rt Tempo di riparazione del sistema

Tabella 4 Principali simboli nell’approccio proposto

3.4.2. Il modello

3.4.2.1. Ipotesi

Il processo si assume sia caratterizzato da due stati: lo stato difunzionamento in controllo (stato 0) e lo stato di funzionamento fuoricontrollo (stato 1). La transizione dallo stato di funzionamento nominaleallo stato di funzionamento fuori controllo è da imputare all’occorrenzadi una causa assegnabile, evento caratterizzato da un tempo diinterarrivo che è esponenzialmente distribuito con media ν/1 . Siassume che il processo produca unità di ispezione caratterizzate da unnumero di non conformità distribuito secondo una distribuzionepoissoniana con media 0λ qualora il processo sia caratterizzato dallostato 0 e media 1λ qualora il processo si trovi in stato 1 ( 01 λλ > )

Page 91: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

82

Quando la carta segnala un fuori controllo, cioè il numero dinonconformità rilevate eccede il limite di controllo, il processo èmomentaneamente fermato per procedere alla ricerca di una causaassegnabile. Si assume che questo processo di ricerca non siacaratterizzato da errori. Se la causa assegnabile non viene rilevata, ilsegnale di fuori controllo è da imputare ad un falso allarme e diconseguenza si riprende a produrre. Qualora invece la causaassegnabile è identificata, il processo rimane in stato di inattività perconsentire l’azione di ripristino che viene condotta sulla macchina perrimuovere la causa assegnabile. Anche questa azione di ripristino siipotizza sia caratterizzata da assenza di errori.

Senza perdita di generalità, si assume inoltre che l’unità di tempo siauguale al tempo per processare un’unità di ispezione.

3.4.2.2. Lo schema di controllo adattativo

Per controllare il processo produttivo si intende progettare una cartadi controllo c adattativa. Anche se la dimensione del campione èassunta costante, la carte progettata è adattativa dato che l’intervallotra due campionamenti e il limite di controllo (numero di nonconformitàche provoca un segnale di fuori controllo) possono variare nel tempo.Infatti, riferendosi al generico periodo imo, dopo che hi unità sono stateprodotte, l’unità di ispezione è controllata e il numero di nonconformitàyi è osservato.

In funzione di yi la carta segnala eventualmente un fuori controlloattraverso la variabile decisionale ai+1: se ai+1=0 il processo appare incontrollo e quindi di procede con il processamento delle parti; se inveceai+1=1 il processo risulta fuori controllo per cui la produzione vienearrestata e si procede con la ricerca di una causa assegnabile. Siosservi quindi che in questo approccio la variabile decisionale ai+1

sostituisce la variabile k adottata nei tradizionali approcci statici. Infattinel tradizionale approccio statico, la regola di segnalazione del fuoricontrollo è definita come violazione di un limite di controllo,determinato attraverso k (quando cioè il numero di non conformitàosservate supera il limite di controllo). In questo approccio invece, laviolazione del limite di controllo è sintetizzata nella variabile ai+1=1.

Insieme alla selezione del valore di ai+1, la procedura di controlloidentifica la lunghezza dell’intervallo di produzione prima del prossimocampionamento: hi+1.

Le due variabili decisionali che determinano lo schema di controllosono individuate massimizzando il profitto orario relativo al prossimointervallo di produzione.

Page 92: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

83

Il valore di questa funzione obiettivo è influenzato dallo stato attualedel sistema, l’approccio bayesiano è adottato per aggiornarel’informazione relativa allo stato del processo.

Considerando l’ipotesi di occorrenza poissoniana dello shift, se ilprocesso è in controllo all’inizio dell’ imo periodo, la probabilità che unoshift occorra durante il prossimo intervallo di produzione è data da:

ihi e νγ −−= 1 (3.19.)

Indicando con Xi lo stato del sistema alla fine dell’ imo periodo e con)( ilj ap la probabilità che il processo passi dallo stato Xi-1=l allo stato

Xi=j dato che l’azione ai è stata presa, la matrice delle probabilità ditransizione { })()( ilji apa =P può essere ricavata come segue:

11

)1( and 10

1)0(

−−

==

−==

ii

iii

iii aa

γγγγγγ

PP (3.20.)

Si indichi con 1' −iπ la probabilità che il processo sia fuori controllodopo l’i-1mo campionamento, la probabilità che il processo sia nellostesso stato prima di inziare l’ ispezione dell’ imo campione risulta:

)()'1()(' 011111 iiiii apap −− −+= πππ (3.21.)

Visto che l’espressione di iπ è basata sull’informazione disponibileprima di controllare l’imo campione, in ottica bayesiana, iπ rappresentala probabilità a priori (prior).

Indicata con Yi la variabile casuale che rappresenta il numero dinonconformità nell’unità di ispezione, e con yi il valore di questavariabile osservato nell’ imo campione, l’ipotesi di distribuzionepoissoniana può essere formalizzata come segue:

Yi|λ∼Poisson(λ) !y

e|yi

y

iiλ

λλ−

=)Pr( (3.22.)

Dopo che l’ ima unità di ispezione è stata controllata, la probabilitàche il processo sia fuori controllo può essere aggiornata applicando ilteorema di Bayes. Di conseguenza per la probabilità a posteriori(posterior) si ottiene la seguente espressione:

Page 93: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

84

)1(1

1)1)(|Pr()|Pr(

)|Pr()Pr(

)Pr()|Pr()|Pr('

1

001

1

111

01

i

iyiiii

ii

i

iii

i

eyy

yy

yy

ππ

λλπλπλ

πλ

λλλπ

λλ −

+

=−+

=

===

(3.23.)

Una volta nota la posterior, tutte le decisioni per il prossimo periodo(ai+1, hi+1) possono essere prese massimizzando il valore atteso delprofitto per unità di tempo come descritto nel prossimo paragrafo. Loschema finale della procedura di controllo è riportato in Figura 3.5.

i

hih1

1

imo campione: yihi

π’i-1

Probabilità che ilprocesso è fuoricontrollo dopo

l’i-1mo campione

Variabilidecisionali:§ ai+1

§ hi+1

t

π i

Probabilità che ilprocesso è fuoricontrollo prima

dell’imo campione

π’i

Probabilità che ilprocesso è fuoricontrollo dopol’imo campione

Figura 3.5: Lo schema di controllo

3.4.3. La determinazione dei parametri dicontrollo

La determinazione dei parametri di progetto per il prossimo periodo èeseguita massimizzando la funzione obiettivo valore atteso del profittoper unità di tempo. Ad ogni istante vengono infatti selezionati iparametri di controllo valutando il valore atteso del profitto unitarioottenibile nel prossimo periodo al variare della politica di controlloadottata. Siccome l’ottimizzazione è eseguita con un approccio look-

Page 94: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

85

forward ad un solo periodo, la soluzione ottenuta non sarà l’ottimo.Infatti per ottenere l’ottimo occorrerebbe proiettare fino alla finedell’orizzonte temporale di riferimento, l’effetto delle proprie scelte intermini economici. Da questa necessità, nasce l’esigenza, comune atutti gli approcci proposti, di individuare un orizzonte temporale discelta finito, ipotizzando l’esistenza di una politica di manutenzione oset-up che riporta il sistema allo stato iniziale di funzionamento adintervalli prefissati. Qualora questa non risulti un’ipotesi plausibile,occorrerebbe di conseguenza proiettare all’infinito l’effetto economicodelle proprie scelte riguardo alla politica di controllo da adottare.Comunque sia, la ricerca dell’ottimo determina un consistenteincremento della complessità computazionale e del tempo di calcolo. E’infatti necessario utilizzare algoritmi di programmazione dinamica checomportano necessariamente una discretizzazione delle variabili diinteresse. Un ulteriore studio si rende quindi necessario nel definire ilvalore corretto di questi parametri di discretizzazione.

L’approccio alternativo proposto in questo paragrafo invece nascedalla constatazione che, in ipotesi di processo non caratterizzato dausura (come nel caso di ipotesi di guasto poissoniano) l’effetto di unapolitica di controllo sui periodi successivi è comunque limitato. Per cuiin questo paragrafo è proposto un approccio di ottimizzazione chedeterminerà una soluzione sub-ottima, ma con complessitàcomputazionale praticamente trascurabile e che consente di rilassarel’ipotesi di orizzonte temporale di riferimento finito.

Al fine di valutare i vantaggi della soluzione proposta, verrà inseguito proposto un confronto tra approccio statico ed approcciobayesiano approssimato proposto. La tesi è infatti che, qualora anche inpresenza di una soluzione sub-ottima (ricavata con il metodo descritto)l’approccio bayesiano determini profitti mediamente superiori a quelliottenibili con l’equivalente approccio statico, questo sarà ancor più verose nella ricerca dell’ottimo si adotterà un metodo esatto.

3.4.3.1. La funzione obiettivo

Iniziamo con l’indicare con ),( 1 iii aXf − il profitto atteso nell’i-moperiodo di produzione, dato che il processo inizia il periodo in stato Xi-1

e l’ultima azione presa all’inizio dell’intervallo temporale è stata ai.Il profitto atteso per unità di tempo nelle stesse condizioni è indicato

con ),( 1 iiT

i aXf − e può essere ricavato come rapporto tra ),( 1 iii aXf − ela lunghezza dell’i-mo periodo.

Per determinare il valore di ),( 1 iiT

i aXf − al variare delle politiche dicontrollo è necessario introdurre delle grandezze economiche. Il ricavonetto per unità di tempo è V0 qualora il processo sia in controllo, e V1 se

Page 95: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

86

il processo è fuori controllo (V0>V1). Ogni volta che il processo vienefermato a seguito di un segnale di fuori controllo che però risultainfondato, si incorre in un costo di falso allarme A (costo per ricercarela causa assegnabile). Se invece l’allarme è giustificato, il costo dasostenere risulta pari a A+R (dove R rappresenta il costo addizionale diripristino del processo, cioè di rimozione della causa assegnabile). Icosti di ispezione per unità di prodotto sono indicati con I.

Il tempo richiesto per la ricerca della causa assegnabile a seguito diun segnale di fuori controllo è indicato con tFA, mentre tR indica il temporichiesto per ripristinare il processo una volta che la causa assegnabileè stata evidenziata.

Per ogni combinazione di 1−iX e ia occorre valutare il valore delprofitto per unità di tempo. Le quattro possibili espressioni di

),( 1 iiT

i aXf − possono essere ricavate come segue. Si indichi con iτ ilvalore atteso del tempo prima dell’occorrenza di una causa assegnabile,dato che questa occorre nell’i-mo periodo:

)1(

)1(1i

i

hi

h

ie

heν

ν

ν

ντ −

+−= (3.24.)

dt

ν e-νt dtf(t)= νe-νt

a a+hit

Figura 3.6: Calcolo di τi nell’approccio proposto

Se l’azione presa all’inizio del periodo i-mo è continuare a processarele parti e il processo è in controllo, il valore atteso del profitto nelprossimo periodo è pari a Figura 3.7:

Page 96: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

87

hi

a i=0: CONTINUO

Shiftcon prob γi

hi

Figura 3.7: Calcolo di )0,0(Tif

IhV i −0 se nessuno shift occorre nel prossimo periodo, cioè conprobabilità )1( iγ− ;

IhVV iii −−+ )(10 ττ se uno shift occorre nel prossimo periodo, cioècon probabilità iγ .

Quindi l’espressione di )0,0(Tif può essere calcolata come:

i

iii

i

iiiiiii

i

iTi

h

IhVVhV

hIVhVhV

hf

f

−−−−=

=−+−+−

==

))((

)()1()0,0()0,0(

100

010

νγ

τγτγγ

(3.25.)

Se l’azione presa è continuare a processare quando il processo è fuoricontrollo (Figura 3.8), il valore atteso del profitto nel prossimo periodosarà V1hi-I, dal momento che durante tutto il prossimo periodo ilprocesso continuerà a produrre nello stato di fuori controllo.

Page 97: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

88

hi

a i=0: CONTINUO

hi

Figura 3.8: Calcolo di )0,1(Tif

Quindi )0,1(Tif può essere calolato come segue:

ii

i

i

iTi h

IV

hIhV

hf

f −=−

== 11)0,1(

)0,1( (3.26.)

Se l’azione presa è fermare il processo mentre il processo è incontrollo (falso allarme), il profitto atteso per il prossimo periodo èidentico a )0,0(if , eccetto per un costo addizionale dovuto al falsoallarme (A) (Figura 3.9).

a i=1: FERMO

Shiftcon prob γi

hi

tempo ricerca causa (falso allarme)

tFA

Figura 3.9: Calcolo di )1,0(Tif

Di conseguenza si ricava:

Page 98: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

89

FAi

iii

FAi

iTi th

AIhVVhV

thff

+

−−

−−−

=+

= νγ)(

)1,0()1,0(100

(3.27.)

Con simili osservazioni, il valore atteso del profitto per unità di tempoqualora l’azione presa è fermare il processo quando il processo è fuoricontrollo, risulta (Figura 3.10):

tempo ricerca causa

a i=1: FERMO

hi

tempo ripristino

tRtFA

GuastoCon prob γ

Figura 3.10 Calcolo di )1,1(Tif

FARi

iii

FARi

iTi tth

RAIhVVhV

tthf

f++

−−−

−−−

=++

= νγ

)()1,1(

)1,1(100

(3.28.)

Le espressioni di ),( 1 iiT

i aXf − calcolate permettono di determinare ilvalore atteso del profitto per unità di tempo come funzione dell’azione

ia che deve essere presa a inizio periodo Fi (ai). Dal momento chel’azione deve essere selezionata quando l’i-1mo periodo è appena finito eil numero di non conformità nell’i-1 ma unità di ispezione è noto, tuttal’informazione disponibile sullo stato del processo è rappresentata da

1' −iπ , ossia dalla probabilità che il processo sia fuori controllo dopo l’i-1mo campione.

Se l’azione presa è continuare a produrre, il valore atteso del profittoper unità di tempo per il prossimo periodo è F i(0):

Page 99: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

90

ii

i

i

iT

iiT

iiii

hI

h

VVV

ffFaF

−−−

+=

=+−==

−−

)'1()(

)0,1(')0,0()'1()0()(

110

1

11

πνγ

ππ

(3.29.)

Se l’azione presa è fermare la produzione, il valore atteso del profittoper unità di tempo per il prossimo periodo, F i(1), è:

FARi

iii

i

FAi

iii

i

iT

iiT

iiii

tth

RAIhVVhV

th

AIhVVhV

ffFaF

++

−−−

−−−

+

++

−−

−−−

−=

=+−==

−−

νγ

π

νγ

π

ππ

)('

)()'1(

)1,1(')1,0()'1()1()(

100

1

100

1

11

(3.30.)

In entrambe le espressioni (3.29) e (3.30), 1' −iπ e 1−iπ possono essererispettivamente ricavate dalle equazioni (3.21) e (3.23) aggiornandoopportunamente l’indice temporale. Dal momento che le espressioni(3.29) e (3.30) sono funzioni della lunghezza del prossimo intervallo ditempo hi, la procedura di ottimizzazione può essere eseguita in duepassi. Durante la prima fase, il massimo profitto per unità di tempo èindividuato, dato che l’azione da prendere ia è supposta nota. Diconseguenza due valori di hi che massimizzano le espressioni (3.29) e(3.30) sono calcolati. Attraverso il confronto numerico dei due valori delmassimo profitto per unità di tempo ottenuti per ia =0 e ia =1, ilmassimo globale è determinato. Una volta individuato il massimocomplessivo, è di conseguenza definita la coppia di parametri dicontrollo ( ia , ih ) che andrebbero adottati per il prossimo periodo.

Page 100: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

91

0

5

10

15

20

25

30

00,0

40,0

80,1

20,1

6 0,2 0,24

0,28

0,32

0,36 0,4

hi_min

ai

Figura 3.11: Andamento dei parametri al variare della probabilità difuori controllo

In Figura 3.11 è riportato, a titolo d’esempio, l’andamento dei dueparametri hi e ai al variare della probabilità di fuori controllo π.

Come è possibile osservare, il parametro hi varia essenzialmente tradue valori: il primo adottato quando ai =0 e il secondo adottato se ai =1.La scelta di ai=1 equivale ad avere, all’inizio del periodo i-mo, unsegnale di fuori controllo. Visto che un segnale di fuori controllo dàluogo ad una ricerca causa e ad un eventuale ripristino, se ai =1 si ècerti che il processo inizia a produrre nell’i-mo periodo in controllo(avendo ipotizzato assenza di errori nella ricerca causa e ripristino). Inquesto caso la carta adattativa consente che il prossimo campione siaispezionato dopo un periodo di tempo adeguatamente lungo hi alto. Seinvece a inizio periodo ai =0, la carta non ha evidenza per dire che ilprocesso è fuori controllo (infatti questo accade per valori dellaprobabilità di essere fuori controllo π bassi). Di conseguenza, visto che ilprocesso non parte con un ripristino, il prossimo campione saràispezionato dopo un hi non troppo elevato.

π

Page 101: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

92

3.5. Valutazione numerica delleperformance delle carte di controllo.

Per valutare se l’approccio proposto può indurre un miglioramento

delle performance, è stato progettato ed eseguito un confronto numericotra le prestazioni ottenute con l’approccio bayesiano adattativo propostoe con un approccio statico. Dal momento che la variabile di prestazioneconsiderata è il profitto orario, la progettazione economica della carta dicontrollo statica è stata definita riferendosi a questa funzione obiettivo.Il confronto numerico è stato eseguito, procedendo ad unaprogettazione economica dei due tipi di carta e valutando il valoreatteso delle performance (profitto medio orario) sulla base dei parametridi ingresso riportati in Tabella 3.5.

Parametri Caso1Numero medio di non conformità prodotti in stato 0 λ0 20Numero medio di non conformità prodotti in stato 1 λ1 25Tempo medio per avere uno shift 1/ν 50Tempo a seguito di un falso allarme tFA 1Tempo di riparazione tR 1Profitto orario in stato 0 V0 450Profitto orario in stato 1 V1 250Costi a seguito di un falso allarme A 25Costi di ripristino R 25Costi di ispezione I 10

Tabella 3.5: Parametri adottati nella valutazione numerica

Visto che la progettazione della carta economica bayesiana èeffettuata utilizzando i dati provenienti dal processo, è stato necessarioprocedere ad un set di simulazioni. Sono stati quindi simulate 250unità di tempo di produzione di una fase controllata con approcciostatico e con approccio bayesiano. Ogni run di simulazione (250 unitàdi tempo) è stato ripetuto 100 volte, sia per l’approccio statico che perquello bayesiano. Per ogni run di simulazione è stato memorizzato ilprofitto orario registrato. Di conseguenza una popolazione di 100profitti orari è stata ricavata sia per la fase controllata con approcciostatico, sia per quella controllata con approccio dinamico. Su questedue popolazioni è stata verificata l’ipotesi di normalità con un test diAnderson-Darling. Impostando un errore del primo tipo del 5%, non èstato possibile rifiutare l’ipotesi di normalità dei dati, come si puòdedurre dai normal plot e dai p-value riportati in Figura 3.12 e in

Page 102: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

93

Figura 3.13 per la popolazione di profitti orari ottenuti rispettivamentecon l’approccio statico e dinamico.

Avendo verificato la normalità dei dati si è proceduto ad un test t peril confronto tra medie:

as

as

µµ

µµ

=

:H

:H

1

0

dove sµ rappresenta il profitto orario medio ottenuto con approcciostatico e aµ il profitto medio ottenuto con l’approccio adattativo.

Il risultato permette di concludere che c’è evidenza statistica perrifiutare l’ipotesi di uguaglianza fra le medie del profitto orario ottenutocon approccio statico e dinamico. In particolare si osserva chel’approccio bayesiano permette di ottenere un vantaggio del profitto

medio orario 100ˆ

ˆˆ%

s

saµ

µµ −=∆ pari a 7,5%.

Two-Sample T-Test and CI: bayes1; stat1

Two-sample T for bayes1 vs stat1

N Mean StDev SE Meanbayes1 100 382,2 18,9 1,9stat1 100 355,5 28,9 2,9

Difference = mu bayes1 - mu stat1Estimate for difference: 26,7495% CI for difference: (19,92; 33,55)T-Test of difference = 0 (vs not =): T-Value = 7,75 P-Value = 0,000 DF = 170

Page 103: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

94

P-Value: 0,523A-Squared: 0,323

Anderson-Darling Normality Test

N: 100StDev: 28,9026Average: 355,475

400350300

,999

,99

,95

,80

,50

,20

,05

,01

,001

Pro

bab

ility

stat1

Normal Probability Plot

Figura 3.12 Normal plot dei risultati ottenuti con progettazione statica

P-Value: 0,332A-Squared: 0,413

Anderson-Darling Normality Test

N: 100StDev: 18,8780Average: 382,212

440390340

,999

,99

,95

,80

,50

,20

,05

,01

,001

Pro

bab

ility

bayes1

Normal Probability Plot

Figura 3.13 Normal plot dei risultati ottenuti con progettazionedinamica

Page 104: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

95

3.5.1. Analisi di sensitività della soluzione

Per valutare se il vantaggio registrato con l’approccio bayesiano simantiene anche al variare dei parametri di ingresso della carta, si èproceduto ad effettuare un analisi di sensitività (i cui dettagli sonoriportati in Appendice C).

Su tutti i parametri di ingresso sono state introdotte delle variazionidel 100%: ogni parametro rilevante è stato quindi raddoppiato.Un’attenzione particolare è stata tuttavia dedicata a due coppie diparametri che è sembrato opportuno considerare congiuntamente. Laprima coppia si riferisce al numero medio di non conformità generatedal processo in stato 0 ed 1 (λ0 e λ1), e la seconda coppia al profittoorario ottenuto dal processo nei due stati (V0 e V1). Se si raddoppia ilvalore del parametro λ0 si riproduce una situazione irrealistica in cui ilnumero medio di nonconformità prodotte nello stato 0 (in controllo) èsuperiore allo stesso parametro nel caso di processo fuori controllo.Analogamente per il profitto orario nel caso di fiuori controllo: V1:raddoppiando questo parametro si simulerebbe una situazione in cui ilprofitto orario quando il processo è fuori controllo è maggiore rispetto alcaso di processo in controllo. Queste situazioni irrealistiche non sono diconseguenza state simulate.

Considerando che il numero totale di parametri è pari a 10 e dua diquesti parametri (λ0 e V1) non vengono modificati, 8 nuovi casi sonostati simulati. In

Tabella 3.6 sono riportati l’insieme dei casi simulati, indicando nellaprima colonna (caso 1) i parametri nel caso base. Anche in questo casosono state simulate 250 unità di tempo di produzione di un processomonitorato con i due approcci. Per ognuno degli 8 casi sono state poieseguite 100 repliche per l’approccio bayesiano e altre 100 perl’approccio statico. Per le due popolazioni di valori del profitto orarioottenute è stato eseguito un test di Anderson-Darling per verificare lanormalità dei dati. Quando è stato necessario rifiutare l’ipotesi dinormalità per la popolazione di osservazioni, il test t-Student per ilconfronto di medie è stato sostituito con il test non parametrico diMann-Whitney.

In tutti i casi esaminati è stato possibile concludere che c’è evidenzastatistica per affermare che il profitto orario ottenuto adottando unapproccio statico dello schema di controllo è diverso da quello ottenutocon un approccio dinamico.

I risultati in termini di aumento medio percentuale di profitto orarioottenibile passando da un approccio statico ad uno dinamico sonoriportati in

Page 105: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

96

Tabella 3.7. Come è possibile osservare lo schema di controlloadattativo determina un incremento nel profitto orario che varia, neicasi esaminati, dal 7,5% al 13,4%. Inoltre

Parametri Caso1

Caso2

Caso3

Caso4

Caso5

Caso6

Caso7

Caso8

Caso9

Numeromedio di nonconformitàprodotti instato 0

λ0 20 20 20 20 20 20 20 20 20

Numeromedio di nonconformitàprodotti instato 1

λ1 25 30 25 25 25 25 25 25 25

Tempo medioper avere unoshift

1/ν 50 50 100 50 50 50 50 50 50

Tempo aseguito di unfalso allarme

tFA 1 1 1 2 1 1 1 1 1

Tempo diriparazione tR 1 1 1 1 2 1 1 1 1

Profittoorario instato 0

V0 450 450 450 450 450 650 450 450 450

Profittoorario instato 1

V1 250 250 250 250 250 250 250 250 250

Costi aseguito di unfalso allarme

A 25 25 25 25 25 25 50 25 25

Costi diripristino R 25 25 25 25 25 25 25 50 25

Costi diispezione I 10 10 10 10 10 10 10 10 20

Tabella 3.6: Casi simulati nell’analisi di sensitività.

Page 106: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

97

OUTPUTDATA

caso1 caso2 caso3 caso4 caso5 caso6 Caso7 caso8 caso9

cartaadattativabayesiana

382,2 360,6 381,8 381,1 381,4 381,2 382,4 380,5 380,6

carta statica 355,5 318,1 346,7 353,6 352,4 350,6 352,9 347,0 350,7Guadagnomediopercentuale

7,5% 13,4% 10,1% 7,8% 8,2% 8,7% 8,4% 9,7% 8,5%

Tabella 3.7 Risultati dell’analisi di sensitività

Come indicato in

Tabella 3.7, il raddoppio di ogni parametro di ingresso dà luogo adun maggior incremento del profitto orario passando ad un approccioadattativo. In particolare, in Figura 3.14 è riportata la differenza tra il

%∆ ottenuto a seguito del raddoppio del parametro riportato in ascissae il %∆ ottenuto nel caso base. Come è possibile osservare, i parametriche maggiormente influenzano il miglioramento con approccioadattativo sono il numero medio di non conformità generato nel caso difuori controllo λ1 e il tempo medio tra due shift 1/ν.

0,0%

1,0%

2,0%

3,0%

4,0%

5,0%

6,0%

7,0%

tFA tR A I V0 R 1/n l1

Figura 3.14 L’effetto dei diversi parametri nell’analisi di sensitività

Page 107: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

98

3.6. Conclusioni e futuri sviluppi

In questo capitolo è stato presentato un nuovo approccio per laprogettazione economica di carte di controllo per il controllo delle nonconformità generate da un processo. Il principale vantaggiodell’approccio proposto è la semplicità dell’algoritmo di ottimizzazioneche, inoltre, non necessita dell’ipotesi di orizzonti temporali diriferimento finiti. La sperimentazione numerica ha anche permesso didimostrare che l’approccio risulta promettente in confronto allatradizionale progettazione statica, determinando dei vantaggi nelprofitto orario significativi.

Dal momento che le ricerca in quest’ambito ha avuto un nuovoimpulso solo recentemente, una serie di possibili sviluppi futuripossono essere considerati.

In primo luogo, visto che l’approccio si basa su una probabilità diriferimento (la probabilità a posteriori) ottenuta collezionandoinformazioni sul processo sarebbe opportuno estendere il confrontonumerico ai tradizionali approcci che operano non solo sull’ultimastatistica di riferimento, come CUSUM ed EWMA.

A differenza del tradizionale approccio statico, l’approccio adattativopuò inoltre risultare particolarmente vantaggioso in situazioni in cuil’occorrenza dello shift non è caratterizzata dalla proprietà di assenza dimemoria (come nel caso di shift poissoniani). Di conseguenzal’applicazione di carte adattative per processi caratterizzati da diversimeccanismi di guasto (per modellare processi di invecchiamento eusura) può risultare particolarmente interessante.

Page 108: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 3Le carte di controllo adattative bayesiane

99

Page 109: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

100

CAPITOLO 4

MISURARE E MONITORARE LAQUALITÀ DEL SERVIZIO: UNAPPROCCIO BAYESIANO

4.1. Introduzione

La grande attenzione dedicata negli ultimi anni alla qualità del servizioè da ritenersi solo il prodromo di un capitolo ancora da scrivere, su cuiè plausibile convoglieranno grandi energie in ambito accademico eindustriale.Tra le ragioni che hanno portato a spostare l’attenzione dal prodotto alservizio sicuramente vi è l’ambito sempre più globale della competizioneper le aziende che forniscono prodotti. In questi settori è ormai semprepiù necessario competere con fattori tradizionalmente ritenuti secondaricome il servizio offerto all’atto dell’erogazione del bene prodotto el’assistenza post vendita. Se si considera inoltre la crescente attenzioneverso la dismissione e il riciclaggio, l’attenzione al servizio prestato daun azienda andrà sempre più oltre la vita utile del bene prodotto. Aquesti fattori, già evidenziati da chi enfatizza negli ultimi anni lanecessità di controllare la qualità del servizio, vanno aggiunti altrisegnali che ancor di più sottolineano la grande attualità del tema.L’avvento del commercio elettronico, innanzitutto. Questa nuova formadi vendita renderà infatti ancor più difficile il contatto con il cliente eancor più necessaria l’esigenza di un feedback sulla soddisfazione diquest’ultimo rispetto al prodotto e al servizio erogato.Inoltre, l’importanza di monitorare la qualità dei risultati sta prendendosempre più piede in ambiti molto distanti da quelli tradizionali.L’attenzione a questo tema è ormai evidenziata in tutte le aziende diservizi, pubbliche e private: dall’università ai trasporti ferroviari, dalleposte alle aziende di fornitura di energia e gas.La grande sfida in quest’ambito è nella definizione di standardqualitativi che possano essere ritenuti sufficientemente generali e nella

Page 110: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

101

definizione di metodi per misurare e controllare nel tempo lasoddisfazione del cliente rispetto alla qualità del servizio offerto. Dueprincipali aspetti rendono problematica la definizione di metodologie inquest’ambito: il servizio è caratterizzato da una spiccatamultidimensionalità e le varie dimensioni che vanno a influenzare lasoddisfazione del cliente rispetto al servizio percepito sono talvolta nonoggettivamente misurabili. Accanto ad indicatori misurabili, come adesempio il numero di reclami, la soddisfazione dipende infatti da aspettiintangibili, come la disponibilità dell’interlocutore e la rapidità dirisposta, che necessitano di un giudizio fortemente soggettivo da partedel cliente. E’ ormai pratica consolidata quella di sottoporre al clientedei questionari progettati per interrogare direttamente la popolazione diclienti riguardo al loro grado di soddisfazione La definizione deiprincipali aspetti (o indicatori) su cui si intende ottenere informazioni, èspesso compito di un team che coinvolge diverse funzioni aziendali eche dipende esplicitamente dal contesto in cui l’azienda opera. Latraduzione di questi indicatori in un insieme di domande può poi esserefatta utilizzando i metodi proposti in letteratura, di cui si fornisce unadescrizione in seguito. Questi metodi forniscono delle indicazioni sucome sottoporre le domande ai clienti: il numero di possibili risposte tracui il cliente può scegliere e la modalità con cui quest’ultimo deveesporre il proprio giudizio (ad esempio giudizio verbale come ottimo–sufficiente–insoddisfacente, o scala numerica). Dal momento cheognuno degli indicatori rispetto ai quali si interroga il cliente, può poiinfluenzare con diverso peso la qualità percepita, i metodi propostirichiedono spesso al cliente stesso di indicare, nello specifico, un pesod’importanza di ogni indicatore.Il lavoro proposto in questo capitolo, il quale prende spunto da [Boi99],intende approfondire due aspetti legati all’analisi di questionari atti amonitorare la soddisfazione del cliente relativamente al serviziopercepito. L’approccio è orientato a definire una rete di dipendenza trale domande sottoposte alla popolazione dei clienti, a partire dai datiottenuti. Questa rete di dipendenza indica il legame di condizionamentoche esiste tra gli esiti delle varie domande. In pratica viene costruito ungrafo probabilistico in cui un arco orientato indica che l’esito ottenutorelativamente ad una domanda condiziona probabilisticamente l’esitoottenuto su altre domande.Questa rete ottenuta a valle dell’analisi dei dati può essere utilizzata indiversi modi. In primo luogo può servire a definire cluster di domandetra cui esiste un forte legame di dipendenza. La definizione di questicluster facilita l’individuazione di macroindicatori da monitorare neltempo. All’interno di ciascun cluster si può poi procedere alla riduzionedel numero di domande. Questa fase, di taratura del questionario, èindispensabile per aumentare l’efficacia dell’indagine. Infatti è noto chel’attenzione e la disponibilità che un intervistato dedica alle risposte si

Page 111: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

102

riduce notevolmente al crescere del numero di domande. La rete didipendenza facilita infatti nell’individuazione delle domande “superflue”.Se infatti, dall’analisi dei dati si individuano delle domande(condizionate) per le quali la risposta fornita dagli intervistati èfortemente dipendente dalla risposta fornita su qualche altra domanda(ritenuta condizionante), è possibile procedere all’eliminazione di questedomande che non forniscono informazioni aggiuntive. Ultimo ma nonper importanza, l’aspetto relativo ai pesi. In quasi tutti i questionari èinfatti contemplata una domanda che richiede l’espressione di ungiudizio relativamente alla soddisfazione complessivamente percepita.Dall’analisi delle domande che più fortemente condizionano l’esito diquesta risposta generale, si può dedurre quali sono gli indicatori chepiù pesantemente influenzano la soddisfazione globale. Risulta cosìinutile chiedere espressamente alla popolazione di clienti di indicare ilpeso di importanza relativamente ad ogni aspetto dell’indagine.La flessibilità dell’approccio bayesiano ben si adatta inoltre ad iterarenel tempo quest’analisi dei dati. Infatti è possibile per le reti didipendenza bayesiane evidenziare una distribuzione a priori di unmodello di dipendenza dei dati. Se questa distribuzione a priori è inrealtà stata ottenuta dall’ultima analisi dei dati eseguita, è possibileottenere una distribuzione a posteriori che è frutto sia delle osservazioniottenute con la nuova interrogazione sia delle analisi passate,rappresentate attraverso la prior.Il capitolo è organizzato come segue. Dapprima verrà ulteriormentedettagliata la differenza tra prodotto e servizio, entrando nei dettaglidelle caratteristiche tangibili e intangibili che vanno a influenzare lasoddisfazione del cliente riguardo al servizio di cui usufruisce.Secondariamente saranno brevemente descritte le caratteristiche deimetodi proposti in letteratura per l’analisi della qualità del servizio.Infine si descriverà l’approccio proposto applicandolo ad un caso reale ilcall center di una società di assicurazioni (Assitalia).

Page 112: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

103

4.2. Il servizio e il prodotto

Il servizio non è altro che il “prodotto” di un processo ripetitivo le cuicaratteristiche sono determinabili dal produttore generalmente a baseumana, mentre il prodotto manufatto è il risultato di un processoripetitivo a base di macchina.Il servizio ha, come il prodotto, delle caratteristiche qualitative reali(quelle rilevanti per l’utilizzatore che sono le basi per la determinazionedella qualità del servizio secondo questi). E’ un evento di fruizione per ilcliente, di erogazione per il fornitore, al cui risultato concorrono diversevariabili. Per capire quali effettivamente esse siano è necessario fare ladistinzione tra processo del servire (i cui standard sono determinati dalproduttore) e servizio, inteso come output (i cui standard sonodeterminati dal cliente).La natura del servizio lo rende diverso dal prodotto in base alle seguentidifferenze:§ Caratteristica del processo produttivo: Il servizio non è altro che il

“prodotto” di un processo prevalentemente “a base umana”, mentreil prodotto manufatto è, spesso, il risultato di un processo ripetitivo“a base di macchina”.

§ Intangibilità: I beni possono essere descritti come oggetti fisici. Alcontrario il servizio è un’azione, una prestazione. Commercializzareuna prestazione è molto differente da commercializzare un oggettofisico. Le caratteristiche di un oggetto possono, per esempio, essereapprezzate guardandolo, mentre non è la stessa cosa per il servizioche è in sostanza un “prodotto intangibile che mira a migliorare lostato del cliente così come egli richiede” (UNI-ISO 8402). Lavalutazione dell’esito del servizio presenta, quindi, una fortecomponente di “intangibilità” perché entrano in gioco oltre allecomponenti oggettive che soddisfano i bisogni materiali del cliente,anche quelle soggettive dovute al modo in cui il servizio giunge alcompimento (personale e non tangibile).

§ Partecipazione attiva del cliente al processo di produzione delservizio: A differenza del prodotto facilmente standardizzabile, ilservizio si realizza nel momento in cui si concretizza il rapportocliente-fornitore. Spesso il servizio fornito tende ad esserepersonalizzato in funzione delle esigenze espresse dal cliente.L’assemblaggio finale può aver luogo in tempo reale ed il suo utilizzosi ha durante la sua realizzazione. Questo implica che la qualitàassociata all’esperienza del servizio è in parte funzione del processodi erogazione, ma soprattutto legata all’interazione del cliente con lefunzioni che lo erogano.

Page 113: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

104

§ Eterogeneità: E’ difficile riprodurlo consistentemente ed esattamentee non c’è possibilità di revisione prima che venga consegnato alcliente ( non si può recuperare un cattivo servizio) proprio perchéproduzione e consumo sono spesso contestuali [Leo93]. L’erogazionedel servizio tenderà in qualche modo a differire nel corso del tempo oal variare dei clienti. Conseguentemente nell’ambito delle diversetransazioni è lecito aspettarsi un certo grado di variabilità.

§ Deperibilità: Poiché il servizio è una prestazione, non può essereimmagazzinato. La sua deperibilità crea problemi di capacità perl’organizzazione di questo. Inoltre le capacità di servizio disponibilima inutilizzate, durante un determinato periodo di tempo risultanoeffettivamente dissipate e sprecate.

In conclusione occorre considerare la stretta correlazione tra fornitore ecliente che nel servizio si realizza: per meglio comprendere la qualità diquest’ultimo occorrerà analizzare il processo del servire , caratterizzatoda standard qualitativi spesso definiti dal produttore, ed il suo output,il servizio, le cui specifiche sono, invece, determinate dal cliente.La norma ISO 8402 (Qualità – Termini e definizioni) definisce il Serviziocome:

“Risultato di attività svolte, sia all’interfaccia tra fornitore e cliente cheall’interno dell’organizzazione del fornitore, per soddisfare le esigenzedel cliente.”

Queste caratteristiche peculiari del prodotto “servizio” rendonoparticolarmente critica la misurazione delle performance del fornitore,infatti tutti gli indici tradizionali di rendimento, non conformità,produttività sono fortemente legati al beneficio che il cliente ne trae, alvalore aggiunto che viene trasferito alla sua attività, in sostanza,dipendono direttamente dalla Customer Satisfaction.Un servizio erogato in maniera particolarmente Efficiente, cioè conl’utilizzo ottimale delle risorse dell’azienda, se non è Efficace, cioè nonsoddisfa i bisogni del cliente, non ha valore e rischia di portare a graviperdite di immagine per l’azienda. La definizione delle necessità e delleaspettative è una fase fondamentale del processo di progettazione delservizio, in quanto il fornitore deve cercare di far esplicitare al clienteanche i bisogni impliciti e non chiaramente definiti, così da non farinsorgere insoddisfazione già dalla fase contrattuale.A supporto di quanto detto si possono citare i dati di alcune ricerchedella “American Management Association” sugli acquisti, dalle qualirisulta che circa il 65% del volume di affari nelle imprese sono acquistiripetuti, quindi riferiti a clienti soddisfatti e fidelizzati, e che il costo diacquisizione di nuova clientela è 5 volte superiore a quello relativo almantenimento di quella già esistente. Quindi conviene soddisfare iclienti a fondo e cercare di renderli “fedeli” alla propria azienda, e per

Page 114: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

105

fare ciò è indispensabile instaurare uno stretto rapporto con il cliente,venendo a conoscenza dei desideri ed impegnandosi a trovare il modo diesaudirli.

4.3. La Qualità del servizio in letteratura

“La qualità del servizio é un concetto misurabile per analizzare lasoddisfazione dei propri clienti. Il buon governo dell’azienda richiede ilconsapevole supporto della misurazione, intesa come processo diconoscenza. La valutazione di una qualità del servizio non puòprescindere da una misurazione del livello di soddisfazione dellaclientela (fenomeni di mercato) e dell’efficienza dei processi aziendali(fenomeni d’azienda) che concorrono a determinare tale livello” [Col87].Pertanto la qualità del servizio può essere sinteticamente definita come:

QS=realizzataQualitá

attesaQualitá

=R

A

QQ

Quando si parla di efficienza dei processi aziendali si fa riferimento allaqualità offerta, quando, invece, si vuole monitorare l’impatto sul clienteed il suo livello di soddisfazione, allora é più opportuno andare avalutare la qualità percepita del servizio.“La qualità percepita é la misura con cui un prodotto/servizio assolve lefunzioni attese dall’utente” [Col97]. In letteratura la qualità del servizioé stata definita come il risultato del confronto tra quello che i clientiritengono che il fornitore debba loro offrire e le prestazioni che ilfornitore é in grado di erogare effettivamente [Gho94], e quindi semprecome rapporto tra una realizzazione ed un’attesa.Spesso si verifica una differenza tra il servizio che l’acquirente siaspetta (servizio atteso) e la percezione che lo stesso riceve in relazioneal servizio effettivamente ottenuto (servizio percepito). Se questadifferenza é importante perché in sede di contrattazione non si sonodefiniti i dettagli del servizio, l’immagine del fornitore finirà per uscirnefortemente danneggiata.Per esempio, un cliente può essere portato a ricordare sempre, aproposito di un fornitore, quell’unico caso in cui le cose sono andatemale e non cercare invece di ridimensionare l’importanza di questo casomettendolo in relazione ai tanti altri in cui le forniture si sono svolteregolarmente.Il cliente confronta continuamente il SERVIZIO PERCEPITO ed ilSERVIZIO ATTESO; il risultato di questo processo sarà la QUALITA’PERCEPITA DEL SERVIZIO [Gro82].

Page 115: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

106

La qualità del servizio dipende, quindi, da queste due variabili [Col87] e[Gal91], é quindi necessario conoscere quali siano le risorse e le attivitàche, all’interno dell’azienda, hanno incidenza su di esse.Alla luce dei benefici ricercati e delle conoscenze, convinzioni edesperienze maturate, il consumatore qualifica le proprie attese conriferimento ad un insieme di attributi rilevanti dell’offerta,specificandone la gerarchia e l’intensità ritenute ottimali. In tal mododefinisce la composizione del servizio per lui ideale e su questa base,attraverso la comparazione degli elementi differenziali percepiti,analizza le alternative esistenti sul mercato apprezzando la qualitàofferta e sceglie. Dopo la fruizione del servizio, valuta la qualità delservizio considerando il paragone tra le sue attese e le sue percezioni.Gronroos [Gro82] afferma che per controllare la qualità del serviziobisogna:

- definire come la qualità del servizio é percepita dal consumatore- definire quali sono le risorse e le attività che la influenzano e quindicome l’azienda può incidere sulla qualità del servizio.

La qualità del servizio dipende dal fatto che il cliente é influenzato daCOME egli riceve il servizio (qualità funzionale), oltre che da COSAriceve (risultato del servizio ossia qualità tecnica).La qualità tecnica é riferita al risultato del servizio; per esempio, nelcaso di un’officina per la riparazione di autovetture, é la disponibilitàdella macchina al momento concordato, la sua pulizia e le suecondizioni meccaniche.La qualità funzionale é relativa all’interazione tra chi eroga e chi riceve ilservizio ed alla percezione che il cliente ha di questo. Ancora nel casodell’officina, essa é relativa alla quantità di spiegazioni che il meccanicofornisce al cliente, alla comunicazione direttamente al cliente nel caso cisia un ritardo o un ulteriore lavoro da fare.Entrambe queste grandezze vanno ad incidere sulla qualità percepitadal cliente.Ovviamente le dimensioni della qualità funzionale non possono esseredeterminate oggettivamente e quantitativamente come le dimensionitecniche.Quindi, i contatti con il cliente, l’apparenza, il comportamento,l’accessibilità sono elementi che agiscono direttamente sulla qualitàfunzionale. Mentre il Know-how dell’azienda, i macchinari, i sistemiinformativi e le soluzioni tecniche agiscono sulla qualità tecnica.In accordo con Swan e Comb [Swa76] che parlano di prestazionetecnica e prestazione funzionale, anche Gronroos afferma che la qualitàtecnica é una condizione necessaria ma non sufficiente per garantire lasoddisfazione del cliente.Una qualità tecnica accettabile é il prerequisito per una qualitàfunzionale di successo, ma i problemi temporanei di qualità tecnica

Page 116: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

107

possono essere scusati dai consumatori se la qualità funzionale ésufficientemente buona.Sasser, Olsen e Wyckoff [Sas78] hanno anch’essi proposto tredimensioni relative al processo di erogazione del servizio: i materiali, leattrezzature ed il personale.

Attivitá di marketing,esperienze passate

SERVIZIOATTESO

Qualità percepitadel servizio

Immagine

QUALITA’TECNICA

Soluzioni tecniche

Knowhow

macchine

Sistemi computerizzati

QUALITA’FUNZIONALE

Contatticon ilcliente

Atteggiamenti

Relazioniinterne

AccessibilitáApparenza

Chiarezza

SERVIZIOPERCEPITO

Figura 4.1: La qualità del servizio in Gronroos [Gro82].

Lehtinen e Lehtinen [Leh82] individuano tre aspetti della qualità: laqualità fisica (riguardante aspetti fisici del servizio), la qualità aziendale(riguardante il profilo dell’azienda), la qualità interattiva che derivadall’interazione tra il personale di contatto ed il cliente. Essi affermano,inoltre, che é necessario distinguere tra la qualità associata al processodi erogazione e quella associata al risultato del servizio.S. Boomsma [Boo91] definisce la qualità del servizio come la risultantedelle impressioni e dei giudizi che il cliente ricava da ogni particolare

Page 117: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

108

osservabile prima, durante e dopo la fornitura del servizio; detteimpressioni possono essere classificate in tre categorie:- qualità tecnica (COSA): qualità che si può paragonare alla qualità delprodotto (la differenza é che la prima si può descrivere con le specifichetecniche).- qualità funzionale (COME): riguarda il modo in cui l’azienda strutturale sue consegne.- qualità di relazione(CHI): dipende dalle relazioni che gli addetti hannocon i clienti (valida in particolare per un’azienda di servizi).Una versione modificata dell’analisi degli aspetti salienti della qualitàdel servizio é quella presentata da Parasuraman [Par85] dove vengonoindividuati come aspetti salienti della qualità percepita del servizio laaffidabilità, la credibilità, la competenza, l’accessibilità al servizio, lacortesia, ecc.Parasuraman, Zeithaml, Berry hanno definito la qualità percepita delservizio come l’intensità e la direzione della discrepanza tra le percezionie le aspettative che i clienti hanno del servizio; questa percezione écollocabile su una scala che va dalla qualità ideale a quellainaccettabile in funzione della distanza tra servizio atteso e serviziopercepito.Il modello concettuale da essi elaborato è presentato nella Figura 4.2.Questo modello mostra le attività salienti di un’organizzazione di serviziche influenzano la percezione della qualità. Mostra, inoltre, leinterazioni tra queste attività ed identifica i legami tra le attività chiaverelative all’erogazione di un livello della qualità del serviziosoddisfacente.Secondo Parasuraman, Zeithaml e Berry, la discrepanza tra lepercezioni e le attese del consumatore (Gap5) è funzione di altri quattrodifferenziali esposti nel seguito brevemente:- differenziale tra le attese del consumatore e le percezioni del

management di queste (Gap1): il management può non avere unagiusta percezione di ciò che il consumatore si aspetta;

- differenziale sulle specifiche della qualità del servizio (Gap2): ci puòessere incapacità da parte del management di trasporre le attese delcliente in specifiche della qualità del servizio. Questo differenziale sipuò avere in fase di progettazione del servizio;

- differenziale di erogazione del servizio (Gap3): le linee guida perl’erogazione del servizio non garantiscono un servizio di alta qualità.Ci possono essere molte ragioni per questo gap come la carenza diun supporto sufficiente dello staff di front-line, i problemi diprocesso;

- differenziale di comunicazione esterna (Gap4). le attese del clientesono formate dalle comunicazioni esterne di un’organizzazione. Perridurre questo gap un’organizzazione deve spiegare accuratamente ilservizio offerto ed il modo in cui questo è erogato.

Page 118: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

109

Passa -parola Bisogni personali Esperienze passate

SERVIZIO ATTESO

SERVIZIO PERCEPITO

Erogazione del servizio Comunicazioniesterne

al consumatore

Trasformazioni dellepercezioni in specifiche

di servizio

Percezioni del managementdelle attese delconsumatore

Consumatore

Fornitori

Gap5

Gap1Gap4Gap3

Gap2

Figura 4.2: La qualitá del servizio in Parasuraman, Zeithaml e Berry.

Dalle definizioni riportate in letteratura è evidente che il problema dimisurare e controllare la qualità del servizio nasce da una implicitadifficoltà nel tradurre e comprendere le esigenze e i bisogni del cliente.Occorre di conseguenza definire opportunamente la modalità di raccoltae analisi dei dati, a valle della quale apportare le opportune modifiche alsistema di erogazione del servizio in un ottica di miglioramentocontinuo.

4.4. Le dimensioni della qualità del servizio

Si considerino le sei dimensioni della qualità individuate in [Neg92]:§ Tecnica§ Economica§ Organizzativa§ Relazionale§ Immagine§ AmbientalePer ognuna di queste è necessario definire i fattori di interesse datenere sotto controllo, cercando di scegliere elementi realmenteindicativi dell’evoluzione qualitativa del processo di erogazione del

Page 119: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

110

servizio. Delle sei dimensioni considerate non tutte possono esseremisurate con indicatori ricavabili direttamente dai dati aziendali, inquanto alcune necessitano di apposite indagini di percezione di questiaspetti da parte del cliente attraverso adeguati studi di CustomerSatisfaction, i quali verranno trattati nei prossimi paragrafi. Rientranoin questa categoria la dimensione relazionale, quindi ciò che riguarda icomportamenti e gli atteggiamenti, le attitudini e la competenzaspecifica degli operatori, e la dimensione di immagine, considerandoproprio gli effetti psicologici e di atteggiamento dei clienti rispettoall’azienda erogante il servizio.Si tratteranno in primo luogo gli aspetti direttamente valutabili dagliindicatori “fisici”, cioè ricavabili in modo più o meno diretto dai dati adisposizione dell’azienda o attraverso apposite misurazioni.

4.4.1. Indicatori “tangibili” del Servizio

Esistono un set di fattori che possono essere valutati semplicementeosservando il processo di erogazione del servizio. Il monitoraggio e ilconfronto con gli standard stabiliti porta ad avere una visione piùprecisa del servizio offerto e delle performance da un punto di vistainterno all’organizzazione, quindi della qualità interna. Questaprospettiva mette in evidenza gli sforzi fatti dall’azienda, in termini dirisorse mobilitate e di coinvolgimento del personale, per lo sviluppo e ilmantenimento di un sistema qualità efficiente ed efficace. Di seguitoverranno trattati invece quegli indicatori, ricavabili dalle indagini dimercato e dai dati a disposizione dell’azienda, che, attraverso lavalutazione della durata del rapporto di fornitura o dell’ampliamentodella clientela, danno una stima della qualità del servizio offerto (qualitàesterna).

4.4.1.1. Indicatori di qualità internaL’implementazione di un sistema di indicatori per il controllo delleattività di un’azienda ha bisogno in primo luogo di una chiara e precisadefinizione degli obiettivi del controllo stesso, nel senso di stabilirepreventivamente gli elementi più importanti da esaminare e in modo dafocalizzare l’attenzione su un ristretto numero di dati, più facili dagestire e da interpretare.

4.4.1.1.1. Dimensione tecnicaLa dimensione tecnica rappresenta le caratteristiche fisiche,

visibili, del processo di erogazione del servizio e quindi più facilmentemisurabili. Gli indicatori da utilizzare vengono scelti sulla base di

Page 120: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

111

considerazioni strategiche e di politica aziendale, cioè si devonovalutare, caso per caso, le necessità specifiche dell’organizzazione dicontrollare gli andamenti di alcune prestazioni tecniche rispetto adaltre. Come in ogni altra attività aziendale vanno considerate ancheopportune analisi economiche e di convenienza per quanto riguarda ilnumero e la precisione delle indagini e degli indicatori da utilizzare, inquanto, pur essendo le dimensioni tecniche relativamente le più facilida misurare, la loro rilevazione rappresenta sempre un notevoleimpegno di tempo e di risorse.Tra i fattori più frequentemente utilizzati nella valutazione delleprestazioni “tecniche” durante il processo di erogazione del servizio,possiamo citare:♦ i tempi: di consegna, di erogazione vera e propria, di risposta al

cliente, di attesa per il servizio, di gestione del disservizio;

♦ le prestazioni specifiche del servizio: precisione, affidabilità,formazione necessaria per gli utenti, qualità e quantità dei servizi“secondari” (di supporto) erogati;

♦ le condizioni contrattuali: vincoli, prezzi, condizioni di pagamento.

Il sistema informativo per accedere a questi dati deve solamenteriferirsi, ad esempio, al controllo dei tabulati di consegna delle merci,oppure dal confronto tra la data di richiesta da parte del cliente di uncerto servizio e la data di erogazione dello stesso..Come è stato prima ricordato la scelta degli indicatori dipende dallecondizioni aziendali, dal tipo di servizio erogato, dagli obiettivi dell’altadirezione e soprattutto dalle indicazioni ricavate da eventuali lamenteledei clienti su particolari aspetti dell’organizzazione e dell’attività svolta,in quanto non bisogna dimenticare che l’obiettivo fondamentale per ilraggiungimento della qualità nei servizi è la soddisfazione dellenecessità e dei bisogni degli utenti.

4.4.1.1.2. Dimensione economica

Le riflessioni economiche sull’erogazione del servizio prendono inconsiderazione i costi sostenuti per realizzare una fornitura gradita alcliente, che soddisfi i suoi bisogni espliciti, impliciti e latenti e che,inoltre, utilizzi in modo efficiente le risorse interne dell’azienda,evitando sprechi e costi inutili.Necessitano delle misurazioni sui costi della qualità, intese come dellevalutazioni dell’entità di risorse messe in campo per la prevenzione dieventuali disservizi, per la formazione, quindi, del personale sia difront-line che di back-office, per l’impiego dei mezzi e supporti adattialla corretta erogazione del servizio e per il controllo e l’analisi delle

Page 121: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

112

prestazioni aziendali, con i conseguenti sforzi di miglioramento ecorrezione di eventuali fattori non adeguati. Bisogna valutare, in questocontesto, anche l’impegno dedicato dall’alta direzione per dare aidipendenti chiare ed adeguate linee guida, di lavoro e dicomportamento, per la realizzazione e la corretta interpretazione dellapolitica aziendale, fattore questo misurabile quantitativamente con lafrequenza delle riunioni aziendali e con la valutazione dei mezzi dicomunicazione utilizzati.A queste considerazioni ne vanno aggiunte altre sui costi della non-qualità, intesi come quelle spese sostenute dall’azienda per risarcire iclienti insoddisfatti del trattamento ricevuto, per effettuare il ritiro e lasostituzione di eventuale merce inesatta rispetto all’ordine oppureconsegnata in condizioni non accettabili, insomma per motivi imputabiliad un’erogazione non conforme del servizio. Si possono considerare inquesta classe tutti quei costi sostenuti dall’azienda per la realizzazionedi determinati obiettivi, ma terminati in insuccessi, sia diorganizzazione interna che verso i clienti esterni, portando una perditaeconomica e di immagine per l’azienda.Proprio le considerazioni sull’immagine e sulla reputazionedell’organizzazione fanno assumere a quest’ultima tipologia di costinotevole importanza nell’ambito delle strategie aziendali, rendendonecessaria un’adeguata misurazione dei dati a disposizione ed unacorretta analisi ed interpretazione dei segnali di allarme per eventualiinefficienze.In aggiunta alle misurazioni degli indici assoluti di impegno di risorseper la qualità si possono utilizzare degli indici relativi che mettono inrapporto i costi sostenuti, rappresentati dagli indici trattati prima, conil livello di attività dell’azienda, ovvero con il fatturato, o il valoreaggiunto. In questo modo si riesce a valutare l’impegno effettivo delladirezione nell’ambito della qualità, sottolineando la necessità dicontrollare l’impiego di risorse nel mantenimento, e nel miglioramento,delle prestazioni “qualitative” aziendali in relazione all’effettivo volumedi attività.Questi indici, sia quelli assoluti che relativi danno utili indicazioni circala politica per la qualità seguita dall’alta direzione, evidenziandoparticolari sforzi sostenuti in alcuni periodi e portando i responsabili avalutare poi l’efficacia dell’impegno assunto attraverso il confronto con irisultati effettivamente ottenuti.

4.4.1.1.3. Dimensione organizzativaPer quanto riguarda la misurazione delle prestazioni dal punto di vistaorganizzativo si possono utilizzare degli indici di Funzionalità edEfficienza delle attività di coordinamento ed organizzazione. La

Page 122: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

113

valutazione di questi aspetti può essere realizzata attraverso indicatoridel tipo:

Funzionalità: ( )

( )TServ

TServivaorganizzattàFlessibili

Tot

atipersonaizz

#

#_ =

Efficienza:[ # Innovazioni introdotte in T ]

[ Tempo medio di introduzione di una variazione di un servizio]

Possono essere considerati indicatori dell’Efficienza dell’organizzazioneanche:

[ Incremento degli utenti nel tempo] (tra esercizi consecutivi) [ Aumento del margine operativo ]

in quanto evidenziano una preferenza degli utenti per il modo di gestirei servizi dell’azienda e la capacità di quest’ultima di aumentare ilfatturato gestendo al meglio i centri di costo, quindi sono segni tangibilidell’abilità di gestione dell’alta direzione.

4.4.1.1.4. Dimensione ambientaleQuesta dimensione riguarda la facilità con cui il cliente può

accedere al servizio, le condizioni in cui si trova durante la fruizionedello stesso e la funzionalità delle attrezzature e dei mezzi messi a suadisposizione. Gli indicatori che possono essere utilizzati in questoambito sono, ad esempio:

Tempo di Accesso rispetto alla concorrenza =( )( )AccTmAccTm

conc

*

dove:Tm*(Acc): tempo medio di accesso al servizio erogato dall’aziendaTmconc(Acc): tempo medio di accesso ad un servizio analogo offerto dalconcorrente migliore

Accessibilità Nuovo Servizio=( )

( )TradservTelservTel

#*#

Page 123: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

114

#Tel(serv*): Numero medio di telefonate (o contatti) necessarie con ilnuovo servizio offerto#Tel(servTrad): Numero medio di telefonate necessarie con il serviziotradizionale

[# Guasti alle attrezzature a disposizione]

[Tempi di attesa al centralino automatico]

[ Numero linee telefoniche a disposizione per informazioni]

Page 124: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

115

Dimensione Obiettivi delcontrollo

Indicatori

Tempi • Consegna• Erogazione• Risposta• attesa per il servizio• gestione disservizio

Prestazioni • Precisione• Affidabilità

TECNICA

Condizionicontrattuali

• Giorni di dilazione pagamenti• Livello prezzi rispetto

concorrenzaCosti dellaQualità

• % Fatturato per: - prevenzione- formazione- controllo- innovazione- qualità

ECONOMICA

Costi della NonQualità

• % Fatturato per: - risarcimenti -sostituzioni

Funzionalità • Flessibilità organizzativaORGANIZZATIVA Efficienza • Numero innovazioni introdotte

• Tempo di introduzione di unavariazione

• Aumento numero utenti• Aumento margine operativo

Condizioni • Numero linee telefonicheFunzionalità • Numero guasti attrezzature

AMBIENTALE

Accessibilità • Tempo di accesso rispetto allaconcorrenza

• Accessibilità nuovo servizio• Tempi di attesa al centralino

Tabella 4.1 Indicatori ed obiettivi delle dimensioni tangibili del servizio[Neg92]

4.4.1.2. Indicatori di qualità esterna

Sicuramente uno dei fattori che più dimostrano la bontà di un servizioo di un prodotto è la fedeltà (“loyalty”) della clientela sia alprodotto/servizio in questione, sia all’azienda o al marchio. Ricordando

Page 125: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

116

che per acquisire un nuovo cliente si spende circa cinque volte in più,in promozioni, sconti, campagne pubblicitarie, rispetto a quanto costamantenerne uno già acquirente, o utente per quanto riguarda i servizi,abituale.I seguenti sono solo indicatori parziali della Customer Satisfaction, inquanto non analizzano le motivazioni del perché un cliente si rivolga omeno all’azienda per l’erogazione del servizio, ma possono essereutilizzati come campanelli d’allarme nel caso di una brusca caduta degliindici o di trend decrescenti, sintomo di problemi e di carenze nelprocesso di realizzazione del servizio.Il Customer Retention Rate (CRR) è un indice della fedeltà degli utentiai servizi erogati dall’azienda ed esamina il rapporto tra il numero diclienti che hanno continuato ad usufruire del servizio durantel’intervallo di tempo considerato (nT) e il numero di clienti all’inizio delperiodo stesso (T0):

CRR: Customer Retention Rate nel periodo considerato (nT)RECUS: Customer Retention, numero di clienti rimasti fedeli all’aziendaal tempo T0+nTNCUS: Number of Customers, numero totale di clienti presenti alperiodo iniziale

Naturalmente, non tutti i clienti hanno lo stesso peso, in terminieconomici e di considerazione, per l’azienda, quindi con il CustomerLifetime Value (CLV) si cerca attribuire al cliente un valore monetario inbase alla media del valore dei servizi resi, alla frequenza delle fornitureed alla stima della durata del rapporto commerciale:

CLV: Customer Lifetime ValueATV: Average Transaction Value ( $ )YFP: Yearly Frequency of Purchase (1/tempo), frequenza degli acquisti(o fruizione del servizio)CLE: Customer Life Expectancy (tempo), aspettativa sulla durata delrapporto di clientela

Un altro indicatore di Loyalty della clientela è l’Average CustomerSeniority (ACS), che valuta l’anzianità media dei clienti, ossia la duratamedia dei rapporti di fornitura:

CRRRECUS(T nT)

NCUS(T )100nT

0

0

=+

CLV ATV YFP CLE= ⋅ ⋅

Page 126: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

117

ACS : Average Customer Seniority calcolata al tempo T0+nTi : Periodo considerato (da 1 a N)NCUSi : Numero clienti nel periodo iNCUS(T0+ nT) : Numero totale di clienti al tempo T0+ nT

Per avere un’indicazione di massima sull’aumento o ladiminuzione del numero di clienti dell’azienda in un certo periodo sipuò utilizzare il Customer Development Rate (CDR),

CDR : Customer Development Rate calcolato al tempo T0+nT

tenendo ben presente che questo non tiene conto se i clienti sono nuovio fidelizzati, quindi un valore positivo potrebbe derivare da unacampagna pubblicitaria o da una promozione particolarmente riuscitainvece che dalle prestazioni qualitative dell’organizzazione.

Gli indici presentati in questo paragrafo, data la loro semplicità,vengono utilizzati soprattutto a titolo descrittivo, per evidenziareparticolari trend di crescita e di sviluppo dell’attività aziendale, perpresentare delle analisi sulla clientela e sulle abitudini degli utenti, peravere promuovere particolari servizi o per gratificare i clienti piùassidui. La cosa da tenere sempre presente è che questi indici nonconsiderano i motivi per cui i clienti usufruiscono dei servizidell’azienda, i quali possono anche essere la mancanza di servizisostitutivi o la comodità logistica, implicazioni personali, presenza diservizi complementari, quindi è molto importante che tutte levalutazioni basate su di essi siano sempre seguite da premesse sulleipotesi che ne stanno alla base, da esposizioni approfondite della lorostruttura e degli obiettivi delle indagini svolte, in modo che i risultatipossono essere interpretati correttamente, senza il pericolo di attribuiresignificati errati agli andamenti evidenziati. Per gli stessi motivi sopradescritti, viene sconsigliato il loro utilizzo per fini decisionali o dipianificazione, per i quali vengono utilizzati indicatori più affidabili,precisi ed approfonditi.

ACS T nTNCUS i

NCUS T nT

ii

N

( )( )0

1

0

+ =⋅

+=

CDR T nTNCUS T nT NCUS T

NCUS T( )

( ) ( )( )0

0 0

0

100+ =+ −

Page 127: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

118

4.4.1.3. Controllo periodico degli indicatori

Dall’esigenza della precisione degli indicatori nasce la necessità dieffettuare, e quindi di pianificare preventivamente, un controlloperiodico sulla effettiva rispondenza dei dati elaborati con l’andamentodelle caratteristiche del servizio esaminate. Infatti, nel transitorioiniziale dell’implementazione di un sistema di rilevazione ad indici, nevengono adottati un numero maggiore del necessario cercando dicapire: quali sono più sensibili alle variazioni dei fattori di interesse,attraverso l’analisi di sensitività, quali danno indicazioni correttesull’andamento reale dell’erogazione del servizio e quali portano avalutazioni distorte, quali infine sono tra loro correlati, cioè i valori degliindici sono legati alle stesse caratteristiche del servizio.Gli indici utilizzati devono essere periodicamente controllati in quanto,oltre a possibili errori di sviluppo concettuale degli indicatori, per cuinon si hanno le informazioni ricercate, di solito si evidenziano dei trenddi miglioramento delle prestazioni nell’ambito dei fattori misurati etenuti sotto osservazione, mentre caratteristiche del servizio che primanon erano considerate critiche, pur essendo comunque importanti,presentano dei peggioramenti dovuti al fatto che i dipendenti prestanomaggiore attenzione agli aspetti che sanno essere misurati dalladirezione, tralasciando quelli non considerati.Per questo motivo di solito, ad intervalli stabiliti, vengono svolte dellemisurazioni a carattere globale del processo di erogazione del servizio,paragonando i risultati dei diversi indici, valutando la coerenza delleinformazioni ricavate e confrontando le percezioni dei clienti con i valoristabiliti internamente all’azienda.

4.4.2. Indicatori “intangibili” del Servizio:analisi di Customer Satisfaction

La identificazione del Servizio Atteso da parte del cliente nasce da unprocesso che comprende le sue esigenze personali, le esperienzepassate, sia sullo specifico argomento, sia in generale, e lecomunicazioni informali recepite dal mercato. Sono importantissime aquesto livello le indagini presso la clientela per capire le loro realinecessità e quindi permettere ai dirigenti di realizzare una correttapercezione delle aspettative degli utenti, in modo da non creare dellediscordanze tra il servizio erogato e quello atteso.Obiettivo delle analisi di Customer Satisfaction è di rilevare un quadropreciso delle aspettative del cliente, quindi i dati ricavati devono essereelaborati ed analizzati evidenziando i punti critici che necessitano dimaggiore controllo e di adeguati miglioramenti.

Page 128: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

119

Il programma di monitoraggio degli aspetti intangibili del servizio equindi della soddisfazione del cliente comprende, oltre che la rilevazionevera e propria attraverso i sondaggi telefonici o la compilazione diquestionari, anche l’implementazione di sistemi di controllo suparticolari aspetti concordati con i clienti, le indagini fra i dipendentiper sondare le condizioni di lavoro, le visite presso i clienti, se l’attivitàsvolta lo consente, la gestione reclami. Tutte queste attività consentonodi portare continui progressi all’organizzazione e di migliorare laposizione dell’azienda sul mercato.Il questionario di Customer Satisfaction è considerato il miglioreindicatore dell’andamento dei processi di erogazione del servizio edinoltre gli altri strumenti presentati sono riferiti più alle tecniche digestione ed organizzazione che alla misurazione delle prestazionirealizzate dall’azienda. Viene comunque esposta una breve descrizionedelle tecniche citate, le quali, se implementate in modo corretto,portano a notevoli vantaggi per l’organizzazione e per le funzionidecisionali.

4.4.2.1. Score CardsLe Score Cards (carte a punti), vengono utilizzate per tenere sottocontrollo degli aspetti del servizio erogato ad alcuni clienti, di solito ipiù importanti per l’azienda a livello di volume di affari o dal punto divista strategico, attraverso l’osservazione di indicatori scelti in accordocon i clienti stessi. L’implementazione di questo strumento coinvolgedirettamente l’utente ed è proprio quest’ultimo che deve definire, conl’aiuto del responsabile del servizio, i fattori più importanti damonitorare. Vengono definiti in questo modo degli indicatori specifici iquali vengono valutati sia dal cliente che dall’azienda stessa,evidenziando così il Gap esistente della percezione tra chi riceve e chirealizza il servizio. Spesso questa differenza causa insoddisfazione nelcliente e, nello stesso tempo, demotivazione nell’organizzazione, la qualevalutando in modo positivo l’erogazione del servizio, non riesce acomprendere le lamentele raccolte. Una volta stabiliti i punti didisaccordo tra le diverse valutazioni, l’azienda deve implementare leadeguate azioni correttive di miglioramento, andando incontro alleesigenze ed alle indicazioni date dall’utente interpellato. La strettainterazione tra cliente ed azienda che si crea utilizzando le Score Cards,come abbiamo detto, richiede un impegno non sottovalutabile da partedel fruitore del servizio, ma sicuramente questo viene ripagato dallamaggiore attenzione nei suoi confronti e dalla realizzazione di unservizio molto vicino alle sue esigenze reali. Questo strumento dàrisultati sempre migliori con il prolungarsi del periodo di collaborazioneazienda – cliente, naturalmente se quest’ultimo è rappresentativo di

Page 129: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

120

una buona parte della clientela e se gli indicatori vengono scelti inmaniera accurata.

4.4.2.2. Reply CardUno strumento particolare nella rilevazione della qualità è la ReplyCard, in quanto valuta la realizzazione del servizio nel momento stessodella sua fruizione da parte del cliente. Ad esempio nel servizio diassistenza tecnica, l’incaricato consegna una Reply Card prestampataall’utilizzatore finale e chiede di compilarla e riconsegnarla direttamentea lui, oppure rinviarla all’azienda. Questa Card contiene alcunedomande sulla realizzazione del servizio, sulla competenza del tecnico esulla soddisfazione globale del cliente. L’indagine è molto semplice marichiede una corretta valutazione dei risultati da parte dell’azienda. Ipunteggi negativi richiedono un nuovo contatto con il cliente perapprofondire i motivi dell’insoddisfazione e quindi, dopo averevidenziato le cause, viene dato il via alle opportune azioni correttive.Anche i punteggi particolarmente positivi devono essere analizzati perpoter ottenere in futuro gli stessi risultati con tutti gli altri clienti.L’utilizzo delle Reply Cards completano le altre indagini svolte e quindivanno debitamente incentivate presso i clienti, sottolineando lo sforzocompiuto dall’azienda per soddisfare i loro bisogni. I risultati di questeanalisi vanno registrati e conservati in opportuni database, dai quali poisi possono ricavare varie rappresentazioni, stratificate per servizio, percluster di clienti o per personale coinvolto nella realizzazione, dandoindicazioni alla direzione di insufficienze nella definizione del servizio,nella percezione delle necessità di alcuni clienti o di particolarimancanze nella formazione dei dipendenti.

4.4.2.3. Gestione reclamiAnche la gestione reclami può essere affiancata agli altri strumenti,tenendo però conto del basso tasso di utilizzo di questo servizio offertodalle aziende. Infatti, da studi svolti dalla “American ManagementAssociation”, solo il 4% circa dei clienti insoddisfatti si lamenta conl’azienda, soprattutto se le procedure di reclamo sono particolarmentecomplicate o percepite come inutili. Comunque, l’implementazione diun’efficiente servizio reclami può portare a nuove informazioni e, inmolti casi, porta al mantenimento del cliente (customer retention), che,sebbene insoddisfatto, trova nell’attenzione dell’organizzazione unmotivo per sceglierla nuovamente. L’analisi dei reclami deve essereeseguita in modo sistemico, cioè attraverso uno studio del diagrammacausa-effetto (diagramma di Ishikawa) devono essere evidenziati i fattoripiù frequenti di reclamo e ad ognuno di questi deve essere associato unlivello di gravità. Al verificarsi di un reclamo, oltre alla classificazione ed

Page 130: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

121

archiviazione di tutti i dati che lo riguardano, devono essere allertatiimmediatamente i responsabili del reparto o del livello dove si èverificata la non conformità e devono essere avviate le necessarie azionicorrettive. In seguito deve essere verificata e misurata l’efficacia delleazioni intraprese ed inoltre devono seguire opportune misure preventiveche evitino il ripetersi del reclamo. Per ogni reclamo ricevuto, unacorretta gestione dello stesso prevede la registrazione dei tempi dirisoluzione e di intervento ed il confronto con i dati già a disposizionesui casi analoghi. Ricordando il principio di miglioramento continuo daapplicare al sistema qualità aziendale, le prestazioni nella risoluzionedei reclami dovrebbero essere in costante aumento, quindi è importanteprodurre ad intervalli regolari, ad esempio mensilmente, dei reportssull’attività di gestione dei reclami, evidenziando i reparti o le funzionimigliori o peggiori, motivando così il personale a consideraremaggiormente le lamentele dei clienti.

4.4.2.4. Transaction monitoringPer quanto riguarda il miglioramento dei processi interni e dellecondizioni di lavoro, esiste uno strumento molto efficace, se investitodella debita importanza dalla direzione. Questo strumento èdenominato Transaction monitoring e consiste in periodiche indaginiinterne, svolte solitamente attraverso brevi questionari, rivolte aidipendenti, sulle condizioni di lavoro, sulle prestazioni richieste dairesponsabili e i risultati ottenuti in realtà, sulla motivazione espressanel lavoro e sul livello di formazione e di preparazione desiderato eacquisito. Nel questionario vengono proposte delle domande aperte persondare l’opinione dei lavoratori ed eventualmente, raccogliere spunti dimiglioramento e di sviluppo.

Page 131: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

122

4.5. Metodi per la valutazione della qualitàdel servizio in letteratura

A valle delle considerazioni sulla complessità di misura e controllo dellaqualità del servizio, in questo paragrafo si intende mettere in luce lostato dell’arte riguardo agli strumenti proposti per la misura dellaqualità del servizio.Nel valutare la qualità del servizio occorre distinguere tra due principalicategorie di indicatori che contestualmente vanno a definire lecaratteristiche del servizio erogato e la sua capacità di soddisfare leesigenze del cliente.In primo luogo esistono una serie di indicatori misurabili oquantificabili che possono essere distinti in indicatori di qualità internae indicatori di qualità esterna. I primi sono essenzialmente ricavatiesaminando il processo di erogazione del servizio internamenteall’azienda, i secondi riguardano l’effetto che la qualità percepita ha sulcliente. a qualità percepita derivano da

4.5.1. Il Servqual

Il modello concettuale impostato e progressivamente perfezionato daParasuraman, Zeithaml e Berry [Par85], [Par88] e [Par91] è quello divalutare il divario tra le aspettative del cliente e la percezione che questiha della prestazione ricevuta (rispetto alla specifica azienda di cui siintende valutare la qualità del servizio).La qualità del servizio può essere pertanto misurata nel modo seguente:

∑=

=5

1iiiQSwQS

dove:iQS = punteggio SERVQUAL per la dimensione i-esima

in = numero di attributi per la dimensione i-esimaw i = peso associato a ciascuna dimensioneIl punteggio per ogni dimensione si può ricavare come:

∑=

−=in

jjji EPQS

1)(

dove:jP = percezione della prestazione riferita all’attributo j

jE = attese sulla qualità del servizio per l’attributo j

Page 132: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

123

Questo modello non è un modello previsivo ma semplicemente unamisura specifica in cui la qualità è misurata come percezioni menoattese (P-E), sebbene gli autori, successivamente contrastati da Teas[Tea93] abbiano affermato che si hanno progressivamente livellicrescenti di qualità se il punteggio SERVQUAL aumenta costantementeda -6 a +6. ( Le scale utilizzate per la misura di P-E prevedono che ilpunteggio più alto per un attributo si abbia quando il punteggio delleattese è +1 e quello delle percezioni è +7, pertanto il punteggioSERVQUAL per quell’attributo è +6. Viceversa il punteggio più basso è -6).

4.5.1.1. La strutturaDal punto di vista operativo il sistema SERVQUAL consiste in unsistema di questionari strutturati in modo tale da rilevare da una partele percezioni e le aspettative degli utenti, dall’altra il livello diimportanza che ogni utente attribuisce a ciascun parametro del servizio(quest’ultimo aspetto viene valutato chiedendo direttamente al cliente diripartire tra le varie dimensioni un totale di 100 punti).I parametri del servizio sono fattori riassuntivi dei singoli indicatori. Illivello di importanza che ciascun utente attribuisce a ciascunparametro permette, in particolare, di confrontare i risultati ponderatida quelli non ponderati e quindi valutare se nei fattori ritenuti piùimportanti dagli utenti, il servizio erogato funziona più o menoefficacemente.Le scale di valutazione a 7 punti dedicate rispettivamente a misurare leaspettative del cliente e le loro percezioni, i cui estremi corrispondono al“Pieno accordo” ed al “Pieno disaccordo” misurano agli attributi delservizio di ciascuna azienda.Tutti questi attributi sono relativi a 5 dimensioni, espresse in 22 + 22voci della qualità complessiva del servizio, che nelle imprese di servizisono:Aspetti tangibili: aspetto delle strutture fisiche, dell’attrezzatura, delpersonale e dei mezzi di comunicazione;Affidabilità: capacità di prestare il servizio promesso in modo affidabilee preciso.Capacità di risposta: volontà di aiutare i clienti e fornire prontamenteil servizio.Capacità di rassicurazione: grandezza che combina competenza,cortesia, credibilità e sicurezza.

Page 133: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

124

Empatia: grandezza che combina accesso, comunicazione ecomprensione del cliente1.

L’applicazione pratica del SERVQUAL si effettua [Par96a] [Par96b]rivedendo la sua forma standard e apportando gli aggiustamentinecessari per rilevare il giudizio del cliente, modificando adeguatamentegli attributi della sezione dedicata ad ogni dimensione, in relazione alcontesto dell’azienda in cui si sta operando.

4.5.1.2. Applicazioni del SERVQUAL

Le possibilità di utilizzo del SERVQUAL sono:- determinare, per ogni attributo del servizio, il valore dello scostamentomedio tra percezioni ed aspettative dei clienti;- valutare la qualità del servizio erogata da un’impresa per ciascunadelle cinque dimensioni;- calcolare il punteggio globale ponderato SERVQUAL di un’impresa.Questo punteggio tiene conto non solo degli scostamenti della qualitàdel servizio riferiti alle singole dimensioni ma anche dell’importanzarelativa di ognuna di queste (come indicato dal punteggio attribuito adogni dimensione);- seguire nel tempo l’evoluzione delle aspettative e delle percezioni deiclienti (rispetto ai vari attributi del servizio e/o alle dimensioniSERVQUAL);- confrontare i punteggi SERVQUAL di un’impresa con quelli deiconcorrenti;- identificare ed esaminare i segmenti di clientela che valutano inmaniera significativamente differente le performance di serviziodell’impresa;Il SERVQUAL risulta particolarmente valido quando viene impiegato,periodicamente, per eseguire a posteriori l’andamento della qualità delservizio e quando é utilizzato con altri indicatori.

1 Sebbene queste dimensioni rappresentano distintamente i diversi aspetti della qualità delservizio, esse sono correlate come risulta evidente dalle analisi degli stessi autori in cui essieffettuano la rotazione obliqua sulle soluzioni dei fattori.

Page 134: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

125

4.5.1.3. Il dibattito sul SERVQUAL

Numerosi studi basati sull’uso del SERVQUAL hanno criticato questostrumento di indagine ponendo diversi interrogativi riguardantisoprattutto il numero di dimensioni ed il punteggio differenziale.- il numero di dimensioniStudi successivi non sono stati in grado di riprodurre la struttura a 5dimensioni come quella presentata da Parasuraman, Zeithaml e Berry;per questi il numero di dimensioni varia da 2 a 8. Il motivo di questopuò essere dovuto sia alle differenze sulla raccolta dei dati e nelleprocedure di analisi sia al grado con cui le valutazioni dei clienti di unaspecifica azienda si mantengono più o meno simili attraverso le diversedimensioni (e quindi queste possono aumentare o diminuire).- la necessità di misurare la qualità del servizio come differenza trapunteggiL’applicazione operativa di qualsiasi modello concettuale comedifferenza tra due altri modelli è stata messa in discussione per motivipsicometrici, specialmente nei casi in cui le differenze tra punteggi sonoutilizzate per analisi multivariate. Coloro che criticano la validità delledifferenze tra punteggi hanno suggerito che le misure dirette del gap traaspettative-percezioni sono psicometricamente superiori. Ma le evidenzeempiriche disponibili non hanno dimostrato la superiorità delle misuredirette.

4.5.2. Il Qualitometro

4.5.2.1. Il modello concettualeIl progetto QUALITOMETRO attualmente in sperimentazione presso laBiblioteca del Dipartimento di Sistemi di Produzione ed Economiadell’Azienda (DISPEA) del Politecnico di Torino [Fra97] é stato concepitocercando di effettuare valutazioni e controlli in linea della qualità di unservizio o meglio del differenziale tra qualità attesa e percepita,affrontando due tipi di problemi relativi agli altri strumenti di solitoutilizzati:- La scalarizzazione delle informazioni :Negli altri strumenti durante codifica viene introdotta una metricaarbitraria che può portare ad un’errata interpretazione dei dati raccolti,quando, in fase di pre-elaborazione dei dati, le scale di valutazione apunti vengono trasformate in scale numeriche lineari ad intervallo checonsentono di ordinare gli oggetti in modo tale che differenze tra valori

Page 135: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

126

consecutivi della scala siano tra loro uguali2. Con queste scale, nonessendo definita l’origine, si possono eseguire solo operazioni diuguaglianza, disuguaglianza, ordinamento e sottrazione.Negli stessi strumenti si assume, inoltre, che il modo di intendere lascala sia lo stesso per tutti i soggetti intervistati e non vari nel tempoanche per quelli che usufruiscono periodicamente del servizio,entrambe ipotesi fortemente critiche dal punto di vista dell’aggregabilitàe l’interpretabilità dei dati.La scalarizzazione può causare, quindi un effetto di distorsione sulleinformazioni raccolte minandone “arbitrariamente” la veridicità.Nel QUALITOMETRO, invece, per superare l’attività di codificanumerica delle scale di valutazione, si lavora sulle proprietà ordinalidelle informazioni rilasciate dall’intervistato, ed inoltre si fa a menodell’ipotesi di omogeneità dei sistemi di riferimento adottati dagliintervistati.

-Valutazione contemporanea delle attese e delle percezioniLe stime di qualità attesa e di quella percepita vengono effettuate,differentemente dagli altri strumenti, separatamente con unquestionario di 8+8 domande (8 per la valutazione delle attese e 8 per lavalutazione delle percezioni), limitando al minimo i pericoli diinquinamento reciproci.La qualità attesa é rilevata mediante un questionario prima che l’utenteusufruisca del servizio, mentre quella percepita sullo stesso dopo averloricevuto.

4.5.2.2. La strutturaL’organizzazione dello strumento, con alcune varianti, é fondata sulledeterminanti della qualitá di un servizio presentate nel modello diParasuraman, Zeithaml e Berry. Il vantaggio del QUALITOMETRO, adifferenza degli altri metodi, é quello di essere meno intrusivo neiconfronti dell’utente.L’indagine viene effettuata con una scheda con scale di valutazione a 7punti.I dati ottenuti possono essere trattati similmente agli altri questionari(cardinalizzazione), oppure si può lavorare sulle proprietà ordinali delleinformazioni ottenute dall’intervista. 2 Per esempio, se si attribuiscono ai due estremi di una scala a sette punti leaffermazioni “pieno accordo’’ e “pieno disaccordo” i simboli numerici 1 e 7, e aciascuno dei punti intermedi un simbolo compreso tra 1 e 7 e si considera ladistanza tra due qualunque punti successivi identica su tutta la scala, si é di fattooperato il passaggio da una scala ordinale ad una cardinale ad intervallo.

Page 136: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

127

Per ogni intervistato, mediante l’analisi multicriteri, viene analizzata laprevalenza della qualità attesa sulla qualità percepita ( AQ > PQ ) oviceversa.Le tecniche di supporto alle decisioni dell’analisi a multicriteri (MCDA)consentono l’analisi e l’aggregazione delle preferenze espresse da undecisore in modo da consentire un confronto tra due alternative a ed bsulla base di vettori di valutazione g(a) e g(b).Quella utilizzata dal QUALITOMETRO é una relazione binaria detta disurclassamento (o prevalenza): a surclassa b -tenuto conto dellepreferenze implicite ed esplicite del decisore- se dati i criteri divalutazione delle due alternative, si può ammettere l’ipotesi che a épreferita ad b, ma nessuna delle due alternative é dominante in sensostretto.Il confronto viene, quindi, effettuato senza assegnare un punteggio aciascuna alternativa, ma individuando solo quella dominante.

4.5.2.3. Confronto tra SERVQUAL e QUALITOMETROIl SERVQUAL ed il QUALITOMETRO sono stati confrontati [Cig97]attraverso una sperimentazione su 15 clienti di un’azienda cheprovvede all’assistenza tecnica di apparecchiature per le prove sumateriali per simulazioni di laboratorio.I clienti che hanno utilizzato entrambi i questionari li hanno ritenutientrambi validi, ma hanno fatto notare che il QUALITOMETRO è difacile utilizzo e più immediato, mentre il SERVQUAL risulta molto piùlungo da compilare.Un pregio del SERVQUAL è quello di formulare le domande relative aipesi di importanza delle dimensioni in modo più efficace rispetto alQUALITOMETRO. Questo aspetto è stato evidenziato dallasperimentazione in cui si è rilevata una maggiore differenziazione nelleattribuzioni dei valori da parte dei clienti.

4.5.3. IL SERVPERF

4.5.3.1. Il modello concettualeElaborato da Cronin, Taylor e Steven [Cro92b] e [Cro94] è unostrumento che valuta la qualità del servizio solo tramite le percezioni esenza i pesi di importanza.

∑=

=5

1iiPQS

Dove la percezione relativa alla dimensione i-esima si puó scriverecome:

Page 137: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

128

∑=

=in

jjji PwP

1

dove:i = singola dimensione

in = n° di attributi per la dimensione i

jP = performance relative all’attributo j-esimo

=jw peso attribuito all’attributo j-esimoLe tesi di Cronin dimostrano che le percezioni misurate piùsinteticamente dalla scala delle sole performance da sole sonosufficienti a misurare la soddisfazione degli interrogati.Il vantaggio è quello di ridurre sensibilmente le domande poste (circa il50%) e come dimostrato da Cronin e Taylor [Cro92b], l’analisi delmodello supporta la superiorità della scala SERVPERF rispetto alSERVQUAL.

4.5.3.2. La strutturaLa struttura del questionario è del tutto simile a quella del SERVQUALrelativa alle sole percezioni. Le scale di valutazione sono comparative a7 punti. Mentre le dimensioni hanno la stessa importanza, lavalutazione dell’importanza relativa di ogni singolo attributo è chiestasempre al cliente, l’unica differenza è che non si chiede di allocare i 100punti come nel SERVQUAL, ma di utilizzare ancora una scala simile aquella usata nelle altre sezioni del questionario.

4.5.4. Normed Quality

4.5.4.1. Il modello concettualeTeas [Tea93] e [Tea94], definisce un indice della qualità percepitacalcolato come una differenza tra il livello massimo assoluto attribuito aciascun attributo e l’ideale realizzabile considerato in relazione allasituazione in cui il servizio viene erogato.

∑=

==5

1iiiNQwNQQS

Il punteggio NQ relativo alla dimensione i-esima si può esprimere con laseguente espressione, dove c’è una netta distinzione tra attesa reale eattesa realizzabile per ogni attributo del servizio.

Page 138: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

129

)([ ( )]jEj

n

ijjji IAIPwNQ

i−−−= ∑

=1

=jP percezioni relative all’attributo j-esimo;

EjA = attesa realizzabile per l’attributo j-esimo;

jI = attesa ideale per l’attributo j-esimo;

4.5.4.2. La strutturaLa struttura del modello NQ è sempre quella di un questionario a piùsezioni , il numero di dimensioni è sempre 5, cambia invece il numerodi enunciati che sono 10+10+10+10+10.Le scale utilizzate sono sempre comparative a 7 punti.

4.5.5. TWO-WAY Model

Tra gli altri strumenti proposti, nel TWO-WAY MODEL [Sch94]l’intervistato valuta numerose caratteristiche del servizio sotto dueaspetti uno “oggettivo” (con riferimento alla presenza ed all’assenza dialcuni attributi della qualità) ed uno "soggettivo” (che implical’insoddisfazione o la soddisfazione per il servizio ricevuto). Unquestionario con coppie di domande relative ai due aspetti permette diclassificare le risposte date ai clienti e valutare il servizio offerto.La valutazione TWO-WAY è semplicemente rivolta ad identificare,derivando le aspettative del cliente dalle risposte ai questionari, gliattributi che il servizio ha o dovrebbe avere e valutando in base a questiil servizio offerto.Gli attributi della qualità sono classificati, nelle seguenti categorie:Attributi attrattivi: sono attributi la cui presenza dà soddisfazione ma lacui assenza non causa insoddisfazione;Attributi one-dimensional: Attributi la cui presenza causa soddisfazione,ma la cui assenza genera insoddisfazione;Attributi “must-be”: Attributi la cui presenza è implicita ed è accettatasenza creare soddisfazione, ma la cui assenza genera insoddisfazione;Attributi indifferenti: Attributi la cui esistenza è indifferente ai fini dellaqualità;Attributi inversi : Attributi la cui presenza genera insoddisfazione e lacui assenza genera soddisfazione.

Page 139: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

130

Valutazione

del cliente* quandoun attributo della

qualità è

Attrattivi One-dimensional

“Must-be” Indifferenti Inversi

Presente + + 0 0 -

Assente 0 - - 0 +

Tabella 4.2: Categorie di attributi della qualità del Two-way model ( -insoddisfazione, + soddisfazione, 0 neutrale)

Page 140: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

131

SERVQUAL QUALITO-METRO

NORMEDQUALITY

SERV-PERF

TWO-WAY

[Par85][Par88][Par91[Par96]

[Fra97] [Tea93][Tea94]

[Cro92b][Cro94]

[Sch94]

Fondamentoteorico alla

base delmetodo

Ledeterminantidella qualitádel servizio,cioé gap tra

qualitáattesa equalitá

percepita,ognuna

mediata con ipesi di

importanza

Sulla basedella teoriadei gap e

delledeterminan

ti dellaqualitá delservizio si

misurano leattese e lepercezioni

in momentiseparati.

Si distinguetra atteseideali edattese

realizzabili.

La qualitádel servizioé valutatatramite le

solepercezioni.

La qualitádel servizioé valutatasu risposte

aquestionari

chevalutanoaspetti

“oggettivi”ed aspetti

“soggettivi”.

Scala perrisposte

Semanticadifferenziale

a 7 punti

Comparativa a 7 punti

Semanticadifferenziale

a 7 punti

Semanticadifferenziale a 7 punti

Semanticaa 5 punti.

Importanzadelle

dimensioni

Valutazionedei pesi asommacostante

Comparativa a 7 punti

Valutazionedei pesi asommacostante

Valutazione dei pesi a

sommacostante

Nonrichiesto

Analisi deidati

Analisifattoriale

seguita darotazioneobliqua

MetodiMCDA

Analisifattoriale

seguita darotazioneobliqua

Analisifattoriale

seguita darotazioneobliqua

Analisifattoriale

Tipo di pre-elaborazione

dei dati

Scalarizzazione

Scalarizzazione

Scalarizzazione

Scalarizzazione

Scalarizzazione

Dimensionidel

campione

290-487 80 120 660 330

Numerodimensioni

Cinque Cinque Cinque Cinque Cinque

Tabella 4.3:Confronto di alcuni strumenti utilizzati per la valutazionedella qualitá del servizio [Cal97].

Page 141: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

132

4.6. Proposta di una nuova metodologia dianalisi dei dati di Customer Satisfactionbasata sulle reti di dipendenza bayesiane

L’analisi dei metodi proposti in letteratura fa emergere due principaliaspetti che motivano la proposta del metodo proposto. Il primo riguardal’ipotesi di indipendenza tra i giudizi emessi relativamente ad ognidomanda sottoposta all’intervistato. In realtà, visto che la modalità concui lo stesso collega mentalmente i vari aspetti della qualità percepita èincognita, potrebbe esistere una correlazione tra i vari aspetti su cuil’utente è chiamato ad esprimersi. A valle di un analisi dei dati raccoltipuò quindi essere molto utile analizzare la struttura di questacorrelazione per evidenziare in primo luogo dei cluster di domandacorrelate. Questi cluster vanno a definire dei macroindicatori che è utilemonitorare nel tempo. Inoltre, all’interno di ogni cluster, può essereopportuno evidenziare i legami di dipendenza condizionale tra i variindicatori su cui il cliente esprime il proprio giudizio. Può infatticapitare che qualche domanda sia ridondante e possa, di conseguenzaessere eliminata. Questa fase, detta di taratura, del questionario puònotevolmente incrementare l’efficacia dell’intervista, visto che laconcentrazione di chi risponde, e di conseguenza l’affidabilità dellerisposte fornite, è fortemente dipendente dal numero di domande cui èsottoposto.Il secondo aspetto che ha motivato la ricerca di un approccio alternativosi riferisce alla intrinseca caratteristica di multidimensionalità delservizio. Per ovviare al problema di dover sintetizzare in un unicoindicatore la qualità del servizio, tutti i metodi proposti in letteraturarichiedono direttamente all’intervistato di esprimere un giudizio sulpeso d’importanza delle varie dimensioni della qualità indagate tramiteil questionario. Il problema di sintetizzare in un peso l’importanzarelativa di aspetti caratterizzati da una forte disomogeneità, è però unproblema tutt’altro che semplice, diffusamente trattato in letteraturanella teoria della decisione strutturata a molti criteri (MCDA: MultiCriteria Decision Analysis) o meglio quella parte di essa nota comeMADM (Multi Attribute Decision Making). L’approccio più diffuso inquest’ambito l’Analytical Hierarchical Process [Saa96], sottolinea comeper valutare il peso d’importanza di attributi molto disomogenei, risultanecessario sottoporre l’intervistato a confronti a coppie.L’approccio indagato in [Col98] e [Lau97] relativamente alla qualità delservizio logistico in BTicino, è stato tuttavia recepito male dagliintervistati, i quali hanno rimproverano al questionario AHP l’eccessivalunghezza da dedicare nella compilazione.

Page 142: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

133

A valle di queste esperienze, l’approccio proposto in questo capitoloribalta completamente l’ottica, sfruttando il fatto che è consuetudineincludere nel questionario una domanda relativa alla soddisfazionecomplessiva del cliente relativamente al servizio percepito.Analizzando la correlazione esistente tra la risposta fornita a questadomanda e l’esito relativo alle altre, è possibile individuareautomaticamente l’importanza relativa dei vari indicatori.Ad esempio se la soddisfazione generale è sempre molto ridotta quando,contestualmente, il cliente indica un basso grado di soddisfazione per iltempo di risposta dell’azienda, è possibile ritenere che quest’aspettoinfluenzi fortemente il grado di soddisfazione generale.In altre parole il grado di correlazione tra le variabili su cui il cliente èchiamato ad esprimersi può fornire importanti indicazioni su comequeste si influenzino l’un l’altra e su come ognuna di queste influenzi ilgiudizio complessivo sulla qualità percepita. Con questo obiettivo,utilizzeremo le reti di dipendenza bayesiane al fine di individuare ilegami statistici tra le variabili su cui il cliente è chiamato ad esprimereun giudizio.

4.7. Le reti di dipendenza bayesiane

Formalmente una rete bayesiana (Bayesian Network BN) è definita daun insieme di variabili X=(X1, X2, ..Xn) e da una rete M, un grafoaciclico diretto (Direct Acyclic Graph (DAG)), che definisce il modello didipendenza condizionale tra gli elementi di X. Senza perdere digeneralità si assume che la generica variabile Xi è discreta e può

assumere ri possibili valori irii xx ,...,1 . Se la ima variabile ha una

distribuzione che dipende solo dai valori assunti dall’insieme deivariabili X⊂Π i , questa variabile è detta child (figlio) delle variabili in

i? . Simmetricamente le variabili in i? sono considerate parents(genitori) di Xi.Graficamente, ogni variabile in X è rappresentata da un nodo nel grafoM, mentre un legame di dipendenza condizionale è rappresentato nelgrafo M mediante un arco orientato che parte da un parent in iΠ , perarrivare alla variabile Xi child.La mancanza di archi in M rappresenta quindi l’ipotesi di indipendenzacondizionale tra le variabili non connesse. Data la struttura del DAG M,la probabilità congiunta di X può quindi essere fattorizzata in:

∏=

=n

iij

kk

iixpp

1)|()( px

Page 143: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

134

dove ijp rappresenta la configurazione delle variabili incluse in iΠ in

kx . Di conseguenza il vantaggio computazionale della strutturarappresentata nella rete bayesiana è essenzialmente la fattorizzazionedella distribuzione di probabilità congiunta.Come esempio di BN, si consideri il DAG rappresentato in Figura 4.3.

Y3

Y1 Y2

Figura 4.3: Un semplice Direct Acyclic Graph (DAG) che rappresentauna rete di dipendenza bayesiana

Si assume per semplicità che tutte e tre le variabili 1,...,3)( =iX i ,possano assumere due valori: )3,...,1( 2 == iri . Come si può osservaredal DAG, ),( and 21321 XX=Π=Π=Π φ . Visto che 21 and XX possonoentrambi assumere due valori, 3Π può assumere quattro valori j3π ,corrispondenti a quattro possibili combinazioni delle occorrenze di

21 and XX : ),( ),,( ),,( ),,( 221234211233221132211131 xxxxxxxx ==== ππππ

Quindi la probabilità congiunta di un occorrenza: { }322111 , , yyyk =ypuò essere calcolata come:

),|()()()|()()()( 211132211131322111 yyypypypypypypp k == πy .

Come risulta dall’esempio appena descritto, la conoscenza dellastruttura di dipendenza condizionale tra le diverse variabili, puòsemplificare la valutazione della funzione di probabilità congiunta.I primi utilizzi delle reti di dipendenza bayesiane prevedevano che gliesperti indicassero la struttura dei legami di dipendenza (DAG)permettendo una valutazione numerica delle probabilità condizionate apartire dai dati campionari. Questo modo di procedere è molto simile aquanto si esegue tradizionalmente con i sistemi esperti, in cui lastruttura dei legami tra le variabili in oggetto è fornita dall’esperienza dicoloro i quali progettano il sistema esperto. Il grande passo in avantinell’applicazione delle reti di dipendenza bayesiane tuttavia è statocompiuto nel momento in cui sono stati individuati dei metodi per

Page 144: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

135

dedurre la struttura del modello di BBN a partire dai soli daticampionari, senza la necessità di ricorrere alla conoscenza degli esperti.Grazie alla flessibilità dell’approccio bayesiano, è possibile inoltreutilizzare entrambe le fonti di informazione: la conoscenza degli espertipuò infatti essere modellata attraverso una prior sulla struttura dellaBBN, la quale, insieme all’informazione proveniente dai dati è usata perstimare la posterior sulla struttura del modello. Come sempre, nel casoin cui non si disponga di un informazione iniziale, la prior può esserenon informativa, lasciando solo all’informazione proveniente dai dati ilruolo di definire la struttura della BBN.In un ottica di continuo aggiornamento della conoscenza e dimiglioramento continuo della qualità, la flessibilità dell’approcciobayesiano può anche essere utilizzata come aggiornamento dellaconoscenza acquisita fino a quel momento. Si supponga di avereseguito un cero numero di campionamenti che hanno fornito unmodello a posteriori della rete BN. In seguito ad un ulteriorecampionamento, questo modello può essere considerato come prior daaggiornare con i dati provenienti dal campione. In quest’ottica non c’èindicazione soggettiva e il metodo di aggiornamento della conoscenzacon meccanismo bayesiano continua a utilizzare i dati osservati neicampioni che via via vengono raccolti.Un punto critico nella scelta della metodologia per individuare la retebayesiana dai dati collezionati in un database è la presenza di datimancanti. Considerando l’applicazione per cui si intende utilizzarel’approccio, è possibile prevedere che alcuni quesiti dei questionarisottoposti ai clienti possano rimanere senza risposta. In questo casorisulta quindi necessario utilizzare un approccio in grado di mantenerevalidità nel caso di dati mancanti.A valle di quest’ultima specifica, si è scelto di utilizzare il softwareBayesian Belief Network, sviluppato presso la Open University[http://kmi.open.ac.uk/projects/bkd/]. I dettagli degli algoritmiimplementati e dell’interfaccia del software sono riportati in AppendiceD.

Page 145: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

136

4.8. Analisi di Customer Satisfaction: il caso“ Call Center ASSITALIA”

Il questionario oggetto di studio è stato utilizzato nella sezione CallCenter dell’Assitalia per la rilevazione della Customer Satisfaction edimpiegato, per una prima analisi indicativa di taratura dello stesso, inun sondaggio che ha coinvolto un campione di 60 agenti esterni facenticapo alla stessa azienda.Le domande sottoposte agli intervistati sono riassunte in Tabella 4.4,dove, insieme alle domande, si riportano le possibili risposte.Coerentemente con quanto indicato per le reti di dipendenza bayesiane,le domande poste agli intervistati sono trattate come variabili e lepossibili risposte sono considerate come “stati” delle “variabili”. InTabella 4.5 è inoltre riportata, per ogni domanda del questionario, lafrequenza di risposte ottenute sul campione intervistato. Prima diprocedere con l’individuazione della rete di dipendenza bayesiana,occorre effettuare una prima analisi qualitativa dei dati. Quest’analisipermette di elaborare delle considerazioni su eventuali dati inutili o nonadatti allo studio prefissato. In quest’ottica è stato confrontato ilquestionario utilizzato dall’Assitalia con i dati raccolti attraversol’indagine e si è giunti a delle conclusioni sulle informazioni di cuiavvalersi nella ricerca.La prima informazione raccolta circa la disponibilità dell’intervistato arispondere alle domande del questionario è stata considerata noninerente all’analisi da noi svolta, quindi, pur inserendo i dati in unprimo Database riassuntivo per eventuali valutazioni sulla percentualedi risposta ottenuta (Redemption), essa non viene contemplata nelseguito dell’indagine.Per quanto riguarda la quarta domanda circa gli orari di apertura delservizio Call Center preferiti dall’utente, la decisione di noncomprendere i pochi dati raccolti nel Database definitivo è dipesadall’esigua consistenza delle risposte ottenute, 15 su 60, ossia il 25%.Non si sono ritenute affidabili le stime effettuate dal software sul 75% didati mancanti, essendo molto probabile la possibilità di giungere aconclusioni sbagliate e prendendo inoltre atto del fatto che la domandacosì posta non ha suscitato l’interesse degli intervistati. Questarinuncia a rispondere può essere interpretata come soddisfazione pergli orari attuali, per altro già richiesta nella domanda precedente,oppure come mancanza da parte della clientela di necessità precisesull’argomento. In ogni caso le risposte rilevate sono state registrate nel

Page 146: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

137

primo Database, sempre a disposizione dei responsabili per successivevalutazioni.

Domanda Variabile Risposta Stato0 Disponibilità all'intervista DISPONIBILITÀ Si 1

No 21 Soddisfazione generale SODDISFAZION

ENulla 1

Abbastanza 2Molto 3

2 Servizio Call Center vs.tradizionale

CC/TRAD Peggiore 1

Uguale 2Migliore 3

3 Orario Lun-Ven 8.30/18.30 ORARIO Nulla 1Abbastanza 2

Molto 34 Orario preferito ORAPREF Sab 8/13 1

Sab-Dom8/13

2

Tutti gg 8/22 324h/24 4

5 Risposta operatore RISPOSTA Subito 1Attesa 2

Occupato 36 Soddisfazione per modalità di

contattoCONTATTO Nulla 1

Abbastanza 2Molto 3

7 Soddisfazione per capacitàoperatore

CAPACITA’ Nulla 1

Abbastanza 2Molto 3

8 Numero telefonate necessarie TELEFONATE una 1oltre 2

9 Tempo al telefono per denuncia TEMPO < 5min 15min - 10

min2

10min - 15min

3

oltre 410 Soddisfatto della durata SODDDURATA Nulla 1

Page 147: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

138

Abbastanza 2Molto 3

12 Durata ottimale dellacomunicazione

DUROTT < 5min 1

5min - 10min

2

10min - 15min

3

Nonimportante

4

13 Processo raccolta dati RACCOLTADATI

Necessari 1

Già noti 2Chiesti più

volte3

Ricavabili 4

Tabella 4.4 Domande e stati delle variabili per l’analisi delle dipendenze

0 Disponibilità all'intervista Si 59No 1

Totaleintervistati

60

1 Soddisfazione generale Nulla 4Abbastanza 29

Molto 242 Servizio Call Center vs.

tradizionalePeggiore 6

Uguale 13Migliore 34

3 Orario Lun-Ven 8.30/18.30 Nulla 0Abbastanza 12

Molto 454 Orario preferito Sab 8/13 14

Sab-Dom 8/13 0Tutti gg 8/22 0

24h/24 15 Risposta operatore Subito 53

Attesa 4Occupato 2

6 Soddisfazione per modalità dicontatto

Nulla 0

Page 148: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

139

Abbastanza 7Molto 52

7 Soddisfazione per capacitàoperatore

Nulla 0

Abbastanza 18Molto 38

8 Numero telefonate necessarie una 55oltre 4

9 Tempo al telefono perdenuncia

< 5min 27

5min - 10 min 2510min - 15

min2

oltre 010 Soddisfatto della durata Nulla 4

Abbastanza 26Molto 28

12 Durata ottimale dellacomunicazione

< 5min 32

5min - 10 min 1110min - 15

min0

Nonimportante

0

13 Processo raccolta dati Necessari 47Già noti 4

Chiesti piùvolte

1

Ricavabili 3

Tabella 4.5 Tabella riassuntiva dei dati raccolti

4.8.1.1. Scelta della strategia di ricerca per ilQuestionario Assitalia

La scelta della strategia di ricerca dei legami di correlazione tra ledomande del questionario di Customer Satisfaction considerato, implicadelle attente valutazioni sia sulla sua struttura che sulle relazioni chepotrebbero evidenziarsi dall’analisi.La strategia Exhaustive, proposta nelle preferenze del BKD, oltre chenon essere disponibile nella recente versione del software, risulta didifficile implementazione e di elevato costo di elaborazione, quindi nonviene presa in considerazione nell’analisi del nostro problema. Gli

Page 149: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

140

obiettivi proposti possono essere raggiunti utilizzando i dati ricavatiattraverso le strategie Greedy e Arc Inversion, le quali evidenzianocomunque in modo esauriente le reti di correlazione tra le variabili,riducendo di molto il costo di elaborazione. Ricordiamo che la secondaè un’applicazione della prima metodologia, eliminando peròparzialmente la dipendenza dei rapporti di correlazione dalla posizionedelle variabili nel DB.La ricerca Greedy è la più semplice e veloce in quanto partendodall’ultima variabile del DB analizza gli eventuali legami con i nodi chela precedono, tracciando gli archi che portano ad una configurazione diMassima Verosimiglianza. La forte dipendenza della rete dalle diversesuccessioni possibili delle variabili nel DB, pone dei problemi sullavalidità dei legami ottenuti. Questa strategia di ricerca può essereconsiderata valida ipotizzando che, durante lo svolgersi dell’indaginetelefonica, le domande precedenti possano influenzare in qualche modole risposte successive dell’utente, in pratica, che i legami possanosoltanto seguire l’ordine del questionario. Lo svantaggio principale diquesta tecnica è il fatto di trascurare dei rapporti di correlazione tra levariabili, arrivando quindi ad alcune conclusioni sbagliate sui rapportitra i nodi.La strategia Arc Inversion appare la più affidabile e corretta nellavalutazione della rete bayesiana in quanto evita di assegnare troppaimportanza all’ordine di formulazione delle domande nel questionario,garantendo una maggiore attendibilità sulla completezza nell’analisi deilegami e sulla effettiva consistenza dei rapporti di dipendenza ipotizzati.

4.8.2. Analisi dei dati e rappresentazionedei risultati

La strategia di ricerca utilizzata è stata l’Arc Inversion che, comeanticipato, determina un risultato dipendente dalla sequenza con cuisono considerate le variabili. Per avere una più chiara visione delfunzionamento del software ed una più precisa individuazione dellecorrelazioni forti tra i nodi della rete, sono state utilizzate dellepermutazioni del database originario, generate casualmente.Quindi sono state condotte le analisi di correlazione che hanno prodottoaltrettante rappresentazioni reticolari dei legami tra le variabili; questostudio può essere considerato un’analisi di sensitività in quantoevidenzia le variazioni dell’output, cioè i legami tra i nodi, al variare deidati in input, rappresentati dalla posizione delle colonne del Database.

Page 150: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

141

4.8.2.1. I legami tra le domande del questionario

L’analisi di sensitività, costituita da una applicazione del programmaBKD a diverse permutazioni delle colonne del Database, ha portato allaproduzione di risultati interessanti.In primo luogo sono stati evidenziati i grossi limiti della strategia diricerca Greedy, la quale è altamente sensibile alla disposizione dellevariabili nel Database e quindi non è applicabile al nostro tipo dianalisi, ritenendo poco probabile un influenza significativa dellasequenza delle domande sull’opinione dei clienti circa il servizioricevuto.La ricerca è stata focalizzata sulla strategia Arc Inversion, la quale,dopo aver considerato i possibili legami seguendo l’ordine delle variabili,valuta anche altre dipendenze al di fuori di questo ordine, sempre chenon introducano dei cicli. L’applicazione ripetuta di questa analisi aidiversi Database ottenuti attraverso le permutazioni, ha supplito inqualche modo alla mancanza della strategia Exhaustive nel softwareBKD, portando all’identificazione di legami di dipendenza forti tra levariabili in questione.La struttura finale ottenuta dall’analisi è rappresentata in Figura 4.4:questo grafo orientato è il modello di dipendenza che, tra tutte lepermutazioni considerate, ha dato luogo alla massima verosimiglianza(LogLikelihood=-324,39989) ed è quindi da assumersi come modello diriferimento. Dall’osservazione della figura si notano immediatamente i 3gruppi di legami che saranno analizzati più approfonditamente nelprossimo paragrafo.

Figura 4.4 Rete Bayesiana ottenuta dall’analisi dei dati (strategia diricerca Arc Inversion)

Page 151: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

142

Evidenziato il legame generale tra le variabili (Figura 4.4), vengonoesaminati più attentamente i rapporti di dipendenza, sempre attraversoil metodo della massima verosimiglianza, cercando l’effettivacorrelazione tra i nodi considerati. In Tabella 4.6 è riportata l’analisi deilegami tra le variabili con i relativi valori della Likelihood; i massimi traquesti sono stati evidenziati. I legami evidenziati dalla rete bayesianadelle dipendenze sono:

1) TEMPO-SODDDURATA-DUROTT-RACCOLTADATI2) CAPACITA’-TELEFONATE3) ORARIO-RISPOSTA

Analizziano più in dettaglio i risultati ottenuti:

1) TEMPO-SODDDURATA-DUROTT-RACCOLTADATIQuesto legame sottolinea la correlazione tra la soddisfazione del clienteper la durata della telefonata (domanda n°10 del questionario), lapercezione del tempo passato al telefono (domanda n°9), l’indicazione,da parte del cliente stesso, di una ipotetica durata ottimale dellaconversazione (domanda n°12) ed il giudizio sul processo di raccolta deidati. Il legame rappresentato può derivare dal fatto che la soddisfazionedel cliente per la durata della telefonata di denuncia del sinistroinfluenza la sua percezione della durata effettiva trascorsa, quindibisogna considerare anche i motivi psicologici che portano allaformazione del giudizio. Si comprende infatti quanto la soddisfazioneper un fattore del servizio faccia cambiare la prospettiva di valutazionedell’utente: se il cliente è rimasto veramente soddisfatto della duratadella telefonata è molto probabile che la sua indicazione del tempopassato al telefono tenda al minimo riportato nel questionario; se illivello di soddisfazione per l’aspetto temporale del servizio è moltobasso, probabilmente l’indicazione dei minuti passati all’apparecchioper la denuncia tenderà ad aumentare e ad essere anche maggiore delperiodo effettivamente impiegato.Dai dati in Appendice D si ricava che, se il cliente si ritiene “molto”soddisfatto del poco tempo necessario per la denuncia, è più probabile(probabilità condizionata = 0,702) che indichi una durata dellatelefonata minore di 5 minuti, mentre se egli si considera “abbastanza”soddisfatto, la percezione della durata aumenta ad un tempo compresotra 5 e 10 minuti.

Page 152: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

143

Figura 4.5 Legame Tempo-Sodddurata-Durott-Raccoltadati

E’ da notare che, in nessuno dei 60 questionari rilevati, sia presenteuna durata superiore ai 15 minuti ed una soddisfazione nulla, il chesignifica che la politica dell’azienda sulla minimizzazione dei tempi perla denuncia di un sinistro è stata recepita ed applicata facilmente dalpersonale di Front-Office.Dai dati di Verosimiglianza e di probabilità condizionata circa la Durataottimale richiesta dai clienti, si deduce che, per tutti gli intervistati, latelefonata deve durare sicuramente meno di 10 minuti. Gli utenti che sisono dichiarati soddisfatti per una durata della telefonata di meno di 5minuti, è molto probabile (p=0,991) che indichino una durata ottimaledello stesso ordine di grandezza; fra coloro che, invece, hannoriscontrato una durata maggiore (5–10 minuti), le risposte si dividononell’indicazione di tempi di 5-10 minuti (p=0,497), per quelli cheprobabilmente erano rimasti soddisfatti della durata dellacomunicazione, e meno di 5 minuti (p=0,497), per i ‘non completamentesoddisfatti’ o insoddisfatti.La percezione della correttezza del processo di raccolta dei dati risultaessere influenzata dalla valutazione, da parte degli utenti, del temporealmente necessario alla raccolta dei dati per la denuncia di unsinistro. Dall’analisi dei risultati del BKD risulta che: chi ha indicatocome durata ottimale il tempo effettivo impiegato per la denuncia èprobabile che fosse soddisfatto della durata della telefonata, e quindi,probabilmente, avrà anche affermato che gli sono stati chiesti solo i datinecessari (si nota infatti una preponderanza della probabilità degli stati[1,1]=0,885 e [2,1]=0,916); la diminuzione della probabilità nel caso chefosse stata indicata la durata ottimale minima è imputabile al fatto che,come detto precedentemente, i clienti insoddisfatti indicano la durata di5 minuti, ritenendo che il processo di raccolta dei dati non sia statosufficientemente efficiente, avendo sprecato tempo in domanderidondanti ed inutili.

Page 153: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

144

Legame1 Durott Sodddurat

aTempo -49,065 Legame

Durott Tempo -50,591 3 Durott Raccoltadati

-34,774

Sodddurata

Tempo -54,950 Raccoltadati

-37,257

Tempo -55,735 Raccoltadati

Durott -45,099

Tempo Durott Sodddurata

Durott -40,874

Tempo Sodddurata

-58,565

Sodddurata

-58,279

Durott Sodddurata

-62,943

Tempo Sodddurata

Durott -35,096

Tempo Durott -33,377Durott -40,874

Sodddurata

Durott -46,03

Legame Legame2 Capacità Telefonate -15,975 4 Orario Risposta -

23,832Telefonate -17,178 Risposta -

27,846Telefonate Capacità -43,423 Risposta Orario -

37,697Capacità -41,749 Orario -

35,176

Tabella 4.6 Valori di Verosimiglianza dei legami considerati

Page 154: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

145

Legame1 Tempo Sodddurat

aProb. Temp

oSodddura

taDurot

tProb.

1 3 0,652 1 1 1 0,5002 2 0,539 1 2 1 0,9933 2 0,894 1 3 1 0,996

2 1 1 0,9822 2 1 0,5382 3 2 0,9863 1 1 0,5003 2 1 0,5003 3 1 0,500

Legame2 Soddisfazi

oneTelefonate Prob.

1 1 0,9702 1 0,8653 1 0,994

Soddisfazione

Contatto Prob.

1 3 0,7312 3 0,8183 3 0,993

Legame3 CC/Trad Soddisfazi

oneProb.

1 1 0,4642 2 0,9133 3 0,618

Legame4 Tempo Orario Prob.

1 3 0,8912 3 0,7413 2 0,911

Tabella 4.7 Valori di probabilità condizionata.

Page 155: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

146

2) CAPACITA’-TELEFONATEAnalizzando i valori della Verosimiglianza per questo secondo gruppo divariabili Figura 4.6 , si nota che le misure maggiori si sono rilevate peril legame tra la percezione della capacità dell’operatore telefonico ed ilnumero di telefonate che sono state necessarie per la denuncia delsinistro.

Figura 4.6 Legame Capacita’-Telefonate

Dall’analisi dei valori di probabilità condizionata, riportati in AppendiceD, si nota come una buona capacità dell’operatore nel contatto con ilcliente influisce sul numero di telefonate necessarie alla chiusura dellapratica; in effetti, nella grande maggioranza di casi in cui il personale diFront Office è stato giudicato molto preparato per le richieste proposte,è bastata una telefonata per portare a termine la denuncia.Si nota quindi che il legame più intuitivo a cui si può pensare perqueste variabili, ossia che il numero di telefonate necessarie influiscadirettamente sulla valutazione del cliente circa le capacità deglioperatori, non ha il valore di verosimiglianza massimo, mentre sievidenzia il fatto che la preparazione e l’esperienza degli operatori puòinfluire sull’erogazione del servizio, almeno per quanto riguarda lapercezione della clientela.La domanda sul numero di telefonate è poi molto importante comeindicatore di efficienza del servizio e del personale di Front-Office,quindi conviene sia sempre monitorata.

3) Legame ORARIO-RISPOSTAL’ultimo legame che risulta dall’analisi dei Database è quello che lega lasoddisfazione per l’orario del servizio attualmente in vigore el’immediatezza di risposta avuta al momento della chiamata (Figura 4.7). Questo gruppo di variabili si riferisce evidentemente alla capacitàdimensionale del servizio Call Center in quanto, chi si è ritenuto moltoo abbastanza soddisfatto degli orari di servizio, probabilmente haricevuto, al momento della chiamata, la risposta immediatadell’operatore (p=0,905 e p=0,981); ciò vuol dire che il personale a

Page 156: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

147

disposizione dei clienti, nella fascia di orario utilizzata, è giudicatosufficiente. Coloro che, invece, hanno valutato gli orari nonsoddisfacenti, registrano una maggiore distribuzione di eventi attesa elinea occupata nella risposta numero 6.

Figura 4.7 Legame Orario-Risposta

Quindi, si riesce a comprendere come i livelli di soddisfazione perl’orario di apertura del Call Center implichino diverse situazioni almomento della chiamata.Alla luce dello studio realizzato, l’utilizzo del software BKD nell’analisidei questionari di Customer Satisfaction risulta essere importante perfocalizzare l’attenzione sui legami evidenziati, i quali, a loro volta,devono poi essere approfonditi attraverso le conoscenze a disposizionedell’organizzazione. Il metodo della massima verosimiglianza èparticolarmente utile per rappresentare la struttura della reteBayesiana delle dipendenze tra le variabili considerate, in modo dapoter considerare nei successivi studi solo i legami indicati snellendo esemplificando così l’ulteriore approfondimento. L’esame dei sessantaquestionari a disposizione ha portato alla formulazione di alcunisuggerimenti per i responsabili del monitoraggio della CustomerSatisfaction di Assitalia, al fine di ottimizzare il questionario proposto e,quindi, facilitare la raccolta dei dati e la successiva analisi.Gli addetti al processo di progettazione del questionario, che, comericordiamo, è in fase di taratura, devono prestare particolare attenzioneai 4 gruppi, o cluster, di variabili che riguardano l’aspetto temporale,l’accessibilità, le capacità degli operatori e le modalità di contatto nelservizio di Call Center.Gli aspetti del servizio considerato concorreranno poi, in misuradiversa, alla percezione del livello di soddisfazione globale del cliente peril servizio fruito; i prossimi paragrafi si occuperanno piùapprofonditamente di questo argomento

4.8.2.2. Determinazione dei pesi di importanza

La valutazione della soddisfazione globale per il servizio utilizzato èsicuramente un valore da tenere continuamente in osservazione nel

Page 157: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

148

tempo, rappresentando in modo globale l’andamento del processo dierogazione del servizio da parte dell’azienda. Per comprendere qualisono i fattori che possono maggiormente influenzarla, si è procedutoalla stima delle dipendenze condizionali delle altre variabili su cui ilcliente è chiamato ad esprimere un giudizio, con questa di riferimento.Da quest’analisi è venuto fuori un importante legame tra la variabile delquestionario riguardante la soddisfazione generale per il servizio fruito (domanda n°1) e quella che esprime il confronto tra il Call Center edl’iter di liquidazione tradizionale (domanda n°2). Questo legame risultaabbastanza comprensibile, visto che la soddisfazione comprendesicuramente la percezione del miglioramento rispetto alle condizionipassate, quindi, chi si ritiene soddisfatto, molto probabilmente valuta ilnuovo servizio migliore del precedente.Dal punto di vista probabilistico rileviamo questa dipendenza inquanto, analizzando i dati di Tabella 4.8, si osserva che:- se il servizio Call Center è giudicato peggiore del tradizionale, la

soddisfazione generale per il nuovo servizio è più probabile che sianulla

- se il Call Center è giudicato uguale al servizio tradizionale, esso èvalutato abbastanza soddisfacente

- se, infine, il nuovo servizio è percepito come migliore, la suavalutazione generale tende ad essere molto soddisfacente

Legame Verosimiglianza

CC/Trad Soddisfazione -47,979Soddisfazione -58,217

Soddisfazione CC/Trad -48,741CC/Trad -56,542

CC/Trad Soddisfazione Probabilità1 (peggiore) 1 (nulla) 0,4642 (uguale) 2 (abbastanza) 0,913

3 (migliore) 3 (molto) 0,618

Tabella 4.8 Analisi del legame SODDISFAZIONE - CC/TRAD

Da questo risultato si può facilmente dedurre che il grado disoddisfazione generale per il nuovo servizio nasce dal confronto che ilcliente opera, più o meno consciamente, con il tradizionale, quindi unadelle due domande risulta essere ridondante. La decisione di eliminarneuna deve essere motivata e discussa con la direzione, in quanto, perquanto riguarda gli argomenti di maggiore interesse per l’azienda,l’opinione dei clienti può essere richiesta più volte, sondando così in

Page 158: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

149

maniera più precisa ed affidabile la loro percezione di questi aspetti. Sesi ragionasse nell’ottica della minimizzazione del tempo dell’indagine, ledomande n°1 e 2 (portando praticamente alle stesse conclusioni)andrebbero riformulate in un unico quesito, ma, valutando questirisultati ridondanti come un’indicazione maggiormente precisa e sicuradella soddisfazione degli utenti, esse possono rimanere inalterate.Approfondendo l’analisi dei valori di verosimiglianza delle relazioni tra ifattori del servizio e la soddisfazione generale, si potrà evidenziare laconsistenza dei legami e quindi derivarne una classificazione diimportanza relativa nella realizzazione di un servizio di qualità. Questodarà la possibilità all’azienda, in caso di soddisfazione positiva, dievidenziare i punti di forza nei confronti della clientela e, in caso diinsoddisfazione, di apportare i dovuti miglioramenti alle caratteristichedel servizio considerate più importanti dagli utenti. Questa metodologiadi analisi può essere generalizzata in uno strumento di controllo neltempo delle percezioni dei clienti circa il servizio erogato. LaSoddisfazione è generata dall’insieme dei fattori considerati, i qualiassumono diversa importanza in base al cambiamento delle necessitàdel cliente, delle capacità degli operatori, oppure della struttura stessadel servizio. Un monitoraggio, parallelo all’indagine di CustomerSatisfaction, di queste particolari relazioni, porta ad una definizioneautomatica dei pesi di importanza dei fattori rispetto all’indicatoreglobale della Soddisfazione. Infatti la determinazione dell’importanzarelativa può essere svolta attraverso l’analisi dei valori diverosimiglianza elaborati dal BKD (strategia di ricerca Greedy),considerando come nodo principale la SODDISFAZIONE e confrontandotra loro le misure elaborate dal software, come è rappresentato inTabella 4.9

Legame Verosimiglianza PosizioneDUROTT – SODDISFAZIONE -56,677 1TELEFONATE – SODDISFAZIONE -57,830 2CONTATTO - SODDISFAZIONE -58,273 3TEMPO – SODDISFAZIONE -59,791 4SODDDURATA - SODDISFAZIONE -61,997 5CAPACITA’ - SODDISFAZIONE -63,835 6ORARIO - SODDISFAZIONE -64,106 7RISPOSTA – SODDISFAZIONE -64,395 8RACCOLTADATI - SODDISFAZIONE -65,109 9

Tabella 4.9 Verosimiglianza delle componenti della Soddisfazione

Il controllo delle variazioni di queste posizioni attraverso deisemplici strumenti di rappresentazione grafica, come ad esempio undiagramma con in ascissa l’identificazione dell’indagine ed in ordinata i5 gradi di importanza dei fattori, è un utile strumento per la gestione

Page 159: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

150

del servizio, sia per la progettazione di miglioramenti interni, che per lastesura delle strategie future. Se necessario è possibile assegnare deipunteggi alle varie posizioni ricoperte dai fattori del servizio.

4.8.3. Conclusioni

Lo studio effettuato sui sessanta questionari a disposizione haportato alla formulazione di alcuni suggerimenti per i responsabili delmonitoraggio della Customer Satisfaction, al fine di snellire ilquestionario proposto e quindi facilitare la raccolta dei dati e la loroanalisi. I risultati raggiunti sono sintetizzabili nel modo seguente:Eliminazione della domanda n° 4 sugli orari di apertura preferiti dalcliente, in quanto, evidentemente, quest’ultimo preferisce esprimersi intermini di soddisfazione minore o maggiore, piuttosto che entrare nellospecifico dell’organizzazione interna del servizio. Riformulazione o eliminazione della domanda n° 12 riguardo la durataottimale della conversazione; la risposta più frequente è naturalmentela più banale: il minor tempo possibile. Il cliente non può essere aconoscenza dei passi necessari alla fornitura del servizio in esame e puòessere anche messo in difficoltà nel valutarne la durata effettivamenteoccorrente. Le informazioni necessarie sull’aspetto temporale delservizio possono essere ricavate in modo soddisfacente dalle domanden°9 e 10.Le domande n°1 e 2 possono essere riformulate in un unico quesito inquanto portano praticamente alle stesse conclusioni. Nell’ottica dellaminimizzazione del tempo dell’indagine nei riguardi dei clienti questaoperazione andrebbe sicuramente attuata, ma, valutando questirisultati ridondanti come indicazione maggiormente precisa e sicurasulla soddisfazione degli utenti, è possibile lasciare le domandeinalterate. La scelta dipende dalle necessità e dagli obiettivi dell’aziendariguardo all’indagine.E’ stata evidenziata l’importanza della variabile tempo necessario per ladenuncia sulla soddisfazione globale del cliente, cosicché è auspicabileun controllo frequente di questo aspetto attraverso gli strumenti piùadatti ed alle tecniche descritte nel prossimo capitolo.Gli obiettivi prestabiliti dell’indagine sono stati raggiunti in modosoddisfacente, riducendo il questionario inizialmente proposto a sole 9domande ed evidenziando i parametri critici del servizio offerto,ponendo le basi per una più efficace e veloce indagine sullasoddisfazione della clientela e per l’implementazione di ulterioristrumenti di monitoraggio ed interpretazione delle informazioni.

Page 160: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 4Misurare e monitorare la qualità del servizio: un approccio bayesiano

151

Page 161: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 5Conclusioni

152

CAPITOLO 5

CONCLUSIONI

“Le opinioni riguardo al valore del teorema di Bayes sono oscillate traaccettazione e rifiuto fin dalla data della sua pubblicazione nel 1763. …Il modo di ragionare bayesiano, definitivamente seppellito in molteoccasioni, è recentemente risorto nuovamente con sorprendente rigore.

La rinascita si deve principalmente a tre fattori.Primo, il lavoro di un certo numero di autori: Fisher, Jeffreys,

Barnard, Ramsey, De Finetti. Savage, Lindley, Anscombe e Stein,sebbene non sempre diretto in questa direzione, ha consentito dichiarire e superare qualche difficoltà filosofica e pratica.

Secondo, altre teorie inferenziali hanno individuato soluzioni sempliciin casi in cui ipotesi molto restrittive vengono assunte (normalità eindipendenza degli errori), ma in casi differenti e, in particolare nei casiin cui non esistano statistiche sufficienti, le soluzioni sono spessoinsoddisfacenti e poco pulite. Anche se spesso le ipotesi assuntericoprono un certo numero di casi di interesse scientifico, sarebbe pocoragionevole pretendere che l’insieme di problemi statistici la cuisoluzione è o sarà richiesta dalla ricerca scientifica, coincida conl’insieme di problemi che risulta facilmente trattabile. L’acquisizione didati è spesso molto più onerosa confrontata con l’analisi degli stessi. E’chiaro che l’insieme dei dati deve quindi essere analizzato da moltidiversi punti di vista. Nella scelta di questi punti di vista, i metodibayesiani permettono grande enfasi sull’interesse scientifico e minorenfasi sulla convenienza matematica.

Terzo, le semplici soluzioni fornite nei casi in cui ipotesi moltorestrittive vengano adottate hanno avuto grande popolarità per un’altraragione: esse sono facili da calcolare. Questa considerazione ha moltameno forza adesso con la potenza di calcolo messa a disposizione allostato attuale dagli elaboratori della nuova generazione.

La ricerca scientifica utilizza i metodi statistici in un approccioiterativo in cui all’acquisizione di una serie di dati si alterna la fase incui gli stessi vengono analizzati. La fase di analisi è anch’essadeterminata attraverso un approccio iterativo in cui l’inferenza a partire

Page 162: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 5Conclusioni

153

da un ipotesi di modello si alterna con la critica dello stesso modelloipotizzato, ad esempio attraverso l’analisi dei residui.

L’inferenza è quindi solo una delle responsabilità di uno statistico.L’inferenza bayesiana sembra offrire sufficiente flessibilità perpermettere di trattare la complessità scientifica senza avereimpedimenti derivanti da limitazioni puramente tecniche.”

G.P. Box e G.C. Tiao, Bayesian Inference in Statistical Analysis, JohnWiley & Sons, 1992.

Il punto di vista di Box e Tiao sull’adozione di un approccioinferenziale bayesiano, ben rappresenta le motivazioni che hanno spintoquesto lavoro. L’obiettivo è stato principalmente quello di analizzare see in quale misura l’adozione di altre tecniche di analisi statisticapossono risultare di supporto nelle problematiche del controllostatistico di qualità. A valle del lavoro si può concludere che, per quantoosservato riguardo ai piani di accettazione nel secondo capitolo eriguardo alla qualità del servizio nel quarto, l’approccio bayesianoconsente in alcuni casi di estendere il respiro della modellizzazioneriuscendo a fornire risultati non ottenibili con altri approcci inferenziali.

Per quanto riguarda invece l’applicazione dell’impostazione bayesianaalle carte di controllo, trattata nel terzo capitolo, in quel casol’approccio bayesiano fornisce una naturale impalcatura per trattarel’aggiornamento della conoscenza richiesto da un ottica adattativa.

Sicuramente quindi, a valle delle considerazioni svolte nei singolicapitoli, l’ulteriore indagine sull’applicazione di metodi bayesiani per ilcontrollo statistico di qualità sembra una strada interessante daapprofondire.

Occorre in ultimo concludere con un’osservazione. La flessibilitàofferta dalla distribuzione a priori deve naturalmente essere utilizzatacon le dovute cautele. In questo caso non si intende in alcun modoentrare nelle motivazioni ideologiche che si oppongono all’impostazionebayesiana sostenendo che un metodo scientifico non debba contenerealcuna forma di indicazione soggettiva. Questo genere di affermazioniimpedirebbe la formulazione di qualunque tentativo di modellazione e,portato all’estreme conseguenze, negherebbe la validità di approcci di IAcome i sistemi esperti, in cui si rappresenta spesso una conoscenzasoggettiva degli esperti.

Nel caso in cui però quest’informazione a priori e soggettiva non siacosì robusta e consolidata si possono sempre seguire diverse strade. Inprimo luogo utilizzare distribuzioni a prior non informative. In secondoluogo, anche utilizzando altre ipotesi di distribuzioni a priorisufficientemente “flessibili” e generali, verificare che il modelloformulato riesca davvero a prevedere i dati futuri, assestandosi comemodello in grado di rappresentare la realtà che si intende modellare.

Page 163: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Capitolo 5Conclusioni

154

Page 164: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

154

BIBLIOGRAFIA

[Ail75] R.H. Ailor, J.W. Schmidt e G.K. Bennet, 1975, The design ofeconomic acceptance sampling plans for a mixture of variablesand attributes, AIIE Transactions, 1975.

[AlS97] Al-Sultan, K.S. and Rahim, M.A.; 1997, Optimization in qualitycontrol, Kluwer Academic Publishers.

[Bak71] K. R. Baker, 1971, Two process models in the economic designof an X-chart, AIIE Transactions, 3, 4, 257-263.

[Bar90] M. Barad, 1990, A break-even level approach to location ofinspection stations in a multi-stage production process,International Journal of Production Research, 28, 29-45.

[Ban88] P.K. Banjeree e M.A. Rahim, 1988, Economic Design of Xcontrol charts under Weibull Shock Models, Technometrics, 30,407-414.

[Bat63] J.A. Bather, 1963, Control Charts and Minimization of Costs,Journal of the Royal Statistical Society, Series B, 25, 49-80.

[Bei79] C.S. Beightler, D.T. Phillips e D.J. Wilde, 1979, Foundations ofOptimization, Prentice Hall International Series in Industrialand Systems Engineering

[Ber85] J.O. Berger, 1985, Statistical Decision Theory and BayesianAnlysis (Second edition), Springer

[Boo91] S.Boomsma, 1991, Il dilemma tra le specifiche del servizio e lasoddisfazione del cliente, Qualità , Dicembre 1993, [Memoriapresentata al congresso di Praga (1991)].

[Boi99] A. Boin, 1999, Proposta di un metodo di taratura e di controllodei risultati per un questionario di customer satisfaction: il casocall center Assitalia, Tesi di laurea in Ingegneria Gestionale,Politecnico di Milano, Dip. Meccanica.

[Cal90] Thomas W. Calvin, 1990, How and when to perform bayesianacceptance sampling, The ASQC Basic Reference in Quality

Page 165: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

155

Control: Statistical Techniques, American Society for QualityControl.

[Cal95] J.M. Calabrese, 1995, Bayesian Process Control for Attributes,Management Science, 41, 4, 637-645.

[Cal97] M.Caldara, M.Cignetti, F.Franceschini, “Strumenti a confrontoper a valutazione della qualità nei servizi”(I parte), Qualità:rivista italiana dell’AICQ, n° 3, Maggio 1997.

[Car72] P.L. Carter, 1972, A Bayesian Approach to Quality Control,Management Science, 18, 647-655.

[Cas 75] K.E. Case, J.W. Schmidt and G.K. Bennet, 1975, A discretemultiattribute acceptance sampling AIIE Transactions.

[Cha83] B. C. Chang, 1983, Price-adjusted attribute single samplingwith polynomial indifference, IIE Transactions.

[Cig97] M.Caldara, M.Cignetti, F.Franceschini, 1997, Strumenti aconfronto per la valutazione della qualità nei servizi (II parte),Qualità: rivista italiana dell’AICQ, n° 4, Giugno 1997.

[Col00] B.M. Colosimo, Q. Semeraro, and T. Tolio, 2000, Designing Xcontrol charts in a multistage serial manufacturing system, 33rd

CIRP International Seminar on Manufacturing Systems,Stockholm, Sweden, June 5-7 2000

[Col86] E. von Collani, 1986, A simple procedure to determine theeconomic design of an X control chart, Journal of QualityTechnology, 18, 145-151.

[Col87] F. Colonna, 1987, Un po’ di chiarezza, Produrre, n°4 1987.

[Col88] E. von Collani, 1988, A unified approach to Optimal processcontrol, Metrika, 35, 145-159.

[Col89] E. von Collani, 1989, The Economic Design of Control, B.G.Teubner, Stuttgart.

[Col97] F. Colonna, 1997, Processo logistico, disponibilità e qualità delservizio, De Qualitate, Gennaio,1997.

[Col98] B.M. Colosimo, A. Lauriola, and Q. Semeraro , 1998.Applicazione dell’analisi multicriterio per la valutazione dellaqualità del servizio. Rapporto interno depositato a termini di

Page 166: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

156

legge, Dipartimento di Meccanica, Politecnico di Milano, n.09-98.

[Cro92] S.V. Crowder, 1992, AN SPC Model for Short Production Runs:Minimizing Expected Costs, Technometrics, 34, 64-73.

[Cro92b] J.Cronin, Seven, A.Taylor,1992, Measuring Service Quality: AReexamination and Extension, Journal of Marketing, 56, Luglio1992, pp. 55-68.

[Cro94] J.Cronin, Seven, A.Taylor, 1994, SERVPERF VersusSERVQUAL: Reconciling Performance -Based and Perceptions -Minus Expectations Measurement of Service Quality, Journal ofMarketing, 58,Gennaio 1994, 125-131.

[Das97a] T.K. Das e V. Jain, 1997, An Economic Design Model for Xcharts with Random Sampling Policies, IIE Transactions, 29,507-518.

[Das97b] T.K. Das, V. Jain e A. Gosavi, 1997, Economic Design of Dual-Sampling-Interval Policies for X Charts with and withouth RunRules, IIE Transactions, 29, 497-506.

[Del93] E. Del Castillo e D.C. Montgomery, 1993, Optimal design ofcontrol charts for monitoring short production runs, EconomicQuality Control, 8, 225-240.

[Del95] E. Del Castillo, 1995, Relations between X control chart designvariables and production control, Internationa Journal ofProduction Research, 33, 2709-2721.

[Del96a] E. Del Castillo e D.C. Montgomery, A general model for theoptimal economic design of X-charts used to control short orlong run processes, IIE Transactions, 28, 193-201.

[Del96b] E. Del Castillo, 1996, Run lenght distributions and economicdesign of X-charts with unknown process variance, Metrika, 43,189-201.

[Des97] L. De Sario, 1997, Proposta di un modello economico per pianidi campionamento singoli bayesiani multiattributo, Tesi diLaurea in Ingegneria Gestionale, Politecnico di Milano, Dip.Meccanica.

Page 167: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

157

[Dre89] Z. Drezner e G. O. Wesolowsky, 1989, Optimal control of alinear trend process with quadratic loss, IIE Transactions, 21,1, 66-72.

[Dix73] L.C.W. Dixon, 1972, Nonlinear Optimisation, The EnglishUniversities Press Limited.

[Dun56] A.J. Duncan, 1956, The economic design of X-charts used tomaintain current control of a process, Journal of the AmericanStatistical Association, 51, 274, pp. 228-242.

[Dun71] A.J. Duncan, 1971, The economic design of X-charts whenthere is a multiplicity of assignable causes, Journal of theAmerican Statistical Association, 66, 333, pp. 107-121

[Dun86] A.J. Duncan, 1986, Quality Contol and Industrial Engineering,5th edition, R.D. Irwin, Homewood (IL).

[Ehr88] R. Ehrhardt, 1988, Indifference functions for price-adjustedacceptance sampling, IIE Transactions.

[Epp74] G.D. Eppen and E.G. Hurst, 1974, Optimal allocation ofinspection stations in a multi-stage production process,Management Science, 10, 1194-1200.

[Erc74] S. S. Ercan, M. Z. Hassan e A. Taulanda, 1974, Cost minimizingplans with AIQL and AOQL Constraints, Management Science.

[Fra97] F.Franceschini, M.Terzago, 1997, Applicazione del QFD neiservizi di formazione aziendale, De qualitate, Maggio 1997.

[Fos72] J.W. Foster, O.T. Perry, 1972, Price adjusted single samplingwith linear indifference, Journal of Quality Technology.

[Fos77] J.W. Foster, O.T. Perry, 1972, Price adjusted single samplingwith quadratic indifference, AIIE Transactions.

[Gal91] Galgano-Summit, 1991, La qualità del servizio: lo stato dell’artein Italia, F.Angeli.

[Gho94] A. Ghobadian, S. Speller e M. Jones, 1994, Service Quality:Concepts and Models, International Journal of Quality andRielability Management, 11, 9, pp.43-66.

[Gib67] I. N. Gibra, 1967, Optimal control of process subject to lineartrends, The Journal of Industrial Engineering, 18, 1, 35-41.

Page 168: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

158

[Gil96] W. R. Gilks, S. Richardson, D. J. Spiegelhalter, 1996, MarkovChain Monte Carlo in Practice, Chapman & Hall

[Gir52] M. A. Girshick e H. Rubin 1952 A Bayes' approach to a qualitycontrol model, Annals of mathematical statistics, 23, pp.114-125.

[Gro82] C. Gronroos, 1982, Strategic management and marketing in theservice sector, Swedish School of Economics and BusinessAdministration, Helsingfors.

[Gup84], T. Gupta e S. Chakraborty, 1984, Looping in a multi-stageproduction system, International Journal of ProductionResearch, 10, 69-77.

[Gut59] D. Guthrie Jr. e M.V. Johns, 1959, Bayes Acceptance Samplingprocedures for large lots, Annals of Mathematical Statistics, 30.

[Hah67] G.J. Hahn, S. S. Shapiro, 1967, Statistical Models inEngineering, John Wiley, New York.

[Hal60] A. Hald, 1960, The compound hypergeometric distribution anda system of single sampling inspection plans based on priordistributions and costs, Technometrics.

[Hal68] A. Hald, 1968, Bayesian single sampling attribute plans forcontinuous prior distributions, Technometrics.

[Hsu88] L. F. Hsu e C. S. Tapiero, 1988, Quality control of an unreliablerandom FMS: with Bernoulli and CSP sampling, InternationalJournal of Production Research, 6, 1125-1135.

[Hsu89] L. F. Hsu e C. S. Tapiero, 1989, Quality control of anunreliable flexible manufacturing system: with scrapping andinfinite buffer capacity, The International Journal of FlexibleManufacturing Systems, 1, 325-346.

[Hsu90] L. F. Hsu and C. S. Tapiero, 1990, An economic model fordetermining the optimal quality and process control policy in aqueue-like production system, International Journal ofProduction and Research, 28, 8, 1447-1457.

[Hsu92] L. F. Hsu and C.S. Tapiero, 1992, Integration of processmonitoring, quality control and maintenance in an M/G/1queue-like production system, International Journal ofProduction and Research, 30, 10, 2363-2379.

Page 169: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

159

[JIS63] Japanese Industrial Standardization Commitee, JIS Z 9011-1963, Single sampling inspection procedures and tables byattributes with severity adjustment (receiving inspection wherea consumer can select suppliers).

[Kea94] J.B. Keats and J.R. Simpson, 1994, Comparison of the X andCUSUM control chart in a economic model, Economic QualityControl, 9, 203-220.

[Kea97] Keats, J.B., Del Castillo, E., von Collani, E. and Saniga, E.M.;1997, Economic Modeling for Statistical Process Control,Journal of Quality Technology, 29, 2: 144-162.

[Kna69] H.A. Knappenberger e A.H.E. Grandage, 1969, Minimum costquality control tests, AIIE Transactions, 1, 1, 24-32.

[Lau97] A. Lauriola. 1997, Un’applicazione dell’analisi multicriteri allavalutazione della qualità del servizio: il caso Bticino. Tesi dilaurea Politecnico di Milano, Dip. Meccanica. A.A.96/97.

[Leh82] U. Lehtinen, Jr. Lehtinen, 1982, Service Quality: A study of“Quality dimension, Working paper Service ManagementInstitute, Helsinki.

[Leo93] E. Leonardi, 1993, Il disservizio quale strumento di qualità,Qualità, Dicembre 1993.

[Lin64] G. F. Lindsay e A. B. Bishop, 1964, Allocation of screeninginspection effort: a dynamic programming approach,Management Science, 10, 343-352.

[Lor86] T. J. Lorenzen e L. C. Vance, 1986, The economic design ofcontrol charts: a unified approach, Technometrics, 28, 3-10.

[Mar96] A. Mariani e R. Mauri, 1996, Controllo della qualità di unprocesso produttivo presso un’azienda per lavorazioni contoterzi su macchine transfer, Tesi d laurea in IngegneriaMeccanica, Politecnico di Milano, Dip. Meccanica.

[McW94] T. P. McWilliams, 1994, Economic, statistical and economic-statistical X-chart designs, Journal of Quality Technology, 26,227-238.

[Mon95] D.C. Montgomery e J.C.C. Torng, 1995, Statisticallyconstrained economic design of the EWMA control chart,Journal of Quality Technology, 23, 179-204.

Page 170: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

160

[Mon96] D.C. Montgomery, 1990, Introduction to Statistical QualityControl, John Wiley and Sons.

[Moo43] A. Mood, 1943, On the dependence of sampling inspectionplans upon population distributions, Annals of mathematicalstatistics.

[Mor79] C.W Moreno, 1979, A performance approach to attributesampling and multiple actions decisions, AIIE Transactions.

[Mos84a] H. Moskowitz, R. Plante, K. Tang e A. Ravindran, 1984,Multiattribute acceptance sampling plans fore screening andscrapping rejected lots, IIE Transactions, 1984.

[Mos84b] H. Moskowitz e R. Plante, 1984, Effects of risk avversion onsingle sample attribute inspection plans, Management Science.

[Mos86] H. Moskowitz, R. Plante e K. Tang, 1986, Multistagemultiattribute acceptance sampling in serial productionsystems, IIE Transactions.

[Neg92] G. Negro, 1992, Organizzare la Qualità nei servizi. Ed. Il Sole24ore Libri.

[Oht97] Ohta, H. and Rahim, M.A.; 1997, A dynamic economic modelfor an x -control chart design, IIE Transactions, 29: 481-486.

[Par85] A. Parasuraman, V. A. Zeithaml, L. L. Berry, 1985, A conceptualmodel of Service Quality and its implications for futureresearch, Journal of Marketing, 49, 41-50.

[Par88] A. Parasuraman, V. A. Zeithaml, L. L. Berry, 1988, SERVQUAL:a multiple-item Scale for measuring consumer perceptions ofService Quality, Journal of Retailing, 64, 1.

[Par89] B. Parkhided e K.E. Case, 1989, The Economic Design of aDynamic X-Control Chart, IIE Transactions, 21, 313-323.

[Par91] A. Parasuraman, V. A. Zeithaml, L. L. Berry, 1991, Refinementand Reassessment of the SERVQUAL Scale, Journal ofRetailing, 67, 420-450.

[Par94] C. Park e M.R. Jr. Reynolds, 1994, Economic Design of aVariable Sample size X- Chart, Communications in Statistics –Simulation and Computation, 23, 467-483.

Page 171: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

161

[Par96a] A. Parasuraman, 1996, La misura ed il controllo della qualitàdel servizio, De Qualitate, Maggio1996, pp.5-15..

[Par96b] A. Parasuraman, 1996, SERVQUAL: applicazioni, messa apunto sul campo e risultati, De Qualitate, Giugno1996, pp.5-15.

[Pet87] M. H. Peters e W. W. Williams, 1987, Economic design of qualitymonitoring efforts for multi-stage production systems, IIETransactions, 81-87

[Pet89] M. H. Peters e W. W. Williams, 1989, Economic design of anattribute control system for a multistage serial productionprocess, International Journal of Production Research, 27,1269-1286.

[Por86] E. L. Porteus, 1986, Optimal lot-sizing, process qualityimprovement and set-up cost reduction, Operation Research86, 137-144.

[Por97] Porteus, E.L. and Angelus, 1997, Opportunities for ImprovedStatistical Process Control, Management Science, 43, 9, 1214-1228.

[Pos87] M. J. M. Posner e C. S. Tapiero, 1987, Manufacturing qualitydensity, control and maintenance, International Journal ofProduction Research, 25, 1511-1521.

[Pra97] S.S. Prabhu, D.C. Montgomery, G.C. Runger, 1997, Economic-Statistical Design of an Adaptive X Chart, International Journalof Production Economics 49, 1-15.

[Que88] C. P. Quesenberry, 1988, An SPC approach to compensating atool-wear process, Journal of Quality Technology, 20, 4, 220-229.

[Rah93] M.A. Rahim e P.K. Banerjee, 1993, A Generalized Model for theEconomic Design of X-Charts for Production Systems withIncreasing Failure Rate and Early Replacement, Naval ResearchLogistics, 40, 787-809.

[Rah94] M.A. Rahim, 1994, Joint Determination of ProductionQuantity, Inspection Schedule, and Control Chart Design, IIETransactions, 26, 6, 2-11.

Page 172: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

162

[Rah98] M. A. Rahim and M. Ben-Daya, 1998, A generalized economicmodel for joint determination of production run, inspectionschedule and control chart design, International Journal ofProduction and Research, 36, 1, 277-289.

[Ram96a] M.Ramoni, P.Sebastiani, 1996, Robust Learning with MissingData, Technical Report, Knowldege Media Institute, Aug.1996.

[Ram96b] M.Ramoni, P.Sebastiani, Robust Parameter Learning inBayesian Networks with Missing Data, Technical Report,Knowldege Media Institute, Nov.1996.

[Ram97a] M.Ramoni, P.Sebastiani, Efficient Parameter Learning inBayesian Networks from incomplete Data, Technical Report,Knowldege Media Institute, Jan. 1997.

[Ram97b] M.Ramoni, P.Sebastiani, Learning Bayesian Networks fromincomplete Database, Technical Report, Knowldege MediaInstitute, Feb. 1997.

[Ram97c] M.Ramoni, P.Sebastiani, The use of Exogenous Knowledge toLearn Bayesian Networks from Incomplete Databases, TechnicalReport, Knowldege Media Institute, Feb. 1997.

[Ram97d] M.Ramoni, P.Sebastiani, Discovering Bayesian Networks inIncomplete Databases, Technical Report, Knowldege MediaInstitute, Mar. 1997.

[Ram97e] M.Ramoni, P.Sebastiani, Parameter Estimation in BayesianNetworks from Incomplete Databases, Technical Report,Knowldege Media Institute, Nov. 1997.

[Ram97f] M.Ramoni, P.Sebastiani, Bayesian Inference with MissingData Using Bound & Collapse, Technical Report, KnowldegeMedia Institute, Dec. 1997.

[Ram98] M.Ramoni, P.Sebastiani, Bayesian Methods for Intelligent DataAnalysis, Technical Report, Knowldege Media Institute, Jul.1998.

[Raz87] T. Raz and D. Bricker, 1987, Sequencing of imperfectoperations subject to constraints on the quality of accepted andrejected units, International Journal of Production Research,25, 809-821.

[Ros83] S. H. Ross, 1983, Stochastic Processes, John Wiley and Sons.

Page 173: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

163

[Ros86], M. J. Rosenblatt e H. L. Lee, 1986, Economic production cycleswith imperfect production process, IIE Transactions, 18, 48-55.

[Saa96] The Analytic Network Process : Decision Making WithDependence & Feedback by Thomas L. Saaty.

[San89] E. M. Saniga, 1989, Economic statistical control chart with anapplication to X and R control charts, Technometrics, 31, 313-320.

[San95] E. M. Saniga, D. J. Davis e T. P. McWilliams, 1995, Economic,statistical and economic-statistical design of attribute charts,Journal of Quality Technology, 27, 56-73.

[Sas78] W.E. Jr. Sasser, P. R. Olsen e D.D. Wyckoff, 1978, Managementof Service Operations: Text and Cases, Boston, MA, Allyn andBacon.

[Sch72] J.W. Schmidt, G.K. Bennet, 1972, Economic multiattributeacceptance sampling, AIIE Transactions.

[Sch90] H. Schneider, K. Tang e C. O'Cinneide, 1990, Optimal control ofa production process subject to random deterioration,Operation Research, 38, 6, 1116-1122.

[Sch94] P. B. Schary, 1994, The market place view of customer service,Handbook of Physical Distribution Management, JohnGattorna, Gower, 1994.

[Ste78] R.D. Stewart, D. C. Montgomery e R. G. Heikes, 1978, Choice ofdouble sampling plans based on prior distributions and costs,AIIE Transactions.

[Swa76] Swan, Comb, 1976, Product performance and ConsumerSatisfaction: A New Concept, Journal of Marketing, April 1976.

[Tag94] G. Tagaras, 1994, A Dynamic Programming Approach to theEconomic design of X-Charts, IIE Transactions, 26, 3, 48-56.

[Tag96] G. Tagaras, 1996, Dynamic Control Charts for FiniteProduction Runs, European Journal of Operational Research,91, 38-55.

[Tag98] G. Tagaras, 1998, A Survey of Recent Developments in theDesign of Adaptive Control Charts, Journal of Quality

Page 174: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

164

Technology, 30, 3: 212-231.

[Tay65] H.M. Taylor, 1965, Markovian Sequential Replacement Process,Annals of Mathematical Statistics, 36, 1677-1694.

[Tay67] H.M. Taylor, 1967, Statistical Control of a Gaussian Process,Technometrics, 9, 29-41.

[Tay88] G. K. Tayi e D. P. Ballou, 1988, An integrated production-inventory model with reprocessing and inspection, InternationalJournal of Production Research, 26, 1266-1315.

[Tea93] R. Kenneth Teas, 1993, Expectations,Performance Evaluation,and Consumers’ Perceptions of Quality, Journal of Marketing,Ottobre 1993.

[Tea94] R.Kenneth Teas, 1994, Expectations as a Comparison Standardin measuring service Quality: an Assessment of aReassessment, Journal of Marketing, 58,Gennaio 1994, 125-131.

[Tri66] R. R. Trippi, 1966, An on-line computational model forinspection resource allocation, Journal of Quality Technology,6, 167-174.

[Yum87] B. J. Yum and E. D. McDowell, 1987, Optimal inspectionpolicies in a serial production system including scrap reworkand repair: a MILP approach, International Journal ofProduction Research, 25, 1451-1460.

[Wei92] C. Weigand, 1992, A new approach for optimal control of aproduction process, Economic Quality Control, 7, 225-251.

[Wei93] C. Weigand, 1993, On the effects of SPC on production time,Economic Quality Control, 8, 23-61.

[Woo86] W. H. Woodall, 1986, Weaknesses of the economic design ofcontrol charts, Technometrics, 28, 408-409.

[Vau93] T.S. Vaughan, 1993, Variable Sampling Interval np ProcessControl Charts, Communications in Statistics – Theory andMethods, 22, 147-167.

Page 175: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

165

Page 176: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice A 166

APPENDICE AELEMENTI DI STATISTICABAYESIANA

A.1 Il teorema di Bayes e il teorema di Bayesgeneralizzato

Il teorema di Bayes fornisce una formula di calcolo per la probabilitàcondizionata e può essere enunciato come segue: dati due eventi A e B,la probabilità che l’evento A si verifichi, condizionatamente al fatto chesi è già verificato l’evento B è data da:

)()()|(

BPBAPBAP ∩=

dove a numeratore si ha la probabilità dell’intersezione dei due eventi ea denominatore la probabilità dell’evento condizionante.Dal teorema di Bayes deriva il teorema delle probabilità totali in cui è

possibile ricavare la probabilità di un evento come:

)()|()()|()( APABPAPABPBP +=

Partendo dal teorema di Bayes, il teorema di Bayes generalizzato puòessere ricavato estendendo alle variabili aleatorie quanto espresso nelcaso di eventi: date due variabili aleatorie x e y, con distribuzionecondizionata f(x|y) e distribuzione marginale g(y), la distribuzionecondizionata di y dato x è:

}

44 344 21

4847648476

)(

)|()|(

)()|( )|(

)|(

BP

P(A)ABPBAP

dyygyxfg(y)yxf

xyg∫

= (A.1)

Se si considera Il teorema di Bayes generalizzato, sostituendo ad xl’insieme di osservazioni in un campione di riferimento e ad y iparametri che caratterizzano le distribuzioni di queste osservazioni, si

Page 177: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice A 167

può ricavare lo schema di base dell’inferenza bayesiana. Si ipotizzi diavere un vettore di n osservazioni x~ indipendenti e identicamentedistribuite secondo una funzione densità di probabilità nota{ }Θ∈θθ ),(xf la quale è completamente definita dato un parametro θ (siipotizzi per semplicità un unico parametro incognito, ad esempio laprobabilità di successo per una distribuzione binomiale o la media peruna normale in ipotesi di varianza nota).Si ipotizzi di conoscere anche la distribuzione a priori )(θπ del

parametro, distribuzione che rappresenta la conoscenza a priori senzacioè osservare i dati.A valle dell’osservazione delle n osservazioni x~ , si può ricavare la

distribuzione a posteriori del parametro (condizionatamente a datiosservati) )~|( xθπ , espressa da:

)()()|(

)()|()()|(

)~|(x

xxx

mf

dff

xθπθ

θθπθθπθ

θπ ==∫

Θ

(A.2)

dove:- x vettore aleatorio (es. oss.ni)- θ parametro- { }Θ∈θθ ),(xf densità di probabilità- )(θπ densità, distr. iniziale di θ (prior)- θθπθ dfm )()()( xx ∫Θ= densità marginale di x

Nel calcolo della distribuzione a posteriori, il problema computazionaleè spesso rappresentato dall’integrale nel calcolo di )~(xm :

θθπθ dxfxm )()~()~( ∫Θ= (A.3)

Gran parte della ricerca si sta infatti sviluppando nella definzione dialgoritmi numerici per il calcolo dell’integrale nell’equazione A.3 (adesempio i metodi Markov Chain MonteCarlo [Gil96].Dal momento che il denominatore dell’equazione A.2 non dipende dal

valore del parametro θ , per riconoscere la forma distribuzionale dellaposterior è sufficiente operare trascurando questa costantemoltiplicativa, analizzando solo il nucleo:

43421nucleo

xfx )()~()~( θπθθπ ∝

Page 178: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice B 168

APPENDICE BLE DISTRIBUZIONI BETA E POLYA ELA PROPRIETÀ DI RIPRODUCIBILITÀ

B.1 La proprietà di riproducibilità

La proprietà di riproducibilità (o di invarianza rispetto alcampionamento ipergeometrico) è una importante proprietà applicabilenel campionamento per attributi..Siano:

N ampiezza del lotto estratto da processo di difettosità pP la vriabile casuale che indica la frazione di pezzi non conformi

generati dal processo;X il numero di pezzi non conformi presenti nel lotto di ampiezza N, con

distribuzione fN(X);n la numerosità del campione estrsatto (senza reimmissione) dal lotto di

ampiezza N;x il numero di pezzi non conformi nel campione di ampiezza n;y il numero di pezzi non conformi nella parte non collaudata del lotto,

cioè X-x.

Detta Prob(x,y) la probabilità congiunta di trovare x pezzi difettosi nelcampione e y pezzi difettosi nella parte non collaudata del lotto, si avrà:

+

+=

−−

=

yxN

ynN

xn

yxf

nN

xnXN

xX

Xfyx NN )()(),(Prob

Quindi la distribuzione marginale di di x si otterrà sommandoProb(x,y) su tutti i possibili valori di y:

+

+

= ∑

=yx

Ny

nN

yxfxn

xgnN

yNn

0)()(

Questa distribuzioned è la distribuzione ipergeometrica composta.

Page 179: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice B 169

In [Hal60] si dimostra un teorema che si può applicare alcampionamento per attributi nella seguente formulazione:

se la distribuzione )(Xf N è:• ipergeometrica• binomiale• rettangolare• polya (generalizzazione delle prime tre)• binomiale mista con pesi wi (corrispondente a situazioniin cui i lotti sono prodotti da più fornitori)• qualsiasi media pesata delle distribuzioni citate con pesiindipendenti da N e X

e la successione delle funzioni )(Xf N , per N=1,2,…, ammettelimite non degenere

alloraper ogni N, x esibisce la stessa distribuzione di X con n al postodi N. )(xgn si ottiene quindi da )(Xf N sostituendo X con x ed Ncon n, e si dice che la distribuzione )(Xf N è riproducibile.

Operativamente il teorema indica che si può trattare il campione dinumerosità n, estratto da un lotto generato da un processo condistribuzione )(Xf N riproducibile, come generato da un processo che èidentico a quello che ha generato il lotto, ma effettua una produzionelimitata a n pezzi.Un altro importante risultato riportato in [Hal60] è l’espressione del

valore atteso del numero di pezzi non conformi nel lotto di dimensioneN, condizionato al fatto di aver riscontrato x difettosi nel campione didimensione n:

( ) xxgxg

nxnN

n

n ++

++−= +

)()1(

1)1)((x)|E(X 1

B.2 La distribuzioni beta come distribuzione apriori

L’utilizzo della distribuzione beta per modellare la distribuzione apriori della frazione di pezzi non conformi comporta alcuni vantaggi. Inprimo luogo la distribuzione beta è estremamente flessibile: puòassumere forme molto diverse e quindi rappresentare un vasto insiemedi distribuzioni dei dati. Inoltre presenta il vantaggio di avere comedistribuzione coniugata (posterior) ancora una beta, qualora ladistribuzione a posteriori sia ricavata attraverso un campionametobinomiale.

Page 180: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice B 170

Ipotizziamo che la variabile casuale p, frazione di pezzi non conformi,sia distribuita secondo una beta di parametri s e t:

0, 10 )1()!1()!1(

)!1(),|( 11 >≤≤−−−

−+= −− tspppts

tstspf ts

con media ts

sp+

= e varianza )1()1(

)1()( 22

++−

=+++

=ts

pp

tsts

stpσ .

Si può dimostrare che se si effettua un campionamento binomiale daun processo avente distribuzione a priori (in funzione di p) beta diparametri s e t, allora:La probabilità che in un lotto di N pezzi, X siano difettosi,

indipendentemente dalla frazione di non conformi del processo, hadistribuzione polya;

La distribuzione a posteriori ha densità beta di parametri s+x, t+n-x.Infatti si ha:

)!1()!1()!1(

)!1()!1()!1(

)!(!!

)()()(

)!1()!1()!1(

)!(!!

)1()!1()!1(

)!1()!(!

!

)1()!1()!1(

)!1()1(

)!(!!

),|()1()!(!

!

),|(),|(),,|(

1

0

1)(1)(

111

0

1

0

1

0

−++−+−−+

−−−+

−=

=+−++Γ+−Γ+Γ

−−−+

−=

=−−−

−+−

=

=−−−

−+−

−=

=−−

=

==

−+−−+

−−−

tNstXNsX

tsts

XNXN

tXNsXtXNsX

tsts

XNXN

dpppts

tsXNX

N

dpppts

tspp

XNXN

dptspfppXNX

N

dptspfpNXftsNXf

tXNsX

tsXNX

XNX

N

che è la distribuzione polya con con media pNts

NsX =+

= e varianza

)1()(

)(2

2

+++

++=

tsts

NtsNstXσ .

Per ricavare il secondo risultato relativo alla distribuzione a posteriori,occorre utilizzare il teorema di Bayes. Si osservi innanzitutto che,poichè la distribuzione )(Xf N è una polya, la probabilità )(xgn diosservare x difettosi nel campione di dimensione n è anch’essa unapolya, per il teorema di riproducibilità enunciato nel paragrafo A.1.

Page 181: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice B 171

Per cui la distribuzione marginale che compare a denominatore nellaformula della posterior (teorema di Bayes generalizzato) è proprio datoda )(xgn . Di consegeuenza la distribuzione a posteriori si può ricavarecome:

11

11

)1()!1()!1(

)!1(

)!1()!1()!1(

)!1()!1()!1(

)!(!!

)1()!1()!1(

)!1()1()!(!

!

)()()|()|(

−−+−+

−−−

−−+−−+

−++=

=

−++−+−−+

−−−+

−−−

−+−−==

xntxs

tsxnx

n

pptxnsx

tns

tnstxnsx

tsts

xnxn

ppts

tsppxnx

n

xgpfpxfxpf

che è una distribuzione beta di parametri s+x, t+n-x.

Page 182: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice C 172

APPENDICE C

RISULTATI NUMERICI DELLAPROGETTAZIONE DI UNA CARTA DICONTROLLO C ADATTATIVABAYESIANA

Parametri Caso1base

Caso2

Caso3

Caso4

Caso5

Caso6

Caso7

Caso8

Caso9

Numeromedio di nonconformitàprodotti instato 0

λ0 20 20 20 20 20 20 20 20 20

Numeromedio di nonconformitàprodotti instato 1

λ1 25 30 25 25 25 25 25 25 25

Tempo medioper avere unoshift

1/ν 50 50 100 50 50 50 50 50 50

Tempo aseguito di unfalso allarme

tFA 1 1 1 2 1 1 1 1 1

Tempo diriparazione tR 1 1 1 1 2 1 1 1 1

Profittoorario instato 0

V0 450 450 450 450 450 650 450 450 450

Profittoorario instato 1

V1 250 250 250 250 250 250 250 250 250

Costi aseguito di un A 25 25 25 25 25 25 50 25 25

Page 183: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice C 173

falso allarmeCosti diripristino R 25 25 25 25 25 25 25 50 25

Costi diispezione I 10 10 10 10 10 10 10 10 20

Page 184: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice C 174

P-Value: 0,523A-Squared: 0,323

Anderson-Darling Normality Test

N: 100StDev: 28,9026Average: 355,475

400350300

,999

,99

,95

,80

,50

,20

,05

,01

,001

Pro

bab

ility

stat1

Normal Probability Plot

P-Value: 0,332A-Squared: 0,413

Anderson-Darling Normality Test

N: 100StDev: 18,8780Average: 382,212

440390340

,999

,99

,95

,80

,50

,20

,05

,01

,001

Pro

babi

lity

bayes1

Normal Probability Plot

Two-Sample T-Test and CI: bayes1; stat1

Page 185: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice C 175

Two-sample T for bayes1 vs stat1

N Mean StDev SE Meanbayes1 100 382,2 18,9 1,9stat1 100 355,5 28,9 2,9

Difference = mu bayes1 - mu stat1Estimate for difference: 26,7495% CI for difference: (19,92; 33,55)T-Test of difference = 0 (vs not =): T-Value = 7,75 P-Value = 0,000DF = 170

P-Value: 0,033A-Squared: 0,821

Anderson-Darling Normality Test

N: 100StDev: 36,2253Average: 318,154

410360310260

,999

,99

,95

,80

,50

,20

,05

,01

,001

Pro

bab

ility

stat2

Normal Probability Plot

Page 186: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice C 176

P-Value: 0,031A-Squared: 0,830

Anderson-Darling Normality Test

N: 100StDev: 35,6276Average: 360,655

450350250

,999

,99

,95

,80

,50

,20

,05

,01

,001

Pro

bab

ility

bayes2

Normal Probability Plot

Mann-Whitney Test and CI: bayes2; stat2

bayes2 N = 100 Median = 359,22stat2 N = 100 Median = 312,08Point estimate for ETA1-ETA2 is 44,0995,0 Percent CI for ETA1-ETA2 is (33,68;54,66)W = 13051,0Test of ETA1 = ETA2 vs ETA1 not = ETA2 is significant at 0,0000

Page 187: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice C 177

P-Value: 0,766A-Squared: 0,242

Anderson-Darling Normality Test

N: 100StDev: 30,0759Average: 346,675

400350300

,999

,99

,95

,80

,50

,20

,05

,01

,001

Pro

bab

ility

stat3

Normal Probability Plot

P-Value: 0,202A-Squared: 0,502

Anderson-Darling Normality Test

N: 100StDev: 16,4911Average: 381,851

400350300

,999

,99,95

,80

,50

,20

,05,01

,001

Pro

bab

ility

bayes3

Normal Probability Plot

Two-Sample T-Test and CI: bayes3; stat3

Two-sample T for bayes3 vs stat3

Page 188: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice C 178

N Mean StDev SE Meanbayes3 100 381,9 16,5 1,6stat3 100 346,7 30,1 3,0

Difference = mu bayes3 - mu stat3Estimate for difference: 35,1895% CI for difference: (28,40; 41,95)T-Test of difference = 0 (vs not =): T-Value = 10,26 P-Value = 0,000DF = 153

Page 189: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice C 179

P-Value: 0,535A-Squared: 0,316

Anderson-Darling Normality Test

N: 100StDev: 17,4098Average: 381,135

420400380360340

,999

,99

,95

,80

,50

,20

,05

,01

,001

Pro

bab

ility

bayes4

Normal Probability Plot

Two-Sample T-Test and CI: bayes4; stat4

P-Value: 0,595A-Squared: 0,294

Anderson-Darling Normality Test

N: 100StDev: 30,2337Average: 353,588

430380330280

,999

,99

,95

,80

,50

,20

,05

,01

,001

Pro

babi

lity

stat4

Normal Probability Plot

Page 190: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice C 180

Two-sample T for bayes4 vs stat4

N Mean StDev SE Meanbayes4 100 381,1 17,4 1,7stat4 100 353,6 30,2 3,0

Difference = mu bayes4 - mu stat4Estimate for difference: 27,5595% CI for difference: (20,66; 34,44)T-Test of difference = 0 (vs not =): T-Value = 7,90 P-Value = 0,000DF = 158

P-Value: 0,109A-Squared: 0,612

Anderson-Darling Normality Test

N: 100StDev: 30,2699Average: 352,382

400350300

,999

,99

,95

,80

,50

,20

,05

,01

,001

Pro

bab

ility

stat5

Normal Probability Plot

Page 191: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice C 181

Mann-Whitney Test and CI: bayes5; stat5

bayes5 N = 100 Median = 383,82stat5 N = 100 Median = 352,48Point estimate for ETA1-ETA2 is 29,7995,0 Percent CI for ETA1-ETA2 is (21,65;37,94)W = 12873,0Test of ETA1 = ETA2 vs ETA1 not = ETA2 is significant at 0,0000

P-Value: 0,029A-Squared: 0,844

Anderson-Darling Normality Test

N: 100StDev: 16,2967Average: 381,371

420410400390380370360350340330

,999

,99

,95

,80

,50

,20

,05

,01

,001

Pro

babi

lity

bayes5

Normal Probability Plot

Page 192: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice C 182

P-Value: 0,846A-Squared: 0,214

Anderson-Darling Normality Test

N: 100StDev: 29,8327Average: 350,594

400350300

,999

,99

,95

,80

,50

,20

,05

,01

,001

Pro

bab

ility

stat6

Normal Probability Plot

Two-Sample T-Test and CI: bayes6; stat6

P-Value: 0,192A-Squared: 0,511

Anderson-Darling Normality Test

N: 100StDev: 19,6460Average: 381,159

420370320

,999

,99

,95

,80

,50

,20

,05

,01

,001

Pro

babi

lity

bayes6

Normal Probability Plot

Page 193: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice C 183

Two-sample T for bayes6 vs stat6

N Mean StDev SE Meanbayes6 100 381,2 19,6 2,0stat6 100 350,6 29,8 3,0

Difference = mu bayes6 - mu stat6Estimate for difference: 30,5795% CI for difference: (23,51; 37,62)T-Test of difference = 0 (vs not =): T-Value = 8,56 P-Value = 0,000DF = 171

P-Value: 0,964A-Squared: 0,148

Anderson-Darling Normality Test

N: 100StDev: 32,6033Average: 352,865

430380330280

,999

,99

,95

,80

,50

,20

,05

,01

,001

Pro

bab

ility

stat7

Normal Probability Plot

Page 194: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice C 184

P-Value: 0,111A-Squared: 0,608

Anderson-Darling Normality Test

N: 100StDev: 17,1173Average: 382,412

410400390380370360350340330320

,999

,99

,95

,80

,50

,20

,05

,01

,001

Pro

bab

ility

bayes7

Normal Probability Plot

Two-Sample T-Test and CI: bayes7; stat7

Two-sample T for bayes7 vs stat7

N Mean StDev SE Meanbayes7 100 382,4 17,1 1,7stat7 100 352,9 32,6 3,3

Difference = mu bayes7 - mu stat7Estimate for difference: 29,5595% CI for difference: (22,27; 36,82)T-Test of difference = 0 (vs not =): T-Value = 8,02 P-Value = 0,000DF = 149

Page 195: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice C 185

P-Value: 0,226A-Squared: 0,482

Anderson-Darling Normality Test

N: 100StDev: 16,7312Average: 380,537

425415405395385375365355345

,999

,99

,95

,80

,50

,20

,05

,01

,001

Pro

bab

ility

bayes8

Normal Probability Plot

Two-Sample T-Test and CI: bayes8; stat8

P-Value: 0,513A-Squared: 0,328

Anderson-Darling Normality Test

N: 100StDev: 29,7948Average: 347,018

430380330280

,999

,99

,95

,80

,50

,20

,05

,01

,001

Pro

babi

lity

stat8

Normal Probability Plot

Page 196: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice C 186

Two-sample T for bayes8 vs stat8

N Mean StDev SE Meanbayes8 100 380,5 16,7 1,7stat8 100 347,0 29,8 3,0

Difference = mu bayes8 - mu stat8Estimate for difference: 33,5295% CI for difference: (26,77; 40,27)T-Test of difference = 0 (vs not =): T-Value = 9,81 P-Value = 0,000DF = 155

P-Value: 0,561A-Squared: 0,305

Anderson-Darling Normality Test

N: 100StDev: 30,5698Average: 350,755

400350300

,999

,99

,95

,80

,50

,20

,05

,01

,001

Pro

bab

ility

stat9

Normal Probability Plot

Page 197: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice C 187

P-Value: 0,172A-Squared: 0,529

Anderson-Darling Normality Test

N: 100StDev: 15,5229Average: 380,604

410400390380370360350340

,999

,99

,95

,80

,50

,20

,05

,01

,001

Pro

bab

ility

bayes9

Normal Probability Plot

Two-Sample T-Test and CI: bayes9; stat9

Two-sample T for bayes9 vs stat9

N Mean StDev SE Meanbayes9 100 380,6 15,5 1,6stat9 100 350,8 30,6 3,1

Difference = mu bayes9 - mu stat9Estimate for difference: 29,8595% CI for difference: (23,07; 36,62)T-Test of difference = 0 (vs not =): T-Value = 8,71 P-Value = 0,000DF = 146

Page 198: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice D 188

APPENDICE D

BAYESIAN BELIEF NETWORK: ILMETODO E IL SOFTWARE BAYESIANKNOWLEDGE DISCOVERY

In questa appendice si intende descrivere brevemente la metodologiache è stata utilizzata nel capitolo 4 per definire le reti di dipendenzabayesiane a partire da database in presenza di dati mancanti. Perulteriori approfondimenti, si veda [Ram96a], [Ram96b], [Ram97a],[Ram97b], [Ram97c], [Ram97d], [Ram97e], [Ram97f] e [Ram98].

D1.1 Metodi bayesiani

I metodi di previsione statistica tradizionale sono basati sulladeterminazione della distribuzione condizionata p(y|θ) degli n datiosservati y = (y1,...,yn) dato il vettore θ, il quale descrive la strutturadelle dipendenze tra le variabili considerate. Questi strumenti “classici”utilizzano le informazioni ricavate dai dati a disposizione in unDatabase per correggere il modello θ ipotizzato, attraversol’applicazione dell’inferenza statistica.I metodi Bayesiani danno la possibilità di incorporare anche altre

informazioni sull’argomento in esame, quali: le esperienze passate sutemi simili o le particolari valutazioni degli esperti. Queste informazioniiniziali, sono rappresentati dal simbolo I0 e sono fondamentali nelladefinizione della probabilità a priori p(θ | I0), elaborata prima di averconsiderato i dati del Database. Questa probabilità, formulata con i datia disposizione, viene aggiornata con le nuove osservazioni; la revisionedelle informazioni viene rappresentata attraverso il teorema di Bayes:

)(

)(),(),(

0

000 Iyp

IpIypIyp

θθθ =

il quale modifica la probabilità iniziale P(θ |I0) nella probabilità aposteriori p(θ|y,I0) con l’aumentare delle informazioni. Questo processosi basa sulla rappresentazione delle informazioni totali (I1) come sommadelle informazioni a priori (I0) e dei dati ricavati dal campione (y).

Page 199: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice D 189

La probabilità al denominatore della formula di Bayes, dettaprobabilità marginale dei dati, è ricavata dal teorema delle ProbabilitàTotali:

θθθ dIpIypIyp )(),()( 000 ∫=In alcuni casi le informazioni I non influiscono sul campione y , dato il

vettore θ, cioè y e I sono condizionalmente indipendenti, quindi:)(),( θθ ypIyp =

L’indipendenza condizionale delle due variabili viene indicata comei(I,y|θ) e si verifica quando θ specifica completamente lo stato delleinformazioni, in modo che I non aggiunge nessuna nuova indicazionerilevante.Se gli n casi del campione y = (y1,...,yn) osservato sono indipendenti, la

densità di probabilità congiunta del campione è data da:

∏=

=n

iiypyp

1

)()( θθ

Questa espressione rappresenta anche la funzione di Verosimiglianza,la quale è quindi fondamentale nel passaggio dalla densità a priori aquella a posteriori.

D1.1.1 Direct Acyclic Graph (DAG)

La dipendenza stocastica tra le variabili I, θ e y può essererappresentata graficamente attraverso il Direct Acyclic Graph, il quale(aggiungendo l’ipotesi di indipendenza condizionale i(I,y|θ), tra I ed ydato θ) assume la seguente forma:

θ•

• •I y

Le frecce da θ verso I e y rappresentano la dipendenza stocastica di Ied y da θ. Secondo la terminologia adottata nella statistica bayesiana, θviene detto PARENT di I ed y, i quali sono entrambi CHILD di θ.La dipendenza stocastica di I e y da θ è quantificata dalle densità

condizionali p(I|θ) e p(y|θ), le quali vengono utilizzate per correggere ladistribuzione di θ. In primo luogo si determina la densità condizionaleP(θ | I) dalle informazioni I a disposizione, attraverso il teorema diBayes. Poi, con l’arrivo dei nuovi dati, la cui distribuzione è p(y|θ) eutilizzando ancora una volta il teorema di Bayes, si ricava ladistribuzione di θ, p(θ | I,y).

Page 200: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice D 190

Il metodo Bayesiano sfrutta questa caratteristica incrementale delprocedimento appena descritto, per arrivare alla definizione dellaprobabilità a posteriori dei parametri incogniti.

D1.1.2 Inferenza Bayesiana

Un punto fondamentale del metodo Bayesiano è l’utilizzo delleinformazioni a priori sulla distribuzione delle probabilità condizionali,parametrizzate dal vettore θ. La definizione di questo vettore può esserericavata in due diversi modi:- dall’analisi di dati a disposizione, quindi derivandola semplicemente

da un calcolo di probabilità su informazioni provenienti da studisimili già eseguiti in passato

- da asserzioni soggettive elaborate da esperti, le quali devono esseretradotte in termini probabilistici, utilizzabili nell’inferenza Bayesiana.La validità e veridicità di tali asserzioni dovranno essere dimostratedagli stessi esperti, che saranno tenuti a documentare i metodi e leipotesi utilizzate.

Esempio: un approccio comune seguito dagli esperti è la scelta di unafunzione di densità a priori simile a quella della Verosimiglianza. Le duefunzioni risultano essere Coniugate e la distribuzione a posteriori di θsarà della stessa classe, ossia avrà la stessa forma, della funzione didensità a priori. Questo criterio dovrebbe restringere la scelta delledistribuzioni a priori ad una classe limitata di funzioni ed è veramenteutile solo se questa classe non risulta essere troppo estesa.

Nelle valutazioni effettuate dagli esperti è molto importante la sceltadella Precisione, o Prior Precision, la quale è data in termini digrandezza del campione immaginario necessario alla definizione dellaprobabilità a priori. Questa grandezza specifica la confidenza che gliesperti hanno nelle loro asserzioni circa le densità di probabilità definiteinizialmente: infatti, più la prior precision è maggiore e vicina allanumerosità del campione analizzato, più la distribuzione di probabilitàa posteriori sarà simile a quella stabilita a priori. Quindi, se leinformazioni iniziali, su cui basare le decisioni circa la probabilità apriori, sono poco precise ed affidabili, è meglio che esse non influenzinotroppo i risultati finali: quindi è necessario impostare un valorerelativamente piccolo del parametro prior precision. In questo caso, irisultati saranno basati in misura maggiore sui dati a disposizione nelcampione analizzato. La scelta della prior precision deve tenere inconsiderazione sia la bontà delle asserzioni degli esperti, sia larappresentatività del campione analizzato e quindi la sua numerosità.Un problema aperto dei metodi Bayesiani è la scelta di una

distribuzione a priori che rappresenti una ignoranza iniziale

Page 201: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice D 191

sull’argomento da parte degli esperti, cioè una funzione che sia non-informativa e non influisca quindi sulla determinazione delledistribuzioni a posteriori. Una soluzione a questo problema può esserel’assegnazione di una distribuzione a priori che sia il più possibileuniforme, pur rimanendo una distribuzione di probabilità. Ad esempio,nel caso di una distribuzione di probabilità Normale, una varianzamolto elevata risulta essere molto efficace allo scopo e, siccome laPrecisione e la varianza sono inversamente proporzionali, ciò si traducein un valore della Prior Precision molto piccolo. Utilizzando ladistribuzione di probabilità uniforme come funzione iniziale dirappresentazione dell’incertezza, si assume, in realtà, che quest’ultimasia adeguatamente rappresentata da valori equamente distribuiti diprobabilità, quindi si attribuisce un’ipotesi forte alla distribuzione deidati, la quale deve essere necessariamente dimostrata e verificata.

D1.1.3 Reti Bayesiane

Le reti Bayesiane, o Bayesian Belief Networks (BBN), sono dei modelligrafici che descrivono le dipendenze tra diversi set di variabili. Esserappresentano un potente strumento di rappresentazione delleinformazioni, basato sulla teoria probabilistica.Una rete Bayesiana è definita da:- un set di variabili Y = {Y1,...,YI}discrete (per facilitare l’analisi), dove

ogni Y i è caratterizzata da ci stati, ognuno dei quali viene identificatoda yik

- un modello M delle dipendenze condizionali tra gli elementi di Y,definito da un Direct Acyclic Graph, dove i nodi rappresentano levariabili stocastiche e gli archi identificano le dipendenze tra di essi.

Per la seguente trattazione si utilizza la terminologia tipica dei DAG,cioè si indicano le variabili Yi come CHILD delle variabili PARENT Πi, lequali sono costituite dai qi stati πij.CHILD : Yi = {yi1,...,yik,...,yici} ossia Yi = {yik} con i=1,....,I

e k=1,...,ci

PARENT: Πi = {πi1,...,πij,...,πiqi} ossia Πi = {πij } con i= 1,....,Ie j=1,...,qi

Le Πi rappresentano i legami della variabile Yi con le altre variabili Yx

con x≠i.

Ad esempio: Π3=(Y1,Y2) rappresenta il legame tra la variabile CHILD Y3

ed i suoi PARENT Y1 e Y2.

Page 202: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice D 192

Y1 • • Y2

•Y3

I legami tra le variabili CHILD e PARENT sono definiti dalledistribuzioni condizionali di Y i dato Πi. Le variabili Yi sono indipendenti,in base alle ipotesi della struttura DAG e quindi, la probabilità dellacombinazione degli stati delle I variabili yk={yik,...,yIk}, combinazioneformata dalla selezione di un determinato stato k per ogni variabile Yi, èdata da:

∏=

=I

iijikk ypyp

1

)()( π

La componente grafica delle BBNs costituisce un modo semplice didescrivere e comunicare le dipendenze stocastiche tra le variabili.

D1.1.4 Ricavare una rete Bayesiana dai dati di unDatabase

Inizialmente le BBNs erano strutturate sulla base delle conoscenzedegli esperti, i quali davano una loro prima rappresentazione della retedelle dipendenze fra le variabili. Quest’ultima, associata con l’ipotesibase di indipendenza condizionale tra le variabili, dava una descrizioneprobabilistica delle ipotesi formulate dagli esperti.Per arrivare ad avere con le BBNs un valido strumento di analisi dei

dati indipendentemente dall’intervento degli esperti, si sono dovutisviluppare dei metodi atti a ricavare le reti Bayesiane direttamente daiDatabase.

D1.1.4.1 Scelta del modello M

Dati m modelli M={M0, M1, ...,Mm} delle dipendenze fra le variabiliconsiderate, ad ognuno sono assegnati la probabilità a priori p( Mj | I0 )ed i vettori delle probabilità condizionate associati, i quali vengonoindicati con il simbolo θ(j). Le informazioni raccolte dal campionevengono utilizzate per determinare la probabilità a posteriori per mezzodel teorema di Bayes:

Page 203: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice D 193

∑=

=m

iii

jjj

MypIMp

MypIMpIMp

10

01

)|()|(

)|()|()|(

dove p( y | Mj ) è la Verosimiglianza marginale, la quale, sotto le ipotesidi :- completezza del campione (non esistono dati incogniti);- casi indipendenti;- distribuzione a priori dei parametri coniugata al modello di campionamento:

),...,( 1)(

iijcijj

ij D ααθ ≈ ;può essere descritta dalla seguente equazione:

( ) ( )( )( )

( )( )( )∏∏∏

== = Γ

Γ=

ii c

k ijk

ijikijkI

i

q

j ijij

ijj

yn

nMyp

11 1

||

α

πα

πα

α

dove Γ( ⋅ ) è la funzione Gamma1.

Se il Database è completo, gli iper-parametri αijk+n(yik|π ij) e laprecisione αij+n(π ij) possono essere estratti dalle distribuzioni aposteriori delle probabilità condizionali θij, le quali sono ricavateseguendo il metodo descritto nel paragrafo “Stima dei parametri”(D1.1.4.2).

La scelta tra due modelli M0 e M1 si basa sul valore del rapporto( ) ( )( ) ( )101

000

||||MypIMpMypIMp

r =

Se r < 1 sarà scelto il modello M1, mentre se r > 1 verrà preferito ilmodello M0. Se r=1 vuol dire che i due modelli sono equivalenti, quindila scelta dipende solo dall’osservatore.

Al crescere del numero di variabili, la valutazione di tutti i modellipossibili diventa impraticabile, quindi è necessario utilizzare unprocesso di limitazione della ricerca ad un subset di modelli. Il limiteeuristico di ricerca più comune, applicato alla misura delle dipendenzecondizionali e proposto originariamente da Cooper e Herskovitz2, si 1 ( ) ∫ −−=Γ dxext xt 1 che, integrando per parti, si riduce a: ( ) ( )ttt Γ=+Γ 1 e,

quindi, se t=n : ( ) ( )!1−=Γ nnvedi inoltre: A.M. Mood, F.A. Graybill, D.C.Boes Introduzione alla statisticaApp. Pag. 253 McGraw-Hill Italia 19882 G.F. Cooper e E.Herskovitz. A bayesian method for induction of probabilisticnetworks from data. Machine Learning, 9:309-347, 1992

Page 204: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice D 194

basa su un ordinamento parziale delle variabili, cosicchè se Yi non puòessere PARENT di Yj, Yi viene posizionato prima di Yj ( YipYj ), ossiavengono date delle precedenze ai possibili legami, in modo da ridurnesignificativamente il numero. Prendendo in considerazione la formuladella probabilità condizionale del campione estratto y (dato il modelloMj) p( y |Mj ), ed evidenziando il contributo locale apportato del nodo Yi

e del suo PARENT Πi, si ottiene:

( )( )

( )( )( )( )

( )∏∏== Γ

Γ=Π

ii c

k ijk

ijikijkq

j ijij

ijii

yn

nYg

11

|,

α

πα

πα

α

Per ogni nodo Yi , l’algoritmo procede aggiungendo un PARENT (Π) allavolta e valutando g( Yi , Πi ). Il subset di variabili PARENT vieneallargato, seguendo il limite di ricerca sopra descritto, per includere lacombinazione PARENT che dia il contributo maggiore alla funzione g( Yi

, Πi ). Da questo punto di vista si può considerare il criterio di sceltacome una versione generalizzata del metodo della massimaverosimiglianza. La ricerca si ferma quando si raggiunge il massimodella funzione e la configurazione PARENT Πi corrispondente vienescelta come ottimale. Per comodità nei calcoli, è conveniente valutare illogaritmo naturale della funzione g( Yi , Πi ), in quanto gli ordini digrandezza si riducono e le valutazioni sui risultati rimangono lemedesime.Nel caso di distribuzione uniforme a priori dei parametri, cioè αijk=1

per tutti gli i,j,k, la formula di g( Yi , Πi ) diventa:( )

( )( ) ( )∏ ∏= =−+

−i iq

j

c

kijik

iji

i ynncc

1 1

!!1

!1π

π

D1.1.4.2 Stima dei parametri

Dato un campione di n casi y = {y1,...,yn}ed un modello M dellastruttura grafica della rete (DAG), le probabilità condizionate chedefiniscono la rete sono date dai parametri θ = ( θijk ), i quali devonoessere stimati dal campione y.Si definiscono i seguenti parametri:- ),( θπθ ijikijk yp= : probabilità condizionale dello stato k di Yi, dato lo

stato j di Πi e la struttura θdelle dipendenze;- ),...,( 1 iijcijij θθθ = : vettore associato alla distribuzione condizionale di

Yi|πij ; deve essere ricavato dal campione y;- n( yik |π ij ): frequenza dello stato k di Yi dato lo stato j di Πi, ricavata

dal campione y (indicata come il numero di volte che compare il caso( yik , π ij ) nel database)

Page 205: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice D 195

- ∑=K ijikij ynn )|()( ππ : frequenza dello stato j di Πi (sempre come

numero di volte in cui viene rilevato).

Il metodo Bayesiano per stimare θ si basa sull’analisi coniugata, laquale si sviluppa come segue.

La probabilità coniugata del caso yk può essere espressa comefunzione del parametro incognito θijk:

∏=

=I

iijkkyp

1

)( θθ

se i casi sono indipendenti, si definisce la funzione di Verosimiglianza:

∏∏∏∏= = ==

==I

i

q

j

c

k

ynijk

n

kk

i iijikypL

1 1 1

)|(

1

)|()( πθθθ

Naturalmente ciò può essere assunto nell’ipotesi di indipendenzaglobale e locale, per cui la probabilità condizionale è calcolata comeprodotto delle probabilità dei singoli stati delle variabili considerate.Sotto queste ipotesi, la densità congiunta a priori del vettore delleprobabilità condizionate θ date le informazioni a disposizione I0, puòessere esplicitata come:

∏∝ij

ij IpIp )|()|( 00 θθ

che induce alla definizione della densità finale (a posteriori):

∏ ∏

⋅∝=ij

c

k

ynijkij

iijijIpIp

1

)|(01 )|()|( πθθθ

che ci consente di aggiornare in modo indipendente le distribuzionidelle probabilità condizionali θij.Per semplificare la trattazione viene introdotta una particolare forma

della distribuzione a priori delle probabilità condizionali θij , cioè ladistribuzione coniugata di Dirichlet con gli iper-parametri {αij1,..., αijci }con αijk>0.Quindi:

),...,,...,(| 10 iijcijkijij DI αααθ ≈e la densità a priori di θij è proporzionale a:

∏ −∝k

ijkijijkIp 1

0 )|( αθθ

Gli iper-parametri della funzione di Dirichlet αijk rappresentanol’opinione a priori dell’osservatore sulle distribuzioni di probabilitàiniziali dalle quali partire per svolgere l’analisi. Questi parametripossono essere definiti anche come “frequenza dei casi immaginarinecessari per formulare la distribuzione a priori”. αij è la precisione

Page 206: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice D 196

locale e ( αij-ci ) rappresenta la frequenza dei casi immaginari osservatiin πij.

∑=

=ic

kijkij

1

αα

∑=ij

ijαα è la precisione globale di θ

Le quantità αijk vengono utilizzate per specificare: la probabilità marginale di ( yik | πij ), la quale corrisponde al valore

atteso a priori:

ij

ijkijk IE

α

αθ =)|( 0

e la varianza a priori:[ ]

1

)(1)()|( 0 +

−=

ij

ijkijkijk

EEIV

α

θθθ

E’ interessante notare che, dato il valore atteso, la varianza èinversamente proporzionale al valore della precisione locale αij, cosicchèun valore piccolo di questo parametro porta ad una grossa incertezza.Quindi, visto che la Prior Precision è data da ∑=

ijijαα , anche essa,

come già accennato in precedenza, è un indicatore della precisione delleassunzioni iniziali, cioè riflette l’ampiezza dello scostamento dei valoriche si osserveranno rispetto ai dati ipotizzati.La situazione di ignoranza iniziale può essere rappresentata dal valore

di αijk = α/(ciqi) per tutti gli i, j e k, per cui la probabilità a priori di ( yik |πij ) diventa semplicemente: 1/ci .

Ignoranza iniziale :

=

=

iijik

iiijk

cIyp

qc1

),|( 0π

αα

La densità a posteriori di θ , come dimostrato da Spiegelhalter eLauritzen 3 , assume la forma:

))|(),...,|((| 111 ijicijcijiijij iiynynDI παπαθ ++≈

In questo modo gli iper-parametri della distribuzione di θij possonoessere aggiornati attraverso le informazioni raccolte, sommando aiparametri iniziali la frequenza dei casi (yijk , πij) osservati nel campione.La precisione locale αij viene incrementata dalle nuove frequenzeraccolte, diminuendo così anche l’incertezza iniziale. 3 D.J. Spiegelhalter e W.R. Lauritzen. “Sequential updating of conditionalprobabilities on direct graphical structures”. Networks, 20:157-224, 1990

Page 207: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice D 197

Le funzioni del Valore atteso e della varianza a posteriori assumono laseguente forma:

)(

)|()|( 1

ijij

ijikijkijk n

ynIE

πα

παθ

+

+=

[ ]1)(

)|(1)|()|( 11

1 ++

−=

ijij

ijkijkijk n

IEIEIV

πα

θθθ

D1.1.5 Database Incompleti (Metodologia Bound &Collapse)

D1.1.5.1 Introduzione

La procedura utilizzata per stimare le distribuzioni di probabilitàcondizionata da Database eventualmente incompleti si basa sul metodoBound & Collapse (1997), sviluppato da M.Ramoni e P. Sebastiani4.Nella strutturazione delle reti di dipendenza bayesiane si assume

solitamente che il Database analizzato sia completo, siccome lacomplessità della trattazione aumenta esponenzialmente in relazione alnumero di dati mancanti5, diventando praticamente ingestibile. Inrealtà la presenza dei cosiddetti missing data, ossia dati non riportati,persi o illeggibili, è molto frequente.La presenza di campioni incompleti non è assolutamente ignorabile

durante lo svolgersi di un’analisi statistica, in quanto i dati mancantipossono invalidare le ipotesi di casualità formulate. Il metodo Bound &Collapse, di seguito presentato, utilizza la classificazione dei datimancanti [Ram97f] data da Rubin6 (1976) e sviluppata in seguito daLittle e Rubin7 (1987) e da Gelman8 (1995).

4 M.Ramoni: Knowledge Media Institute (The Open University)P. Sebastiani Department of Actuarial Science and Statistics (City University)5 G.F. Cooper & E.Herskovitz. A Bayesian method for induction of probabilisticnetworks from data. Machine Learning, 9:309-347, 1992.6 D.B. Rubin (1976). Inference and missing data. Biometrika, 63,581-592.7 R. Little & D. Rubin (1987). Statistical Analysis with Missing Data. Wiley,New York, NY.8 A. Gelman, J.B. Carlin, H.S. Stern & D.B. Rubin (1995). Bayesian DataAnalysis. Chapman and Hall, London.

Page 208: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice D 198

D1.1.5.2 Classificazione dei dati mancanti

Si prendono in considerazione due categorie di variabili X e Y, dove Xsono variabili indipendenti, complete e che possiamo considerare ininput, mentre Y sono variabili in output, soggette alla non-risposta. Percomodità, la presenza di dati mancanti viene indicata con il simbolo ( ?).I meccanismi di assenza dei dati vengono classificati in base alla

probabilità che la mancanza di rilevazione dipenda dallo stato di Y o diX. Quindi, quando questa probabilità dipende dallo stato di X ma nonda quello di Y, i dati vengono indicati come Missing At Random (MAR),mentre quando essa non dipende né da X né da Y allora vengono dettiMissing Completely At Random (MCAR), come rappresentato in TabellaD1.Nel caso di dati MAR, i valori osservati di Y non sono in generale

rappresentativi del campione completo, ma possono diventaresignificativi considerando separatamente le diverse categorie di X. Se idati sono classificati come MCAR, i valori osservati di Y sono un sub-campione rappresentativo del campione completo originale. Quindi, inquesti due casi, il meccanismo di presenza dei dati mancanti puòessere ignorato, nel senso che l’inferenza statistica non vieneinfluenzata da esso.Se la probabilità di Y=? dipende sia da X che da Y, il meccanismo dei

dati mancanti viene denominato Not Ignorable (NI) ed il campioneincompleto risultante non è più rappresentativo.

Tipologia di dati Probabilità di Y=?Dipende da:

MAR (Missing At Random) XMCAR (Missing Completely At

Random)/

NI (Not Ignorable) X , Y

Tabella D1

Page 209: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice D 199

D1.1.5.3 Campioni incompleti: metodo Bound and Collapse

Le soluzioni utilizzate in caso di campioni incompleti, basate suimetodi Markov Chain Monte Carlo (MCMC), tra i quali Gibbs Sampling9

(Geman and Geman, 1984), EM Algorithm10 e Sequential Updating11,seguendo il cosiddetto Missing Information Principle, cercano dicompletare il Database attraverso un’inferenza dei dati a disposizione,per poi continuare l’analisi considerando il Database come fossecompleto. Questi metodi danno buoni risultati solamente nel caso didati mancanti del tipo MAR, dove i dati a disposizione sonorappresentativi del campione completo.Le analisi svolte con questi metodi su database che presentavano

meccanismi Not Ignorable nei missing data, hanno evidenziato errori esvantaggi:si ipotizza che le informazioni circa il meccanismo di perdita dei dati

siano note, mentre ciò non è sempre verovengono implementate misure di affidabilità che non tengono conto, in

modo completo, dei dati mancantiil costo in termini di elaborazione risulta funzione del numero di dati

mancanti, quindi il dispendio di risorse è notevole.

Il metodo Bound and Collapse (BC) cerca di ovviare a questi problemicercando di definire:- un metodo di stima da campioni incompleti coerente con il modello

dei dati mancanti;- l’identificazione di misure di affidabilità che tengano conto della

presenza dei missing data ;- lo sviluppo di un metodo efficiente per sviluppare questi calcoli.

Questa metodologia si basa su un semplice concetto: quando nonesistono informazioni circa il meccanismo dei dati mancanti, uncampione incompleto è in grado di limitare il set di possibili stimatori,attraverso un intervallo dato dalle distribuzioni di probabilità estreme

9 S. Geman & D. Geman. Stocastic relaxation, Gibbs distibutions and theBayesian restoration of images. IEEE Transaction on Pattern Analysis andMachine Intelligence, 6:721-741, 1984.10 A. Dempster, D. Laird and D. Rubin. Maximum likelihood from incompletedata via the EM algorithm. Journal of the Royal Statistical Society, Series B,39:1-38, 1977.11 D.J. Spiegelhalter & S.L. Lauritzen. Sequential updating of conditionalprobabilities on directed graphical structures. Networks, 20:157-224, 1990.

Page 210: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice D 200

(Bound ). Per ognuno di questi intervalli viene applicato unprocedimento, per cui l’intervallo viene fatto collassare ad un singolovalore (Collapse) per mezzo di una combinazione convessa deglistimatori estremi, con i pesi dipendenti dal modello dei dati mancanti. Ipunti trovati vengono utilizzati per approssimare la distribuzione deiparametri di interesse.

Analizziamo ora questa metodologia, cercando di evidenziare lastruttura ed i punti principali su cui si fonda, provando a dare unavisione globale della logica adottata nel software utilizzato.

Bound

Il primo passo del metodo BC consiste nel limitare il set di stimatoriutili dei parametri incogniti, attraverso la determinazione dei limitisuperiore (Upper Bound) ed inferiore (Lower Bound) in termini diprobabilità finale stimata per ogni parametro. Si trovano dei limitirappresentati dalle stime Bayesiane, ricavate attraverso inferenze suipossibili completamenti del Database, le quali stime dipendonodirettamente dalle frequenze dei dati esaminati. In pratica, per ognivariabile che presenta osservazioni incomplete, vengono consideratetutte le possibilità di completamento, limitando i possibili stimatori adun set ristretto ammesso dal Database analizzato.

Si considerano le variabili casuali Xi le quali sono caratterizzate da Mstati xim e le variabili Πi che rappresentano le configurazioni PARENTper le variabili CHILD X i.n(xim|π ij) è la frequenza di xim data la configurazione PARENT π ij,

ricavata dai casi completi del DB, mentre n•(xim|πij) è la frequenzamassima, detta anche frequenza “artificiale”, di xim ottenutacompletando i casi incompleti:

( ) ( ) ( ) ( )???? nxnnxn imijijim ++=• ππ

( ) ( ) ( ) ( )????1

nxnnxnM

mlilijijim ++= ∑

=≠• ππ

dove :- n( ?|π ij ) è la frequenza dei casi nei quali solo i dati della variabile

CHILD sono mancanti;- n( xim|? ) rappresenta la frequenza dei casi con la configurazione

PARENT incognita, la quale può essere completata come π ij;- n( ?|? ) è la frequenza dei casi in cui tutti i dati in ingresso sono

mancanti, questi possono essere completati come ( xim|π ij ).Il massimo della stima di θijm ( =p(xim|π ij) ) viene conseguito quando

tutti i casi (Xi=?, π ij), (Xi=?, Πi=?) e (Xi=xim , Πi=?) sono completati come

Page 211: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice D 201

(xim ,π ij) e i casi (Xi=xil , Πi=?) con l≠m, sono completati come (xil,π ij’) perqualche j’≠j.Il minimo della stessa stima si ha quando il meccanismo dei dati

mancanti è tale che: tutti i casi (Xi=?, π ij), (Xi=?, Πi=?) e (Xi=xil , Πi=?) conl≠m, sono completati come (xil ,π ij) e tutti i casi (X i=xim , Πi=?) sonocompletati come (xim,π ij’) per qualche j’≠j.

Si ricavano i limiti per la stima Bayesiana del valore atteso E(θim|D),per ogni stato m della variabile Xi.

Limite superiore: ∑ •

••

++

++=

mijimijimij

ijimijimijmincijim xnxn

xnxnDxp

)|()|(

)|()|(),|(

ππα

ππαπ

Limite inferiore: ( ) ( )∑ •• ++

+=

mijimijimij

ijimijmincijim xnxn

xnDxp

ππα

παπ

)|(

)|(,

Il secondo termine al denominatore è equivalente a:( ) ( )∑ =

mijijim nxn ππ

Completando virtualmente tutti i casi possibili come (xim , π ij), mentre lefrequenze degli altri stati di Xi dato π ij non vengono aumentate, si puòvedere la probabilità massima p•(xim|π ij , Dinc), come ottenuta da unadistribuzione di Dirichlet:

( ) ( ) ( ) ( )( )ijiMijMijimijimijmijiijm xnxnxnxnD παππαπα ++++ • ,...,,...,11

dove si nota che aumenta solamente la frequenza del caso consideratoxim, quindi gli altri stati della variabile Xi avranno una probabilità datada : pm•(xil|π ij , Dinc) con l≠m.Introducendo, nella ricerca della probabilità minima di θijm , una

variazione alle ipotesi sul completamento virtuale dei dati mancanti,ossia ponendo che il caso (X i=xil , Πi=?) con l≠m non possa esserecompletato come (xil ,π ij) ma come (xil,π ij’) per j’≠j, si possono ricavare deinuovi limiti inferiori locali direttamente dalla probabilità massima.Infatti, considerando le probabilità degli altri stati l≠m della variabile Xi ,si trova, fra di esse, un minimo globale, dato da:

( ) ( )[ ]incijikllincijikloc DxpDxp ,min, ππ •• =

che può essere anche scritto:

( ) ( )∑ •

• ++

+=

mijimmlijimij

ijimijmincijim

loc

xnxn

xnDxp

ππα

παπ

max)|(

)|(,

e può essere adottato come Limite inferiore di θijm .

Page 212: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice D 202

La differenza tra p•loc e p• dipende solamente dalla presenza di casi neiquali lo stato della variabile CHILD è noto mentre è incognita laconfigurazione PARENT. E’ importante notare che p•loc > p• , perciòl’intervallo tra i limiti maggiore e minore diminuisce.

Questo metodo è implementato utilizzando un algoritmo basatosull’albero delle decisioni, ossia considera tutti i possibili rami dicompletamento del Database, per immagazzinare in modo efficiente leinformazioni sui parametri. In pratica, i limiti di probabilità vengonocalcolati per tutti gli stati di ogni variabile incompleta considerata.L’ampiezza dell’intervallo di probabilità così ricavato diminuisce

all’aumentare delle informazioni a disposizione nel Database circa iparametri da stimare e, quindi, rappresenta una misura della qualitàdell’informazione probabilistica ricavata, dando inoltre un’indicazionesul grado di affidabilità delle stime.

Collapse

A questo punto, avendo a disposizione i due limiti, superiore edinferiore, per ogni parametro incompleto, si procede, attraverso unacombinazione convessa, alla valutazione puntuale della probabilitàcondizionata di ogni xim dato lo stato πij della configurazione PARENT Πi.Si possono seguire due strade per questa elaborazione:- Exogenous Knowledge: ossia, si utilizzano informazioni esterne,

solitamente elaborazioni o studi particolari di esperti, circa il modellodei dati mancanti

- Available Information: viene svolta una stima dinamica del modellodei dati mancanti, utilizzando le informazioni a disposizione nelDatabase.

1 Exogenous Knowledge

Nel primo metodo si ipotizza di avere a priori delle informazioni sulmodello dei missing data, ossia le distribuzioni specifiche osservate inaltri casi o forzate dall’operatore per conseguire obiettivi particolari.Queste informazioni permettono, attraverso la loro codifica, diformulare le ipotesi sulla distribuzione che descrive la probabilità dicompletamento per ogni caso incompleto del Database:

( ) ijmiijim Xxp φθπ == ?,,ossia, la probabilità che dato un caso incompleto, esso sia completato

dalla combinazione CHILD-PARENT xim|π ij ,

Page 213: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice D 203

e quindi: ∑=

=M

mijm

1

1φ (M= numero degli stati di Xi ).

Si ricava, in questo modo, un modello parametrico del meccanismo digenerazione dei dati mancanti (φ ijm), il quale viene utilizzato comesistema di pesi nel calcolo della combinazione convessa. La stimapuntuale ricavata da quest’ultima operazione rappresenta la stimaattesa di Bayes ottenuta dal Database completo quando il meccanismodei missing data è quello ipotizzato:

( ) ( ) ( )∑≠

•• ⋅+⋅=

mlincijimlijlincijimijmijmincijim DxpDxpDxp ,,,,ˆ πφπφφπ

φijm assume dei valori limite a seconda che:- i dati vengano persi sistematicamente nel Database: φ ijm=1

- non esistano informazioni sul meccanismo di generazione deimissing data; in questo caso viene ipotizzata una probabilità uniforme,in quanto ogni modello è ugualmente probabile: φ ijm=1/M(M = n° di stati della variabile considerata)

2 Available Information

Il secondo metodo utilizza le informazioni a disposizione nelDatabase, attraverso le quali si deve poter ipotizzare di essere inpresenza di un meccanismo Missing At Random. Questa ipotesi ènecessaria per poter affermare che Dobs, ossia quella parte del DB conimmissioni complete, è un campione rappresentativo dell’intero DB ( D= Dobs + Dmis ). Si può così determinare la probabilità di completamento

ijmφ̂ attraverso i dati contenuti in Dobs ; questa probabilità viene a suavolta utilizzata per il calcolo della combinazione convessa.

( ) ( )( )∑+

+==

mijimij

ijimijmobsijimijm xn

xnDxp

πα

παπφ ,ˆ

dove αijm è la frequenza dei casi immaginari per formulare ladistribuzione a priori e αij è la prior precision.E’ importante tenere ben presente che, per ricavare la stima puntuale

della probabilità solamente con le informazioni a disposizione nelDatabase, bisogna ipotizzare la presenza di un meccanismo M.A.R. digenerazione dei missing data, che deve essere utilizzato con le dovutepremesse e precauzioni.

I risultati ottenuti nella fase Collapse vengono utilizzati nelladeterminazione della funzione di verosimiglianza, necessaria per ladefinizione della rete Bayesiana delle dipendenze, attraverso la formula:

Page 214: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice D 204

( )( )( )

( )( )( )∏ ∏

= = Γ

⋅Γ

Γ

Γ=Π

i iq

j

c

k ijk

incijikij

ij

ijii

DxpXg

1 1

,ˆˆ

ˆ,ˆ

α

πα

α

α

dove: ( ) ( ) ( )

−⋅++= ∑

jijincijijijij nnDpn πππαα ˆˆ

Conclusioni

La rappresentazione esplicita e separata delle informazioni e leassunzioni circa il modello dei missing-data fanno si che questo metododi stima risulti essere indipendente da ogni particolare meccanismo didati mancanti. I limiti estremi ricavati per i possibili stimatorirappresentano l’incertezza dovuta ai dati mancanti e l’ampiezzadell’intervallo trovato può essere vista come una misura della qualità edella completezza delle informazioni probabilistiche contenute nelDatabase, circa i parametri incogniti. Infatti, l’aumento dell’ampiezzadell’intervallo ricavato è da imputare alla crescita dell’incertezza dovutaall’incompletezza del Database analizzato, cioè, in altri termini, alcrescere del numero dei dati mancanti diminuisce l’affidabilità dellestime dei parametri.Rispetto ai metodi che basano la loro analisi sulle ipotesi di

meccanismi Missing At Random dei dati mancanti, per cui i dati adisposizione sono rappresentativi del campione completo, il metodoBound & Collapse evita qualsiasi assunzione in merito, eludendo così iproblemi che si presentano nel caso di sistemi Not Ignorable, nei qualiesiste un preciso meccanismo di perdita dei dati e quindi leinformazioni disponibili per l’analisi non sono più significative inrelazione all’intero Database. Questi casi vengono di solito risolti daglialtri metodi o forzando l’ipotesi di una distribuzione MAR dei datimancanti, dando luogo ad una approssimazione non trascurabile,oppure eliminando completamente i missing data, implementandoquindi l’analisi su un Database ridotto ma completo, perdendo inquesto modo parte delle informazioni e creando problemi di affidabilitàdei risultati.Un ulteriore vantaggio è rappresentato dal fatto che la complessità di

elaborazione è ridotta, per ogni stato della variabile in output, adun’analisi dei dati nella fase di ricerca dei limiti (Bound ) inferiori esuperiori, e ad una loro combinazione convessa nella fase successiva(Collapse). Quindi il costo in termini di elaborazione risulta esserefunzione solamente del numero di stati di Y ed è indipendente dalnumero di dati mancanti, portando così a differenze molto significativenei tempi di elaborazione dei dati, da alcuni secondi nel caso del B&Cad alcuni minuti per il Gibbs Sampling.

Page 215: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice D 205

D1.2 Il SW Bayesian Knowledge Discovery

Il programma presenta, come interfaccia utente, 3 finestre(Figura D.1) , attraverso le quali si possono osservare i dati deldatabase prescelto per l’analisi (Database), la rappresentazione dellarete Bayesiana generata dall’elaborazione dei dati stessi (Network),oppure le linee di comando, i messaggi di errore, di elaborazione ed irisultati delle Query (Message).

Il primo passo è selezionare il Database da studiare, il quale puòessere costruito anche attraverso Microsoft Excel, avendo l’accortezza disalvarlo come database “Testo (delimitato da tabulazione)”, ossia comefile “*.txt”. Utilizzando la finestra Database/Select si sceglie il DB su cuisi vuole svolgere l’analisi di correlazione.

Figura D.1: Il Software BKD

D1.2.1 Impostazione dei parametri di elaborazione

E’ fondamentale a questo punto impostare i parametridell’elaborazione che si vuole eseguire attraverso la finestra:Edit/Preferences. L’indicazione della Prior precision si riferisce allaconfidenza nelle stime della probabilità a priori, che può essere vistacome il numero dei casi immaginari su cui si ipotizza sia elaborata laprobabilità iniziale.

Page 216: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice D 206

L’attivazione dell’ipotesi di modello Missing At Random per i datimancanti risulta essere fondamentale nella nostra analisi, in quanto lostudio si basa proprio sulla rappresentatività dei dati raccolti inrelazione all’intero Database. Infatti, avendo scelto in manieraassolutamente casuale il campione di intervistati, si esclude la presenzadi meccanismi di generazione dei dati mancanti del tipo Not Ignorableed avendo i clienti usufruito dello stesso servizio in un arco di tempoabbastanza limitato (3 mesi), si assume che le risposte raccolterispecchino una comune percezione del servizio offerto e che quindipossano essere considerate rappresentative dei dati mancanti.L’informazione del numero massimo di stati (Max State) per

considerare una variabile discreta o continua a noi non interessa inquanto le variabili esaminate sono tutte discrete e non superano i 4stati possibili. Missing Symbol richiede il simbolo utilizzato per indicarei dati mancanti nel Database, quindi è necessario sostituire la sigla NA,data di default, con il punto interrogativo ( ? ) da noi utilizzato nel DB.E’ molto importante indicare il segno giusto ad ogni elaborazione, inquanto, in caso contrario, il nostro simbolo viene interpretato come unavariabile del DB e vengono calcolate le probabilità di accadimento anchedell’evento “punto interrogativo” falsando così i risultati dell’interaelaborazione. Max Parents e Display Precision indicano solamente ilmassimo numero di legami di correlazione per un nodo, in cui lasciamo“nessun limite” come già impostato di default, e il numero massimo dicifre decimali utilizzate nel calcolo delle probabilità (3 nel nostro caso).L’indicazione della strategia seguita nella ricerca (Search Strategy) deipossibili legami tra i nodi è un punto critico in quanto presupponeun’analisi strategica ed approfondita delle implicazioni che ogni sceltainclude:La ricerca di tipo Greedy comporta una dipendenza dei legami dalla

posizione delle variabili nel Database. Infatti le variabili presenti neiprimi posti del DB vengono considerate come nodi “genitori” rispettoalle variabili seguenti, quindi si ha una forte interferenza da parte dellasequenza impostata nel DB, sui risultati ottenuti. L’arco tra duevariabili viene tracciato se incrementa il logaritmo dellaVerosimiglianza, ossia, viene calcolato per ogni nodo il valore dellaverosimiglianza (Likelihood) considerando tutte le possibiliconfigurazioni di correlazione con le sole variabili che lo precedono nelDB, e quindi si sceglie l’opzione di legame che presenta il valoremaggiore della Verosimiglianza; se nessun arco porta a questoaumento, la ricerca viene interrotta.L’Arc Inversion elimina parzialmente, dalla ricerca di tipo Greedy,

l’ipotesi di dipendenza dei legami di correlazione dalla sequenza diimpostazione delle variabili nel database, eseguendo la ricerca non soloverso le variabili “genitori”, ma quando possibile, anche dagli altri nodi,purché non vengano introdotti dei cicli. Quindi l’ordine continua ad

Page 217: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice D 207

avere un ruolo importante, in quanto, avendo stabilito in primo luogodelle dipendenze attraverso la strategia Greedy, alcuni legami, chepotrebbero generare dei cicli, non verranno neanche considerati.La strategia Exhaustive esplora tutte le possibili combinazioni dei

nodi, selezionando i casi con il più alto valore del logaritmo dellaVerosimiglianza, purché non ci siano cicli nella rete. Naturalmentequesto tipo di ricerca è il più dispendioso in termini di tempo e quindiraramente implementato. La versione del software attualmente adisposizione non prevede ancora questa opzione, ma verrà completatain breve tempo.E’ da sottolineare il fatto che, nel tipo di analisi da noi svolto, gli archi

che indicano i rapporti di correlazione tra le variabili non determinano iltipo di legame effettivo che sussiste tra di esse: essi evidenzianol’esistenza di una correlazione ma non garantiscono la correttezza delladipendenza riportata dal grafico. Il reale rapporto di dipendenze tra inodi deve essere valutato successivamente in base alle informazioni adisposizione e ad attente valutazioni sul caso preso in considerazione,prestando molta attenzione alla significatività dei risultati ottenuti.

D1.2.2 Istruzioni principali per l’utilizzo del BKD

L’elaborazione dei dati viene svolta attraverso i comandi:- Network / Define from data: vengono definiti i nodi della rete,

considerando come variabile la prima riga di ogni colonna del DB, laquale deve essere impostata a questo scopo. Nella finestra Networkapparirà la rappresentazione dei nodi, i quali possono essere spostatia piacere, cercando di dare una lettura più chiara possibile deilegami di correlazione che verranno elaborati.

- Network / Quantify from data: il programma calcola i valori diprobabilità dei vari stati delle variabili e la relativa varianza. Vengonoricercati anche i limiti superiori ed inferiori di probabilità per i datimancanti (Bounds) e viene calcolato, attraverso il metodo Bound &Collapse presentato nel paragrafo 4.3, il valore di probabilitàpuntuale per ogni stato assunto dalle incognite.

- Network / Generate a model: il programma calcola i valori diverosimiglianza dei vari nodi e traccia così i possibili legami tra levariabili, basandosi sul metodo della Massima Verosimiglianza. InOutput viene fornita la struttura grafica della rete su cui è possibileformulare delle Query sullo stato delle variabili e sul lorocomportamento.

Il criterio di scelta della rete delle dipendenze utilizzato dal BKD è ilmetodo della massima Verosimiglianza (Likelihood). Questa funzionefornisce la “verosimiglianza” che le variabili casuali assumano un

Page 218: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice D 208

particolare valore, ossia, riferendosi al caso da noi analizzato, che larete delle dipendenze assuma una particolare configurazione.Vengono ipotizzati quindi vari legami di dipendenza dei quali si calcola

la verosimiglianza; i valori ricavati vengono confrontati e si sceglie ilmaggiore valore rilevato.

Il valore massimo della funzione di Verosimiglianza indica quindila struttura della rete che presenta la maggiore probabilità direalizzazione, ossia la configurazione più verosimile.

Page 219: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice D 209

D1.3 Il questionario Call Center Assitalia

Page 220: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice D 210

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 300 Disponibilità Si 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1

all'intervista No1 Soddisfazione Nulla 1

generale Abbastanza 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1Molto 1 1 1 1 1 1 1 1 1 1 1 1 1

2 Servizio Call Center Peggiore 1 1vs. tradizionale Uguale 1 1 1 1 1 1 1 1

Migliore 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 13 Orario Lun-Ven Nulla

8.30/18.30 Abbastanza 1 1 1 1 1 1Molto 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1

4 Orario preferito Sab 8/13 1 1 1 1 1 1 1Sab-Dom 8/13Tutti gg 8/22

24h/24 15 Risposta operatore Subito 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1

Attesa 1Occupato 1

6 Soddisfazione per Nullamodalità di contatto Abbastanza 1 1 1

Molto 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 17 Soddisfazione per Nulla

capacità operatore Abbastanza 1 1 1 1 1 1 1 1 1Molto 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1

8 Numero telefonate una 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1necessarie oltre 1 1 1

Page 221: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice D 211

9 Tempo al telefono per < 5min 1 1 1 1 1 1 1 1 1 1 1denuncia 5min - 10 min 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1

10min - 15 min 1 1oltre

10 Soddisfatto della durata Nulla 1 1 1Abbastanza 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1

Molto 1 1 1 1 1 1 1 1 1 1 1 112 Durata ottimale della < 5min 1 1 1 1 1 1 1 1 1 1 1 1 1 1

comunicazione 5min - 10 min 1 1 1 1 1 1 1 110min - 15 min

Non importante13 Processo raccolta dati Necessari 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1

Già noti 1 1 1Chiesti più volte

Ricavabili 1 1 1

Page 222: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice D 212

31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 600 Disponibilità Si 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1

all'intervista No 11 Soddisfazione Nulla 1 1 1

generale Abbastanza 1 1 1 1 1 1 1 1 1 1 1 1 1Molto 1 1 1 1 1 1 1 1 1 1 1

2 Servizio Call Center Peggiore 1 1 1 1vs. tradizionale Uguale 1 1 1 1 1

Migliore 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 13 Orario Lun-Ven Nulla

8.30/18.30 Abbastanza 1 1 1 1 1 1Molto 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1

4 Orario preferito Sab 8/13 1 1 1 1 1 1 1Sab-Dom 8/13Tutti gg 8/22

24h/245 Risposta operatore Subito 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1

Attesa 1 1 1Occupato 1

6 Soddisfazione per Nullamodalità di contatto Abbastanza 1 1 1 1

Molto 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 17 Soddisfazione per Nulla

capacità operatore Abbastanza 1 1 1 1 1 1 1 1 1Molto 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1

8 Numero telefonate una 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1necessarie oltre 1

Page 223: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice D 213

9 Tempo al telefono per < 5min 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1denuncia 5min - 10 min 1 1 1 1 1 1 1 1 1

10min - 15 minoltre

10 Soddisfatto della durata Nulla 1Abbastanza 1 1 1 1 1 1 1 1 1 1 1

Molto 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 112 Durata ottimale della < 5min 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1

comunicazione 5min - 10 min 1 1 110min - 15 min

Non importante13 Processo raccolta dati Necessari 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1

Già noti 1Chiesti più volte 1

Ricavabili

Page 224: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice D 214

Disponibilità

Soddisfazione

CC/Trad

Orario

OraPref

Risposta

Contatto

Capacità

Telefonate

Tempo

SoddDurat

a

DurOtt

RaccoltaDati

1 1 1 3 ? 1 2 3 1 2 1 ? 11 3 3 3 1 1 3 2 1 2 2 2 11 2 2 3 ? 1 3 2 2 2 3 2 11 2 2 3 ? 1 3 3 1 1 2 1 11 2 3 3 ? 1 3 3 1 2 2 1 41 3 2 2 4 1 3 3 1 1 2 1 11 3 3 2 1 1 3 2 1 2 2 2 21 2 ? 3 ? 1 3 2 1 2 2 1 11 3 3 3 ? 1 3 3 1 2 3 2 11 3 3 3 ? 1 3 3 1 2 2 ? 11 2 3 3 ? 1 3 ? 2 1 3 ? 11 2 1 2 ? 1 2 2 1 3 2 2 11 3 3 3 1 1 3 2 1 2 2 2 11 2 2 3 ? 1 3 3 1 2 3 ? 11 3 3 3 ? 1 3 3 1 2 2 2 11 3 3 2 1 1 3 3 1 2 3 2 11 2 3 3 ? 1 3 3 1 2 3 ? ?1 3 3 3 1 1 3 3 1 1 2 1 41 2 3 3 ? 3 3 3 1 1 2 ? 21 2 3 3 ? 1 3 3 1 2 3 ? 11 2 2 3 ? 1 3 3 1 1 3 1 11 2 ? 2 1 1 3 3 1 3 2 1 11 3 ? 3 ? 1 3 3 1 1 3 1 11 2 ? 3 ? 1 2 3 2 2 1 1 11 3 3 3 ? 1 3 2 1 1 2 1 11 2 2 3 ? 1 3 2 1 ? 3 ? 11 3 3 3 ? 1 3 3 1 1 3 1 11 3 3 2 1 1 3 3 1 1 3 1 11 2 3 3 ? 2 3 3 1 1 2 1 11 2 2 3 ? 1 3 2 1 2 1 1 41 3 3 3 ? 1 3 3 1 1 3 ? ?1 2 2 2 ? 1 3 2 1 2 2 1 11 3 3 3 ? 1 3 3 1 ? 3 ? 21 3 3 3 ? 1 3 3 1 ? ? ? ?1 3 3 ? ? 3 3 2 1 1 2 1 ?1 1 1 3 ? 1 3 3 1 ? 3 ? 11 2 1 2 ? 1 3 2 1 2 2 1 11 3 1 3 ? 1 3 3 1 1 3 1 11 1 1 2 ? 1 3 2 1 2 1 1 11 1 ? 3 ? 2 3 3 1 2 2 1 11 ? 3 3 ? 1 3 2 1 2 2 1 ?1 2 2 3 ? 1 3 3 1 1 2 1 11 3 3 3 1 1 3 3 1 2 2 2 11 3 3 3 ? 1 3 3 1 1 3 ? 11 2 3 3 1 1 3 3 1 1 3 1 11 2 3 3 ? 1 3 3 1 1 3 1 12 ? ? ? ? ? ? ? ? ? ? ? ?1 2 2 3 1 2 3 3 1 2 3 2 11 2 3 3 ? 1 3 3 1 1 3 1 11 2 2 3 1 1 3 2 1 1 3 1 31 3 3 3 ? 1 3 2 1 1 3 1 11 3 3 3 ? 1 3 3 1 1 2 ? 11 2 3 3 1 1 2 2 2 1 2 1 11 ? ? 2 ? 1 2 ? 1 2 2 2 11 2 3 3 ? 1 2 2 1 1 3 1 1

Page 225: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice D 215

1 2 ? 3 ? 1 ? 3 1 1 3 1 11 2 2 2 1 1 2 3 1 2 2 1 11 2 3 2 1 1 3 3 1 1 3 1 11 3 3 3 ? 1 3 3 1 1 3 ? 11 3 3 ? ? 2 3 3 1 ? 3 ? 1

D.2 Database utilizzato nel software BKD

D1.4 Risultati dell’analisi delle dipendenze(BKD)

D1.4.1 Legami di dipendenza tra le variabili: valoridi Verosimiglianza e di probabilità condizionale deilegami

BKD> LIKELIHOOD CAPACITÀLikelihood of dependencies to CAPACITÀ:[CAPACITÀ | T] = -41.74856494743297[CAPACITÀ | TELEFONATE] = -43.422869996300015[CAPACITÀ | RISPOSTA] = -43.743475563354295[CAPACITÀ | ORARIO] = -44.20416797011299[CAPACITÀ | CONTATTO] = -44.574992048731644[CAPACITÀ | SODDDURATA] = -45.23274594489171[CAPACITÀ | RACCOLTADATI] = -45.82585656988689[CAPACITÀ | TEMPO] = -46.34470059265041[CAPACITÀ | DUROTT] = -47.82083563752034

BKD> LIKELIHOOD CONTATTOLikelihood of dependencies to CONTATTO:[CONTATTO | T] = -26.287656357630976[CONTATTO | TELEFONATE] = -26.35836569399249[CONTATTO | RACCOLTADATI] = -26.783404304308498[CONTATTO | CAPACITÀ] = -27.0957875243082[CONTATTO | ORARIO] = -27.92042762118909[CONTATTO | SODDDURATA] = -28.086175471524083[CONTATTO | RISPOSTA] = -28.13833477172486[CONTATTO | DUROTT] = -28.24128168823164[CONTATTO | TEMPO] = -29.781189087065968

BKD> LIKELIHOOD SODDDURATA

Page 226: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice D 216

Likelihood of dependencies to SODDDURATA:[SODDDURATA | T] = -58.27942033515613[SODDDURATA | TEMPO] = -58.56535317560897[SODDDURATA | CONTATTO] = -60.61387030823445[SODDDURATA | TELEFONATE] = -61.10592696193746[SODDDURATA | RISPOSTA] = -61.73201783253338[SODDDURATA | CAPACITÀ] = -61.90235146017911[SODDDURATA | ORARIO] = -62.21639114278162[SODDDURATA | DUROTT] = -62.943378424625706[SODDDURATA | RACCOLTADATI] = -62.958557007874624

BKD> LIKELIHOOD DUROTTLikelihood of dependencies to DUROTT:[DUROTT | TEMPO] = -33.377351277704854[DUROTT | TEMPO SODDDURATA] = -35.09636312014322[DUROTT | TEMPO CONTATTO] = -38.683110724856405[DUROTT | TEMPO CAPACITÀ] = -40.520492863748096[DUROTT | T] = -40.87353885457061[DUROTT | TEMPO TELEFONATE] = -41.16365983348687[DUROTT | TEMPO ORARIO] = -42.244850471980634[DUROTT | CAPACITÀ] = -43.04149019358385[DUROTT | TELEFONATE] = -43.659348052039626[DUROTT | ORARIO] = -43.806101289588966[DUROTT | CONTATTO] = -44.01534944890061[DUROTT | TEMPO RISPOSTA] = -44.36097568900578[DUROTT | RACCOLTADATI] = -45.09905302310161[DUROTT | SODDDURATA] = -46.029732523069086[DUROTT | RISPOSTA] = -46.45818877970789[DUROTT | TEMPO RACCOLTADATI] = -51.21199618862766

BKD> LIKELIHOOD RACCOLTADATILikelihood of dependencies to RACCOLTADATI:[RACCOLTADATI | DUROTT] = -34.77413361426374[RACCOLTADATI | T] = -37.257033538364354[RACCOLTADATI | DUROTT TELEFONATE] = -39.5616584459457[RACCOLTADATI | TELEFONATE] = -39.75871157737738[RACCOLTADATI | RISPOSTA] = -39.88343941879367[RACCOLTADATI | CONTATTO] = -40.10211874371562[RACCOLTADATI | ORARIO] = -41.454876763808606[RACCOLTADATI | SODDDURATA] = -41.789377144244376[RACCOLTADATI | DUROTT ORARIO] = -42.040235247238066[RACCOLTADATI | TEMPO] = -42.098966616888156[RACCOLTADATI | DUROTT CONTATTO] = -42.365526105867936[RACCOLTADATI | CAPACITÀ] = -42.50948403225206[RACCOLTADATI | DUROTT CAPACITÀ] = -45.98858930435993[RACCOLTADATI | DUROTT SODDDURATA] = -47.04358369636603[RACCOLTADATI | DUROTT RISPOSTA] = -49.50525392331751[RACCOLTADATI | DUROTT TEMPO] = -52.06615582375788

BKD> LIKELIHOOD RISPOSTALikelihood of dependencies to RISPOSTA:

Page 227: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice D 217

[RISPOSTA | ORARIO] = -23.832037750172404[RISPOSTA | RACCOLTADATI] = -24.408323332142317[RISPOSTA | ORARIO TELEFONATE] = -25.561383255232023[RISPOSTA | ORARIO RACCOLTADATI] = -25.759301859082413[RISPOSTA | DUROTT] = -26.076530648308157[RISPOSTA | ORARIO DUROTT] = -26.33594792307433[RISPOSTA | ORARIO CAPACITÀ] = -26.789625592514714[RISPOSTA | ORARIO CONTATTO] = -27.306308621344982[RISPOSTA | T] = -27.84586302513162[RISPOSTA | TEMPO] = -28.35341608482912[RISPOSTA | CONTATTO] = -29.52770235872099[RISPOSTA | CAPACITÀ] = -29.54288588929637[RISPOSTA | TELEFONATE] = -29.54955014167537[RISPOSTA | ORARIO SODDDURATA] = -30.339841770339344[RISPOSTA | SODDDURATA] = -30.794059186881217[RISPOSTA | ORARIO TEMPO] = -31.855746046506425

BKD> LIKELIHOOD TELEFONATELikelihood of dependencies to TELEFONATE:[TELEFONATE | CAPACITÀ] = -15.974632285668518[TELEFONATE | DUROTT] = -16.858928125246432[TELEFONATE | CAPACITÀ CONTATTO] = -16.87879917791606[TELEFONATE | T] = -17.178269117193707[TELEFONATE | CONTATTO] = -17.214575560751587[TELEFONATE | ORARIO] = -17.53257287775565[TELEFONATE | CAPACITÀ SODDDURATA] = -18.09983670822053[TELEFONATE | RACCOLTADATI] = -18.28873992173526[TELEFONATE | CAPACITÀ ORARIO] = -18.304596150539954[TELEFONATE | RISPOSTA] = -18.881956233737483[TELEFONATE | TEMPO] = -19.431686702991033[TELEFONATE | CAPACITÀ RISPOSTA] = -19.538531481374832[TELEFONATE | SODDDURATA] = -19.761129145364343[TELEFONATE | CAPACITÀ RACCOLTADATI] = -20.17427703997826[TELEFONATE | CAPACITÀ TEMPO] = -21.17963414559863[TELEFONATE | CAPACITÀ DUROTT] = -23.662928568248326

BKD> LIKELIHOOD TEMPOLikelihood of dependencies to TEMPO:[TEMPO | SODDDURATA] = -54.95047286304305[TEMPO | T] = -55.73576432732957[TEMPO | ORARIO] = -55.79274526197077[TEMPO | TELEFONATE] = -59.06712961462365[TEMPO | CONTATTO] = -59.9815398516221[TEMPO | RISPOSTA] = -60.10318097925594[TEMPO | CAPACITÀ] = -60.829600213007346[TEMPO | SODDDURATA TELEFONATE] = -61.00812430395764[TEMPO | SODDDURATA RISPOSTA] = -61.30677967634223[TEMPO | SODDDURATA ORARIO] = -63.30308587275263[TEMPO | SODDDURATA CONTATTO] = -65.01157146322032[TEMPO | SODDDURATA CAPACITÀ] = -69.36473085964754

Page 228: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice D 218

BKD> LIKELIHOOD ORARIOLikelihood of dependencies to ORARIO:[ORARIO | T] = -35.17562291146224[ORARIO | TEMPO] = -35.4024929511572[ORARIO | TELEFONATE] = -35.69264853143139[ORARIO | CONTATTO] = -37.04042951234017[ORARIO | CAPACITÀ] = -37.06649180814577[ORARIO | RISPOSTA] = -37.69723660775087[ORARIO | RACCOLTADATI] = -38.59499194345405[ORARIO | SODDDURATA] = -38.72837020351865[ORARIO | DUROTT] = -40.528116549073914

BKD> DISTRIBUTION CAPACITÀ[CAPACITÀ] Mean Var Lower Upper Phi[3] 0.678 0.004 0.645 0.694 0.678[2] 0.316 0.004 0.301 0.350 0.316[1] 0.006 0.000 0.005 0.055 0.006

BKD> DISTRIBUTION CONTATTO[CONTATTO] Mean Var Lower Upper Phi[2] 0.124 0.002 0.120 0.153 0.124[3] 0.870 0.002 0.842 0.874 0.870[1] 0.006 0.000 0.005 0.038 0.006

BKD> DISTRIBUTION SODDDURATA[SODDDURATA] Mean Var Lower Upper Phi[1] 0.073 0.001 0.071 0.104 0.073[2] 0.446 0.004 0.432 0.464 0.446[3] 0.480 0.004 0.464 0.497 0.480

BKD> DISTRIBUTION DUROTT[TEMPO,DUROTT] Mean Var Lower Upper Phi[2,2] 0.497 0.012 0.322 0.674 0.497[2,1] 0.497 0.012 0.322 0.674 0.497[2,3] 0.003 0.000 0.002 0.354 0.003[2,4] 0.003 0.000 0.002 0.354 0.003[1,2] 0.003 0.000 0.002 0.363 0.003[1,1] 0.991 0.000 0.633 0.994 0.991[1,3] 0.003 0.000 0.002 0.363 0.003[1,4] 0.003 0.000 0.002 0.363 0.003[3,2] 0.472 0.077 0.129 0.856 0.472[3,1] 0.472 0.077 0.129 0.856 0.472[3,3] 0.028 0.008 0.008 0.735 0.028[3,4] 0.028 0.008 0.008 0.735 0.028[4,2] 0.250 0.150 0.010 0.970 0.250[4,1] 0.250 0.150 0.010 0.970 0.250[4,3] 0.250 0.150 0.010 0.970 0.250[4,4] 0.250 0.150 0.010 0.970 0.250

BKD> DISTRIBUTION RACCOLTADATI[DUROTT,RACCOLTADATI] Mean Var Lower Upper Phi

Page 229: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice D 219

[2,1] 0.916 0.006 0.583 0.955 0.894[2,4] 0.004 0.000 0.002 0.266 0.006[2,2] 0.076 0.006 0.040 0.409 0.094[2,3] 0.004 0.000 0.002 0.266 0.006[1,1] 0.885 0.003 0.681 0.911 0.862[1,4] 0.084 0.002 0.065 0.250 0.101[1,2] 0.002 0.000 0.001 0.211 0.002[1,3] 0.029 0.001 0.022 0.195 0.035[3,1] 0.257 0.153 0.010 0.988 0.250[3,4] 0.246 0.148 0.004 0.956 0.250[3,2] 0.251 0.150 0.004 0.970 0.250[3,3] 0.246 0.148 0.004 0.956 0.250[4,1] 0.257 0.153 0.010 0.988 0.250[4,4] 0.246 0.148 0.004 0.956 0.250[4,2] 0.251 0.150 0.004 0.970 0.250[4,3] 0.246 0.148 0.004 0.956 0.250

BKD> DISTRIBUTION RISPOSTA[ORARIO,RISPOSTA] Mean Var Lower Upper Phi[3,1] 0.905 0.002 0.869 0.909 0.907[3,3] 0.025 0.001 0.023 0.066 0.025[3,2] 0.070 0.001 0.066 0.108 0.069[2,1] 0.981 0.001 0.845 0.983 0.982[2,3] 0.010 0.001 0.008 0.147 0.009[2,2] 0.010 0.001 0.008 0.147 0.009[1,1] 0.310 0.160 0.048 0.833 0.333[1,3] 0.345 0.170 0.048 0.905 0.333[1,2] 0.345 0.170 0.048 0.905 0.333

BKD> DISTRIBUTION TELEFONATE[CAPACITÀ,TELEFONATE] Mean Var Lower Upper Phi[3,1] 0.970 0.001 0.923 0.972 0.970[3,2] 0.030 0.001 0.028 0.077 0.030[2,1] 0.882 0.005 0.795 0.893 0.882[2,2] 0.118 0.005 0.107 0.205 0.118[1,1] 0.500 0.187 0.071 0.929 0.500[1,2] 0.500 0.187 0.071 0.929 0.500

BKD> DISTRIBUTION TEMPO[SODDDURATA,TEMPO] Mean Var Lower Upper Phi[1,2] 0.942 0.010 0.645 0.961 0.942[1,1] 0.019 0.004 0.013 0.329 0.019[1,3] 0.019 0.004 0.013 0.329 0.019[1,4] 0.019 0.004 0.013 0.329 0.019[2,2] 0.535 0.009 0.497 0.568 0.535[2,1] 0.383 0.009 0.356 0.426 0.383[2,3] 0.079 0.003 0.074 0.144 0.079[2,4] 0.003 0.000 0.003 0.074 0.003[3,2] 0.291 0.008 0.234 0.431 0.291[3,1] 0.702 0.008 0.563 0.761 0.702

Page 230: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice D 220

[3,3] 0.003 0.000 0.003 0.201 0.003[3,4] 0.003 0.000 0.003 0.201 0.003

BKD> DISTRIBUTION ORARIO[ORARIO] Mean Var Lower Upper Phi[3] 0.782 0.003 0.743 0.792 0.782[2] 0.213 0.003 0.202 0.251 0.213[1] 0.006 0.000 0.005 0.055 0.006

Page 231: TECNOLOGIE E SISTEMI DI LAVORAZIONEtecnologie.mecc.polimi.it/phd_thesis/colosimo_2001.pdf · 2015. 4. 27. · Duncan 63 3.2.2.1. Generalizzazione del modello 63 3.2.2.2. Semplificazione

Appendice D 221

D1.4.2 Componenti della soddisfazione: valori diVerosimiglianza e di probabilità condizionale dellecomponenti della Soddisfazione

BKD> LIKELIHOOD SODDISFAZIONELikelihood of dependencies to SODDISFAZIONE:[SODDISFAZIONE | DUROTT] = -56.67743348439603[SODDISFAZIONE | TELEFONATE] = -57.830085546912315[SODDISFAZIONE | DUROTT TELEFONATE] = -58.159849625503135[SODDISFAZIONE | T] = -58.217237098705255[SODDISFAZIONE | CONTATTO] = -58.273121863091276[SODDISFAZIONE | DUROTT TEMPO] = -59.71898595273288[SODDISFAZIONE | TEMPO] = -59.79128748458992[SODDISFAZIONE | DUROTT CONTATTO] = -60.522368943526686[SODDISFAZIONE | DUROTT RISPOSTA] = -60.9297735359671[SODDISFAZIONE | SODDDURATA] = -61.99717774432239[SODDISFAZIONE | CAPACITÀ] = -63.83500316251376[SODDISFAZIONE | ORARIO] = -64.10567695405678[SODDISFAZIONE | RISPOSTA] = -64.39589188116337[SODDISFAZIONE | RACCOLTADATI] = -65.10883043779656[SODDISFAZIONE | DUROTT RACCOLTADATI] = -69.28462743760674[SODDISFAZIONE | DUROTT SODDDURATA] = -69.4892502033036[SODDISFAZIONE | DUROTT ORARIO] = -70.74485000951996[SODDISFAZIONE | DUROTT CAPACITÀ] = -71.92325930100453

BKD> DISTRIBUTION SODDISFAZIONE[DUROTT,SODDISFAZIONE] Mean Var Lower Upper Phi[2,1] 0.007 0.001 0.004 0.287 0.008[2,3] 0.704 0.019 0.388 0.844 0.691[2,2] 0.290 0.018 0.152 0.607 0.301[1,1] 0.060 0.002 0.051 0.173 0.067[1,3] 0.300 0.007 0.231 0.463 0.291[1,2] 0.639 0.007 0.487 0.715 0.643[3,1] 0.323 0.175 0.009 0.949 0.333[3,3] 0.340 0.179 0.011 0.982 0.333[3,2] 0.337 0.179 0.009 0.977 0.333[4,1] 0.323 0.175 0.009 0.949 0.333[4,3] 0.340 0.179 0.011 0.982 0.333[4,2] 0.337 0.179 0.009 0.977 0.333