Post on 18-Jan-2016
description
Human factor
faq
Perché in inglese? Factor o Factors? A che serve? A chi è rivolto? Come spiegarlo?
La curva degli incidenti
20
10
60 70 80 90 00
0,5 per milione di tratte
Causa: Perdita di controllo.
Soluzione: ingegneria
Causa: CFIT
Soluzione: CRM
Causa: perdita di controllo.
Soluzione: ergonomia
Il progetto
1. sicurezza ed errore umano 2. prestazioni e limitazioni umane 3. il lavoro di gruppo 4. il rapporto uomo-macchina
sicurezza
Definizioni
pericolo I – Trascurabile: assenza di ferite o
danni; II – Minore: piccoli danni occupazionali,
ambientali e sistemici; III – Maggiore: gravi danni
occupazionali, ambientali e sistemici IV – Pericoloso: Ferite severe, danni
gravi V – Catastrofico: morte o perdita del
sistema.
Matrice di rischio Severità
Frequenza
Trascurabile
Minore Maggiore Pericoloso Catastrofico
Frequente:
E ≥10-3
Ragionevolmente probabile:
10-3≤E≤ 10-5
Remoto: 10-5≤ E ≤ 10-7
Estremamente remoto:10-7 ≤ E ≤ 10-9
Estremamente Improbabile:
10-9 > E
Accident
1) Incidente che causa morte o ferite gravi;
2) Danno all’aeromobile sostanziale, oppure;
3) L’aeromobile è disperso o inaccessibile;
Serious incident
Un serious incident è un incidente in cui le circostanze indicano che ci si è avvicinati alla possibilità di un ‘ACCIDENT’.
incident
E’ un accadimento associato con le operazioni di un aeromobile che incide o potrebbe incidere sul livello atteso di sicurezza delle operazioni.
I sistemi ultra-safe
Eventualità di un incidente inferiore a un evento per milione
Aviazione Volo commerciale di linea: 10-7
Volo Charter: 10-6
Volo acrobatico:10-4
Volo militare: 10-3
Anni ’60: loss of control
prestazioni e limitazioni umane Soluzione: ingegneria Autopilota Auto-throttle Simulatori di volo Radar meteo ILS Radar di controllo atc
Anni ’70: CFIT
Problemi di integrazione all’interno dell’equipaggio
Soluzione: Psicologia Corsi C.R.M.
Anni ’90: Loss of control
Interazione uomo-macchina Soluzione: ergonomia di
progettazione Esperti human factor entrano nel
momento del disegno degli impianti e strumenti di bordo
sicurezza
Reattiva Proattiva
Evoluzione della sicurezzaDiffidenza, scetticismo;Mancanza di approccio sistemico;Approccio burocratico;Difficoltà nell’accettare l’errore e riportarlo come esperienza;Nessuna analisi degli eventi;Inconsapevolezza delle prestazioni e limitazioni umane;La sicurezza è un problema dei piloti, non del sistema;Regolamentazione di difficile applicazione pratica;Assenza di presidi organizzativi dedicati;Impatto limitato sulla riduzione degli incidenti.
Dopo molti anni…..
Approccio sistemico (Safety Management System)Ampia regolamentazioneForte commitment Investimenti culturali (Just Culture – No Blame)Consapevolezza dello Human FactorEfficaci sistemi di reportingTrend/threat analysisPresidi organizzativi di alto livello
I modelli della sicurezza
Detto giapponese: Se hai un martello in mano, tutti i problemi avranno forma di chiodo
Modelli della sicurezza
Modello lineare (effetto domino) Modello sistemico (Swiss cheese) Modelli complessi (NAT, HRO,
Resilience Engineering)
Modello lineare
Modello sistemico
Swiss cheese model
SHELL
L’incidente di Tenerife
Dal Modello SHEL (Edwards) al modello shell (Hawkins): tenerife
Sistemi complessi
NAT (Normal Accident Theory)
HRO (High Reliable Organization)
Resilience Engineering
Normal Accident Theory
HRO
Il primo errore potrebbe essere l’ultimo
Preoccupazione per i fallimenti Approcci eterogenei Rispetto per l’esperienza Condivisione delle informazioni No news, good news?
Resilience engineering
Anticipare gli eventi Monitorare l’attività Reagire alle perturbazioni Imparare dall’esperienza E.t.t.o.
Il CRM: Crew resource management
Che cos’è A che serve Come è stato recepito Come si è evoluto
Evoluzione del CRM
I generazione: arrivano gli psicologi II generazione: da nice to know a need
to know III generazione: da cockpit a crew IV generazione: integrazione del CRM
nelle procedure (es. briefing) V generazione: il TEM
Errore
Fallimento nella pianificazione e/o nell’esecuzione di una sequenza di azioni che determina il mancato raggiungimento, non attribuibile al caso, dell’obiettivo desiderato
Tipi di erroreindotto dal progetto
Errori indotti dall’operatore
Operator-induced errors
Limiti fisici (dimensioni, forza) Limiti fisiologici (illusioni ottiche) Limiti psicologici (capacità di calcolo,
attenzione, trappole cognitive)
Le illusioni ottiche
Le illusioni della mente
Errori sporadici, costanti o random
Skill
Rule
knowledge
Approccio individualistico• Errare non è ammissibile• Di chi è la colpa• Fallimento individuale• Atteggiamento difensivo dei singoli
Controllo e gestione dei contenziosi
Gli errori degli operatori di front-line causano la
maggior parte degli incidenti;
I sistemi, di per sé, sono sicuri. È l’uomo che introduce
la variabile che può portare il sistema a collassare; in
pratica, la tecnologia è sicura e l’uomo è la minaccia.
Approccio sistemico• Errare è umano• Cosa è successo• Fallimento del sistema• Atteggiamento proattivo del sistema
Prevenzione e gestione del rischio
Gli errori sono dei sintomi di falle che si trovano a
differenti livelli dell’organizzazione;
I sistemi non sono sicuri di per sé; è l’essere umano che crea
la sicurezza.
C’è una relazione costante tra l’uomo e gli strumenti, i
compiti e l’ambiente operativo. I progressi della sicurezza
derivano dalla migliore comprensione di questi elementi e nel
disegno di sistemi che prendano in considerazione le
caratteristiche umane.
La cultura organizzativa
Cultura patologica Cultura burocratica Cultura proattiva
Non si vuole sapere Si può non venire a sapere
Si ricerca attivamente l’informazione
Chi riferisce è sotto tiro
Si ascolta se non si può evitare
Si educa a riferire
La responsabilità è elusa
Responsabilità a compartimenti stagni
La responsabilità è condivisa
Chi sbaglia viene ignorato o punito
Gli sbagli portano a rimedi provvisori
Gli sbagli provocano riforme attive
Le nuove idee vengono attivamente represse
Le nuove idee rappresentano un problema
Le nuove idee sono benvenute
Violazione
Deliberata inosservanza delle regole Sempre nociva? Non si vuole Non si sa Non si può Non è saggio Non si impone
Causa effetto
Indisciplina Incompetenza Impedimento
Inopportunità insignificante
Rischio Pericolo Unica
alternativa Male minore indifferente
Threat and error management
Safety reporting system
1. Politica della sicurezza con i relativi obiettivi;
2. Analisi e gestione del rischio; 3. Valutazione dei pericoli e
assessment del reale livello di sicurezza nel sistema;
4. Promozione della sicurezza all’interno del sistema considerato.
Politica di sicurezza
Impegno dell’alta dirigenza Safety manager (competenze,
qualifiche, committment) Piani di emergenza Documentazione
Analisi e gestione del rischio
Identificare i pericoli Valutazione quantitativa (risk
assessment) Sviluppo misure di mitigazione
Valutazione dei pericoli
Misurazione e monitoraggio Aggiornamento norme e procedure
Promozione della sicurezza
Formazione del personale Informazioni di sicurezza
Verifica
Q2: nel modello SHELL la coppia S/H riguarda le interazioni tra:
a. Operatore e computerb. Operatore e ambientec. Operatore e norme
Q3. lo swiss cheese model si basa sull’assunto che:
Q. 4: La safety mira a proteggere contro attacchi intenzionali
A. Vero B. Falso
Q. 8: una violazione è un atto involontario
A. Vero B. Falso
Linate 8 ottobre 2001
Happy landing!