Human factor

Post on 18-Jan-2016

81 views 1 download

description

Human factor. faq. Perché in inglese? Factor o Factors? A che serve? A chi è rivolto? Come spiegarlo?. 20. 0,5 per milione di tratte. 10. 60 70 80 90 00. La curva degli incidenti. - PowerPoint PPT Presentation

Transcript of Human factor

Human factor

faq

Perché in inglese? Factor o Factors? A che serve? A chi è rivolto? Come spiegarlo?

La curva degli incidenti

20

10

60 70 80 90 00

0,5 per milione di tratte

Causa: Perdita di controllo.

Soluzione: ingegneria

Causa: CFIT

Soluzione: CRM

Causa: perdita di controllo.

Soluzione: ergonomia

Il progetto

1. sicurezza ed errore umano 2. prestazioni e limitazioni umane 3. il lavoro di gruppo 4. il rapporto uomo-macchina

sicurezza

Definizioni

pericolo I – Trascurabile: assenza di ferite o

danni; II – Minore: piccoli danni occupazionali,

ambientali e sistemici; III – Maggiore: gravi danni

occupazionali, ambientali e sistemici IV – Pericoloso: Ferite severe, danni

gravi V – Catastrofico: morte o perdita del

sistema.

Matrice di rischio Severità

Frequenza

Trascurabile

Minore Maggiore Pericoloso Catastrofico

Frequente:

E ≥10-3

Ragionevolmente probabile:

10-3≤E≤ 10-5

Remoto: 10-5≤ E ≤ 10-7

Estremamente remoto:10-7 ≤ E ≤ 10-9

Estremamente Improbabile:

10-9 > E

Accident

1) Incidente che causa morte o ferite gravi;

2) Danno all’aeromobile sostanziale, oppure;

3) L’aeromobile è disperso o inaccessibile;

Serious incident

Un serious incident è un incidente in cui le circostanze indicano che ci si è avvicinati alla possibilità di un ‘ACCIDENT’.

incident

E’ un accadimento associato con le operazioni di un aeromobile che incide o potrebbe incidere sul livello atteso di sicurezza delle operazioni.

I sistemi ultra-safe

Eventualità di un incidente inferiore a un evento per milione

Aviazione Volo commerciale di linea: 10-7

Volo Charter: 10-6

Volo acrobatico:10-4

Volo militare: 10-3

Anni ’60: loss of control

prestazioni e limitazioni umane Soluzione: ingegneria Autopilota Auto-throttle Simulatori di volo Radar meteo ILS Radar di controllo atc

Anni ’70: CFIT

Problemi di integrazione all’interno dell’equipaggio

Soluzione: Psicologia Corsi C.R.M.

Anni ’90: Loss of control

Interazione uomo-macchina Soluzione: ergonomia di

progettazione Esperti human factor entrano nel

momento del disegno degli impianti e strumenti di bordo

sicurezza

Reattiva Proattiva

Evoluzione della sicurezzaDiffidenza, scetticismo;Mancanza di approccio sistemico;Approccio burocratico;Difficoltà nell’accettare l’errore e riportarlo come esperienza;Nessuna analisi degli eventi;Inconsapevolezza delle prestazioni e limitazioni umane;La sicurezza è un problema dei piloti, non del sistema;Regolamentazione di difficile applicazione pratica;Assenza di presidi organizzativi dedicati;Impatto limitato sulla riduzione degli incidenti.

Dopo molti anni…..

Approccio sistemico (Safety Management System)Ampia regolamentazioneForte commitment Investimenti culturali (Just Culture – No Blame)Consapevolezza dello Human FactorEfficaci sistemi di reportingTrend/threat analysisPresidi organizzativi di alto livello

I modelli della sicurezza

Detto giapponese: Se hai un martello in mano, tutti i problemi avranno forma di chiodo

Modelli della sicurezza

Modello lineare (effetto domino) Modello sistemico (Swiss cheese) Modelli complessi (NAT, HRO,

Resilience Engineering)

Modello lineare

Modello sistemico

Swiss cheese model

SHELL

L’incidente di Tenerife

Dal Modello SHEL (Edwards) al modello shell (Hawkins): tenerife

Sistemi complessi

NAT (Normal Accident Theory)

HRO (High Reliable Organization)

Resilience Engineering

Normal Accident Theory

HRO

Il primo errore potrebbe essere l’ultimo

Preoccupazione per i fallimenti Approcci eterogenei Rispetto per l’esperienza Condivisione delle informazioni No news, good news?

Resilience engineering

Anticipare gli eventi Monitorare l’attività Reagire alle perturbazioni Imparare dall’esperienza E.t.t.o.

Il CRM: Crew resource management

Che cos’è A che serve Come è stato recepito Come si è evoluto

Evoluzione del CRM

I generazione: arrivano gli psicologi II generazione: da nice to know a need

to know III generazione: da cockpit a crew IV generazione: integrazione del CRM

nelle procedure (es. briefing) V generazione: il TEM

Errore

Fallimento nella pianificazione e/o nell’esecuzione di una sequenza di azioni che determina il mancato raggiungimento, non attribuibile al caso, dell’obiettivo desiderato

Tipi di erroreindotto dal progetto

Errori indotti dall’operatore

Operator-induced errors

Limiti fisici (dimensioni, forza) Limiti fisiologici (illusioni ottiche) Limiti psicologici (capacità di calcolo,

attenzione, trappole cognitive)

Le illusioni ottiche

Le illusioni della mente

Errori sporadici, costanti o random

Skill

Rule

knowledge

Approccio individualistico• Errare non è ammissibile• Di chi è la colpa• Fallimento individuale• Atteggiamento difensivo dei singoli

Controllo e gestione dei contenziosi

Gli errori degli operatori di front-line causano la

maggior parte degli incidenti;

I sistemi, di per sé, sono sicuri. È l’uomo che introduce

la variabile che può portare il sistema a collassare; in

pratica, la tecnologia è sicura e l’uomo è la minaccia.

Approccio sistemico• Errare è umano• Cosa è successo• Fallimento del sistema• Atteggiamento proattivo del sistema

Prevenzione e gestione del rischio

Gli errori sono dei sintomi di falle che si trovano a

differenti livelli dell’organizzazione;

I sistemi non sono sicuri di per sé; è l’essere umano che crea

la sicurezza.

C’è una relazione costante tra l’uomo e gli strumenti, i

compiti e l’ambiente operativo. I progressi della sicurezza

derivano dalla migliore comprensione di questi elementi e nel

disegno di sistemi che prendano in considerazione le

caratteristiche umane.

La cultura organizzativa

Cultura patologica Cultura burocratica Cultura proattiva

Non si vuole sapere Si può non venire a sapere

Si ricerca attivamente l’informazione

Chi riferisce è sotto tiro

Si ascolta se non si può evitare

Si educa a riferire

La responsabilità è elusa

Responsabilità a compartimenti stagni

La responsabilità è condivisa

Chi sbaglia viene ignorato o punito

Gli sbagli portano a rimedi provvisori

Gli sbagli provocano riforme attive

Le nuove idee vengono attivamente represse

Le nuove idee rappresentano un problema

Le nuove idee sono benvenute

Violazione

Deliberata inosservanza delle regole Sempre nociva? Non si vuole Non si sa Non si può Non è saggio Non si impone

Causa effetto

Indisciplina Incompetenza Impedimento

Inopportunità insignificante

Rischio Pericolo Unica

alternativa Male minore indifferente

Threat and error management

Safety reporting system

1. Politica della sicurezza con i relativi obiettivi;

2. Analisi e gestione del rischio; 3. Valutazione dei pericoli e

assessment del reale livello di sicurezza nel sistema;

4. Promozione della sicurezza all’interno del sistema considerato.

Politica di sicurezza

Impegno dell’alta dirigenza Safety manager (competenze,

qualifiche, committment) Piani di emergenza Documentazione

Analisi e gestione del rischio

Identificare i pericoli Valutazione quantitativa (risk

assessment) Sviluppo misure di mitigazione

Valutazione dei pericoli

Misurazione e monitoraggio Aggiornamento norme e procedure

Promozione della sicurezza

Formazione del personale Informazioni di sicurezza

Verifica

Q2: nel modello SHELL la coppia S/H riguarda le interazioni tra:

a. Operatore e computerb. Operatore e ambientec. Operatore e norme

Q3. lo swiss cheese model si basa sull’assunto che:

Q. 4: La safety mira a proteggere contro attacchi intenzionali

A. Vero B. Falso

Q. 8: una violazione è un atto involontario

A. Vero B. Falso

Linate 8 ottobre 2001

Happy landing!