Misure in campo biomedico - med.unipg.it Didattico... · Università degli Studi di Perugia Corso...
-
Upload
nguyenhuong -
Category
Documents
-
view
215 -
download
0
Transcript of Misure in campo biomedico - med.unipg.it Didattico... · Università degli Studi di Perugia Corso...
Università degli Studi di Perugia
Corso di Laurea in Medicina e Chirurgia
Docente: Pier Giorgio Fabietti
Dispense di
“Bioingegneria e Informatica Medica”
I a Parte
Anno Accademico 2009-2010
1
Corso di Bioingegneria e Informatica Medica
Programma
Introduzione al corso di Boingegneria e Informatica Medica
Le tecnologie Biomediche (I parte)
Misure in campo Biomedico (misure invasive, non invasive, trasduttori,
materiali biocompatibili)
Lo sviluppo della strumentazione biomedica (criteri di classificazione e
terminologie)
Aspetti e caratteristiche generali delle apparecchiature biomediche (segnali
biomedici, grandezze analogiche e discrete,prestazioni dei sistemi di
misura, calibrazione, deriva, isteresi)
Sicurezza e rischio nell’uso delle apparecchiature biomediche
Principi generali di sicurezza elettrica delle apparecchiature
elettromedicali.
Effetti della corrente sul corpo umano (macroshock, microshock,
prevenzione degli incidenti, nodo equipotenziale, trasformatore di
isolamento)
Classificazione dei locali ad uso medico
Elettrocardiografo (struttura, derivazioni)
Segnali Spaziali: Bioimmagini
Tomografia Computerizzata, Tomografia ad Emissione di Positroni,
Tomografia ad Ultrasuoni, Tomografia a Risonanza Magnetica Nucleare
Appendice : Ingegneria Clinica, Definizioni
Informatica Medica (II parte)
Introduzione
Tipologie di Elaboratori
Struttura hardware del computer
Dispositivi di Input
Dispositivi di Input/Output (memorie di massa)
Dispositivi di Output
Sistema Binario
Sistemi Operativi
Linguaggio macchina e linguaggi di programmazione evoluti
La programmazione
Le reti Intranet/Internet
Sistemi informativi Ospedalieri
Sistemi Informativi in Radiologia (RIS e PACS)
L’Intelligenza Artificiale
I Sistemi Esperti
2
INTRODUZIONE AL CORSO DI BIOINGEGNERIA E INFORMATICA
MEDICA
Questi appunti sono rivolti agli studenti della Facoltà di Medicina e Chirurgia,
dell’Università degli Studi di Perugia, perché abbiano una conoscenza sufficiente
degli argomenti trattati dalla Bioingegneria e dall’Informatica medica, materie che
oggi rappresentano una parte importante per l’avanzamento tecnologico nel
campo medico.
Essi si prefiggono inoltre di dare una visione generale delle Strumentazioni per
la Diagnosi, Terapia e Riabilitazione in uso in ambito sanitario nonché della
struttura di un computer e delle strumentazioni ad esso collegate, nell’intenzione
di rendere familiari termini e configurazioni di sistemi di elaborazione senza
scendere, per quanto possibile, in descrizioni particolareggiate ed approfondite.
Gli obiettivi principali sono:
- informare quali sono le potenzialità e le possibilità di applicazione delle
Tecnologie Biomediche in ambito Medico, i fattori di rischio ad esso
collegati, la sicurezza elettrica, i principi di base per il loro corretto
utilizzo e fare una panoramica sulle tecnologie più diffuse ed utilizzate in
sanità;
- di fornire nozioni utili all’acquisizione delle Tecnologie, del computer e
delle strumentazioni ad esso collegabili. Le scelte sono legate alla velocità
di calcolo, alla capacità di memoria utente (°), al tipo di applicazioni, al
miglior rapporto prestazioni/prezzo e soprattutto si devono basare non solo
sulle esigenze presenti ma, per quanto possibile, su quelle future,
prevedendo estensioni di memoria e di configurazione al fine di non
cadere a breve termine nel ricorrente fenomeno dell’obsolescenza;
- di presentare alcune applicazioni e come loro integrazione in ambito
assistenziale (Telemedicina, Teleradiologia, etc.) ;
_______________________
(°) – Memoria utente è quella disponibile all’operatore e che interessa
all’acquirente.
3
Le ragioni che spiegano il crescente impiego dei microprocessori in medicina
si possono ricercare nelle loro molteplici applicazioni come ad esempio:
- la necessità di gestire in modo automatico l’enorme quantità di
informazioni che provengono dalla strumentazione automatizzata di cui un
esempio sono gli autoanalizzatori;
- l’opportunità di disporre ed elaborare contemporaneamente i dati
provenienti da più trasduttori collegati allo stesso processo, come le unità
di terapia intensiva;
- l’esigenza di effettuare sui segnali biologici elaborazioni abbastanza
complesse e di disporre in “ real-time” dei risultati di tali elaborazioni; ad
esempio un laboratorio di cateterismo, di funzionalità respiratoria, etc.;
- la possibilità di archiviare un elevato numero di informazioni relative ai
pazienti, come i dati personali, anamnestici, funzionali, metabolici, etc.
offrendo una loro rapida ricerca e contemporaneamente complesse
elaborazioni statistiche.
La Bioingegneria è una scienza applicata nella quale i contenuti e le
metodologie delle scienze dell'Ingegneria sono rivolte a problemi medici e
biologici. Per sua natura la bioingegneria è una scienza interdisciplinare che si
serve di modelli matematici e fisici per simulare fenomeni e processi biologici.
Essa ha ottenuto risultati sorprendenti nelle scienze mediche dove l'impiego di
tecnologie avanzate ha portato a risultati di gran rilievo in vari settori della
medicina specialistica ed è inoltre impegnata, per la complessità delle
biotecnologie impiegate nelle strutture ospedaliere, nella gestione e manutenzione
delle strumentazioni biomedicali.
4
L’Informatica Medica è la materia che mette a disposizione le conoscenze
dell’informatica per risolvere determinati problemi connessi all’area medica; in
particolare il suo campo d’applicazione spazia tra le seguenti aree d’interesse
medico:
- razionalizzazione e gestione delle informazioni ospedaliere (creazione
d’archivi computerizzati);
- sviluppo di algoritmi, utilizzando parametri fisiologici, per trovare valori
ottimali di riferimento, ad esempio per l’infusione di un farmaco di sintesi;
- programmazione di software per apparecchiature elettromedicali;
- creazione di reti informatiche in ambienti medici per un rapido accesso alle
informazioni (Cartelle cliniche reperibili su computer centralizzati (server) o
via Web).
5
1 - MISURE IN CAMPO BIOMEDICO
1.1 - INTRODUZIONE
I sistemi di misura e la relativa strumentazione giocano un ruolo vitale sia
nella ricerca biomedica fondamentale, sia nella moderna pratica clinica.
Il continuo sviluppo di nuove tecnologie elettroniche, dei materiali e
dell’ingegneria del software e le crescenti richieste da parte del corpo sociale di
una migliore prestazione sanitaria, hanno portato ad innovazioni importanti sia nel
settore diagnostico che terapeutico.
Fra gli elementi che costituiscono uno strumento di misura il trasduttore è il
componente che ha lo scopo di convertire la variabile da misurare in una forma
più facile da elaborare, di solito un segnale elettrico.
Esso, oltre ad essere l’elemento più critico dal punto di vista tecnologico, lo
è anche dal punto di vista dell’impiego perché costituisce un’interfaccia con
l’ambiente biologico.
Infatti, mentre l’unità elettronica di elaborazione, i sistemi di
memorizzazione e i display si sono avvalsi degli enormi progressi compiuti negli
ultimi anni dalla microelettronica raggiungendo standard soddisfacenti di
precisione, affidabilità e basso costo, il trasduttore è rimasto in molti casi un
componente altamente specializzato, delicato e costoso, le cui caratteristiche
pongono sovente il limite ultimo alle prestazioni dell’intero strumento di misura.
Questa situazione è ancora più critica in ambito medico per le particolari
condizioni in cui il trasduttore si trova a operare a contatto con mezzi delicati ed
aggressivi nello stesso tempo. Ulteriori elementi di criticità derivano, per taluni
utilizzi, dalla necessità di miniaturizzazione, minima invasività ed impianto anche
per lunghi periodi nel caso di interventi cronici. Anche l’utilizzazione di nuovi
materiali e di tecniche di trasduzione assume dunque un ruolo di grande rilievo
nel processo di miglioramento delle caratteristiche della strumentazione
biomedica già esistente e di sviluppo di metodiche originali.
6
1.2. - MISURE SU ESSERI VIVENTI
Per secoli i medici hanno fatto ricorso al solo uso dei loro cinque sensi per
acquisire informazioni utili alla diagnosi delle malattie; oggi essi possono
comp1ementare queste informazioni con sofisticati sistemi di strumentazione che
prelevano, elaborano e rendono loro accessibili i segnali di origine biologica. È
comunque necessario sottolineare che la traduzione dei concetti propri della
scienza e dell’ingegneria in ambito medico è un processo lento, la cui attuazione è
fortemente influenzata da forti radici storiche, dalla complessità intrinseca dei
sistemi viventi e da condizionamenti etici e sociali.
Non andrebbe soprattutto dimenticato dagli esperti di misure e
strumentazione che lo scopo ultimo della misura in ambito medico può essere solo
quello di descrivere la “storia naturale” della malattia in modo che gli indicatori di
ciascuno stadio di essa per ogni individuo possano avere carattere predittivo e
possibilmente conducano ad azioni di prevenzione.
Si deve inoltre affermare che se ogni guarigione ottenuta attraverso pratiche
diagnostico/terapeutiche costituisce un successo, la vera vittoria della scienza
medica si avrebbe con la prevenzione attiva della patologia stessa.
Un’affermazione attribuita a Lord Kelvin definisce una scienza quella per la
quale lo stadio della conoscenza raggiunto dalla materia oggetto di studio, è
espressa attraverso l’uso di numeri. Altrimenti si è in presenza di attività a
carattere empirico e talvolta artistico. Nel caso dell’arte l’unicità è requisito
essenziale, mente la scienza, che si basa sulla riproducibilità dei risultati, è attività
di riflessione sistematica e ripetibile.
Sicuramente la medicina opera fra questi estremi e gli aspetti metodologici
della misura sono uno degli ingredienti presenti nell’atelier del clinico. In tal
senso il clinico non necessita di dati e procedure che trascendano la pertinenza
operativa o la scala di sensibilità definite attraverso una prassi consolidata e
statisticamente provata.
Un ulteriore effetto derivante dalla complessità del sistema vivente consiste
nel fatto che in medicina pochi parametri sono specifici indicatori patologici.
Usualmente nella pratica clinica si fa ricorso al concetto di “sindrome” o all’uso
7
di un metodo multifattoriale per arrivare alla diagnosi. Uno spazio
multidimensionale è necessario per accogliere i sottospazi, talvolta contigui ed
anche connessi, che contengono gli stati di “sano” e “malato” e solo processi di
analisi multivariata, spesso operati inconsapevolmente dal medico, possono
definire lo stato attuale del paziente e la sua collocazione in un preciso sottospazio
diagnostico.
È quindi importante riconoscere le peculiarità dei sistemi di misura
biomedici rispetto a quelli convenzionali, operanti su sistemi inanimati: le misure
sugli esseri viventi comportano spesso una varietà d’interazioni che possono
essere di tipo biochimico, fisiologico o addirittura psicologico e che diventano
talvolta difficilmente valutabili attraverso un processo di riduzione ed analisi.
La complessità del comportamento di molti sistemi biologici rende inoltre
difficile prevedere quantitativamente l’effetto della misura sul sistema misurato: è
quindi importante che la strumentazione sia progettata con l’intento di ridurre al
minimo tali interazioni.
Naturalmente, l’accuratezza richiesta influenza il metodo di misura e la
complessità della strumentazione. Spesso comunque, quando l’obiettivo è quello
di verificare se una certa variabile rientra o no nei limiti prefissati dai cosiddetti
“valori normali”, il grado di accuratezza richiesto è abbastanza basso.
1.3 - CLASSIFICAZIONE DELLE MISURE BIOMEDICHE
Una prima fondamentale classificazione delle misure in campo biomedico è
quella tra misure invasive e non invasive.
Una misura si intende non invasiva quando preleva il segnale dal paziente
senza causargli traumi, lesioni o significative alterazioni dei suoi parametri vitali.
Quando tali condizioni non sono verificate, si parla invece di misura invasiva.
Tuttavia tale distinzione è spesso sfumata, dato che la misura può essere
cruenta a vari livelli, e per questo nascono altre classificazioni (misure
transdermiche, percutanee, intracavitarie, ecc.).
Il numero di variabili fisiopatologiche oggi riconducibili a misure non
8
invasive o minimamente invasive è notevole e suscettibile di ulteriore crescita.
In Figura 1.1 e Figura 1.2 sono riportate le principali tecniche oggi
disponibili per la misura non o minimamente invasiva di parametri fisiopatologici
nell’uomo.
Le misure effettuate a scopi diagnostici sono classificate anche in attive e
passive:
attive, in cui il segnale che poi verrà elaborato viene emesso
dall’apparecchiatura stessa; per esempio, in un ecografo viene elaborato il
segnale ultrasonico generato dalla macchina e mediato dalle interazioni con
i tessuti.
passive, in cui l’origine del segnale da elaborare deriva spontaneamente e
direttamente dall’organismo: nella termografia, ad esempio, viene sfruttata
la radiazione infrarossa emessa dalle varie parti del corpo in funzione della
loro temperatura superficiale.
Figura 1.1. Misure non invasive nell’uomo
Nonostante gli ovvi vantaggi dei sistemi di misura non invasivi e di tipo
9
passivo, molto spesso un grado più o meno elevato d’interazione è necessario tra
sistema di misura e organismo biologico.
In tali circostanze è importante conoscere e studiare le caratteristiche del
sistema di misura attraverso la formulazione di modelli descrittivi sia del
trasduttore sia delle interazioni sensore/misurando.
Figura 1.2. Misure minimamente invasive nell’uomo
Una ulteriore classificazione delle misure biomediche è tra misure dirette e
indirette (o inferenziali).
Le misure dirette rilevano le quantità fisiche e chimiche d’interesse
semplicemente confrontandole con valori di riferimento. Un esempio di misura
diretta è quello della resistenza della pelle che confronta direttamente la resistenza
10
rilevata con una standard.
Le misure indirette, invece, si basano su relazioni matematico-statistiche
che intercorrono tra variabili che non possono invece essere misurate
direttamente. Naturalmente le relazioni suddette vengono determinate sia sulla
base di analisi teoriche, sia con tecniche empiriche che coinvolgono altre misure,
spesso meno significative. Un esempio di metodo indiretto è quello della misura
della portata sanguigna in uscita dal cuore attraverso l’aorta (gittata cardiaca), che
utilizza il principio di diluizione dell’indicatore. Mediante l’uso di cateteri,
s’inietta un indicatore e si misura la variazione nel tempo della concentrazione
dell’indicatore nel sistema cardiovascolare.
La portata in uscita dal cuore può essere calcolata a partire da questo dato e
da ulteriori assunzioni sul regime di flusso e sulla cinetica di mescolamento
indicatore-sangue. Tale misura è chiaramente indiretta poiché facciamo uso della
relazione tra gittata e concentrazione dell’indicatore.
Metodi di misura :- Misure dirette
- Misure indirette
- Misure mediante apparecchi tarati
Le misure sul paziente possono essere:
- Statiche
- Dinamiche
Invasive
Non invasive
Misure ed Errori di misura
Bioingegneriaa.a. 2009/2010
Le misure in campo biomedico possono poi essere raggruppate in relazione a:
11
La grandezza misurata (es. potenziali elettrici, pressioni, portate,
spostamenti, velocità, forze, impedenze, temperature, concentrazioni
chimiche); un vantaggio di tale classificazione è quello che i differenti
metodi utilizzati per la misura di una certa grandezza possono essere
confrontate facilmente;
Il principio di trasduzione (resistivo, induttivo, capacitivo, piezoelettrico,
elettrochimico, ecc.);
Il sistema fisiologico analizzato (sistema cardiovascolare, polmonare,
nervoso, endocrino, ecc.);
la specialità medica (pediatrica, ostetrica, cardiologica, neurologica,
radiologica ecc); quest’approccio è valido soprattutto per il personale
medico, che è interessato a strumenti specializzati per il proprio campo.
1.4 - EFFETTUAZIONE DI UNA MISURA
Un’operazione di misura è un processo complesso comprendente tutta una
serie di azioni (calibrazione, misura in senso stretto, elaborazione del segnale,
ecc.) e fattori (es. variabilità tra soggetti, artefatti, ecc.) dai quali dipende la
qualità del risultato.
Quindi dobbiamo avere una conoscenza dettagliata non solo del dispositivo di
misura usato, ma anche delle sue possibili interazioni con il sistema oggetto di
misura.
Se tale sistema è inanimato queste interazioni sono in genere relativamente
elementari, ed è abbastanza facile apportare le dovute correzioni per avere una
buona stima dell’accuratezza della misura, cioè essere sicuri che l’errore compiuto
sia minore di quello massimo ammissibile. Al contrario una misura su un sistema
vivente comporta una serie d’interazioni di vario genere, che sono altamente
complesse e che non sono solo di tipo fisico, ma anche chimico, fisiologico o
addirittura psicologico.
Possiamo quindi dire che il primo obiettivo nella realizzazione di un sistema
12
di misura è quello di ridurre le possibili interazioni indesiderate col sistema che si
sta misurando.
Attuatore
E
Trasduttore
S
P
Amplificatore
SCHEMA DI MONITORAGGIO E CONTROLLO
BI 2003
Jk = glik2 +Q0 * insk
2
Controllore
Trasmissione Convertitore A/D
Bioingegneriaa.a. 2009/2010
Non essendo possibile realizzare una misura che presenti un contatto fisico
inapprezzabile tra il sistema di misura e quello in oggetto, ci si accontenterà di
rimanere al di sotto di un certo livello d’interazione; sarà quindi importante
studiare a fondo le proprietà dei due sistemi, per poter fare una buona stima del
massimo errore dovuto al “contatto” tra essi.
Ogni volta che vogliano eseguire una misura dobbiamo scegliere lo
strumento più adatto tra quelli già disponibili o che siamo in grado di realizzare.
Per operare in una situazione ottimale dobbiamo conoscere lo scopo della misura,
altrimenti corriamo il rischio di realizzare o un sistema troppo complesso e quindi
inutilmente costoso e delicato o uno che non arriva a soddisfare l’obiettivo
prefissato, cioè che fornisce un risultato scarsamente preciso o irrilevante.
Cercando di generalizzare possiamo dire che normalmente una misura è
fatta per uno dei seguenti scopi:
13
1. misura del valore di una grandezza e delle sue variazioni (ambito
diagnostico e prognostico);
2. miglior comprensione di un processo (ambito fisiologico);
3. controllo di un processo (ambito terapeutico).
Nel primo caso siamo semplicemente interessati a conoscere il valore che la
grandezza assume, sia essa costante o variabile nel tempo: si tratterà di studiare
poi la forma di presentazione o memorizzazione del risultato più adatta ai nostri
scopi.
Il secondo caso si presenta specialmente nel campo della ricerca; oltre ai
valori precisi assunti dalla grandezza sotto misura, siamo interessati a conoscere il
suo andamento, perché da esso vogliamo ricavare delle informazioni su un
processo che ad essa è in qualche modo collegato. Mentre nel primo caso il
risultato della misura è anche il nostro obiettivo, nel secondo caso la misura ci
serve per capire meglio un certo processo o per confermare delle ipotesi formulate
in precedenza.
Infine, in alcune misure l’obiettivo primario, più che la conoscenza dei
valori assunti da una grandezza, è il ”controllo” di un processo. Il sistema di
misura diventa allora parte integrante di un sistema di controllo, progettato per
regolare un certo numero di variabili o di funzioni terapeutiche.
Esempio classico di sistemi di questo tipo sono quelli che utilizzano il
concetto di reazione: in essi non interessa tanto il valore assunto dalla variabile in
esame, quanto la sua variazione rispetto a quello assunto in precedenza; questa
differenza fornisce il “segnale di controllo” al sistema reazionato.
La misura di molte grandezze fisiche può essere realizzata direttamente, di
alcune invece richiede l’uso di tecniche deduttive. Queste tecniche hanno bisogno
della conoscenza di una relazione matematica, statistica o ricavata empiricamente,
che leghi la quantità che desideriamo misurare (senza però essere in grado di farlo
direttamente) e quelle che sappiamo misurare.
Comunque in ogni processo di misura c’è sempre una quantità che viene
misurata direttamente, dalla quale eventualmente risaliamo, a quella che ci
interessa.
14
In ogni misura dobbiamo fare un confronto tra una quantità incognita e un
riferimento prefissato: questo confronto può essere fatto sia direttamente sia
attraverso un sistema di misura calibrato su uno standard.
Spesso il confronto diretto è ottenuto usando una tecnica di annullamento
con la quale si rileva la differenza tra lo standard e la quantità da misurare e si
modifica lo standard finché tale differenza non si annulla.
In generale le tecniche di annullamento sono preferibili perché producono
risultati di grande accuratezza e precisione, specialmente per la misura di quantità
statiche o lentamente variabili. Il vantaggio deriva dal fatto che ci si accorge
facilmente di piccole differenze.
Lo svantaggio maggiore delle tecniche di annullamento deriva dal tempo
richiesto per raggiungere l’equilibrio: ciò rende difficoltose le misure di quantità
dinamiche rapidamente variabili. In questi casi serve uno strumento con
bilanciamento automatico rapido in modo che l’annullamento sia mantenuto,
anche se la quantità sotto misura varia velocemente; questo naturalmente accresce
la complessità del sistema.
1.5 - PARAMETRI DI INTERESSE BIOMEDICO
Poiché le apparecchiature biomediche sono progettate per misurare
parametri di origine biologica, i campi di variazione di tali parametri sono i fattori
che maggiormente influenzano il progetto. A questo scopo è riportata la Tabella
1.1, in cui, per ogni tipo di misura, vengono indicati: i valori limite di ampiezza
dei parametri, il campo frequenziale e i metodi correntemente utilizzati per la
misura.
È da notare come tali intervalli siano abbastanza ristretti in confronto alle
misure più correnti di tipo non biomedico.
16
inaccessibilità del sito o difficoltà nella misura ecc.) sono ammesse poi quasi
sempre larghe tolleranze nelle misure di carattere fisiologico, anche in relazione
alla variabilità esistente tra i vari soggetti, dipendente da differenze anatomiche,
metaboliche o funzionali.
Se aggiungiamo la scarsa conoscenza di alcuni meccanismi di controllo
presenti nei sistemi fisiologici, è facile comprendere perché nella definizione delle
specifiche dei sistemi di misura ci si riferisce a distribuzioni statistiche e a
funzioni di probabilità anziché a valori strettamente deterministici.
1.6. - CLASSIFICAZIONE DEI TRASDUTTORI
La parola “trasduttore” indica uno strumento capace di convertire una forma
energia in un’altra: noi limiteremo questo concetto di trasduttore come
convertitore di energia al campo della misurazione, escludendo i convertitoti di
energia usati in altri campi.
Occorre tenere presente che, avendo talvolta il trasduttore d’ingresso
bisogno di una sorgente ausiliaria di alimentazione, in questi casi esso funziona,
più che da “convertitore”, da “controllore” di energia.
Per un corretto funzionamento del sensore è richiesta una grande affidabilità
al trasduttore d’ingresso che è la parte dello strumento operante a contato con
l’ambiente, e che proprio per questo, deve mantenere costanti le proprie
caratteristiche funzionali anche al variare delle condizioni ambientali.
I trasduttori a disposizione per chi volesse compiere una misura sono
moltissimi, così come sono numerosi gli effetti fisici che possono essere utilizzati
come principi di trasduzione per convertire l’energia d’ingresso in una forma
opportuna, che quasi sempre è quella elettrica. Per classificare i trasduttori si
possono seguire vari criteri, a seconda delle caratteristiche che più si vogliono
mettere in evidenza.
Esamineremo adesso le principali classificazioni dal punto di vista
strettamente tecnico.
17
Trasduttori attivi e passivi: un trasduttore è considerato attivo se l’energia
del segnale da esso prodotto è fornita principalmente da una sorgente ausiliaria
esterna, controllata dal segnale d’ingresso. Viceversa, in un trasduttore passivo la
sorgente principale di energia è fornita da segnale stesso.
Un esempio significativo di trasduttore passivo è dato dalla termocoppia,
perché è la differenza fra le temperature delle giunzioni che crea una forza
motrice; al contrario il termistore è un trasduttore attivo, perché richiede una
sorgente ausiliaria per generare la sua uscita.
Come già detto un trasduttore attivo più che da convertitore di energia,
agisce da controllore di energia ed è anche per questo chiamato trasduttore
modulante.
La Tabella 1.2 elenca una varietà (non esaustiva) di fenomeni fisici (principi
di conversione di energia) utilizzati, o potenzialmente utilizzabili, per un’azione di
trasduzione.
Tabella 1.2. Ingressi e grandezze misurate da un trasduttore ____________________________________________________________________________________________
GRANDEZZA D’INGRESSO GRANDEZZA MISURATA ____________________________________________________________________________________________
Lineare lunghezza, spessore, livello, stato della superficie,
erosione,
Spostamento usura, vibrazioni, forza, pressione, durezza, sforzo,
accelerazione,
Angolare angolo d’incidenza, angolo di scorrimento, vibrazione
angolare
Lineare Velocità, velocità di scorrimento, vibrazioni, suoni, momenti
Velocità
Angolare Velocità, frequenza di rotazione, vibrazioni, momenti angolari
Lineare Accelerazione, massa, vibrazioni, urti
Accelerazione
Angolare Accelerazione, vibrazioni, urti obliqui, momento di inerzia
Forza Peso, densità, urti, sforzo, coppia, vibrazioni, pressione
Velocità di fluidi e gas, altitudine, suoni
Temperatura Conduzione e radiazione di calore, pressione, velocità di gas,
turbolenza
Radiazione luminosa Flusso e densità di luce, distribuzione spettrale, lunghezza d’onda
Deformazione, forza coppia, frequenza
Durata Frequenza, numerazione, distribuzioni statistiche ____________________________________________________________________________________
18
Tabella 1.3. Elenco di fenomeni fisici utilizzati nei trasduttori attivi e passivi ____________________________________________________________________________________
ATTIVI PASSIVI ____________________________________________________________________________________
Resistenza, induttanza capacità controllate Elettromagnetico
Geometricamente Piezoelettrico
Meccanico resistivo Termoelettrico
Magnetoresistivo Fotoemissivo
Termo resistivo Fotovoltaico
Fotoconduttivo Elettrocinetico (potenziale di scorrimento)
Piezoresistivo Piroelettrico ______________________________________________________________________________________________
La Tabella 1.1 fornisce un’idea della molteplicità e della varietà dei
trasduttori esistenti.
Una seconda classificazione si basa sul principio di conversione utilizzato:
questa classificazione elenca i principali fenomeni di conversione di energia
utilizzati nel campo dei trasduttori. Molti di questi, utilizzati per convertire
l’energia dalla forma con cui si presenta in ingresso a un’opportuna per lo stadio
di elaborazione del segnale, sono elencati nella Tabella 1.3 mettendo in risalto la
differenza fra trasduttori attivi e passivi.
Altra classificazione divide i trasduttori in primari e secondari: da un punto
di vista operativo può essere utile classificare un trasduttore d’ingresso a seconda
che esso sia utilizzato per un ruolo di trasduzione primario o secondario.
Questo accade, ad esempio, in un trasduttore di pressione del tipo a
diaframma; in esso il trasduttore primario è il diaframma che, sottoposto alla
pressione esterna, subisce uno spostamento, mentre il trasduttore secondario è
l’elemento progettato per misurare tale spostamento che fornisce un’uscita,
generalmente di tipo elettrico.
Altra classificazione dei trasduttori riguarda l’energia. Siccome il flusso
d’informazione è inconcepibile senza un trasporto di energia, i trasduttori sono di
fatto strumenti che convertono l’energia da una forma a un’altra. Di conseguenza,
per capire quante classi di trasduttori esistono, è necessario conoscere le forme
19
nelle quali l’energia si manifesta. Si possono distinguere le seguenti sei forme
principali di energia:
1. Energia radiante
2. Energia meccanica
3. Energia termica
4. Energia elettrica
5. Energia magnetica
6. Energia chimica
Similmente esistono sei gruppi di segnali differenti; la Tabella 1.4 mostra
appunto questi gruppi con qualche esempio di relativi segnali.
Tabella 1.4. I sei gruppi di segnali comuni
______________________________________________________________________________________
SEGNALI RADIANTI Intensità, lunghezza d’onda, polarizzazione, fase.
SEGNALI MECCANICI Forza, pressione, torsione, flusso, volume densità, massa, posizione, sposta-
mento, velocità, accelerazione, ampiezza e lunghezza d’onda acustica.
SEGNALI TERMICI Temperatura, calore, calore specifico, entropia, flusso di calore.
SEGNALI ELETTRICI Tensione, corrente, carica resistenza, induttanza, capacità, costante dielettrica,
polarizzazione elettrica, frequenza.
SEGNALI MAGNETICI Intensità di campo, momento, magnetizzazione, permeabilità.
SEGNALI CHIMICI Composizione, concentrazione, tossicità, potenziale di ossidoriduzione, pH,
inquinanti, velocità di reazione. ________________________________________________________________________________________________
20
Trasduttori
• e l e t t r o c h i m i c i
• p i e z o e l e t t r i c i
• t e r m o e l e t t r i c i
• a c u s t i c i
• o t t i c i
I trasduttori convertono una grandezza fisica in un’altra
grandezza fisica di diversa natura, usualmente elettrica.
I trasduttori possono essere:
Bioingegneriaa.a. 2009/2010
Membrana semipermeabile
con E (GOD) immobilizzato
Elettrodo di
riferimento Pt
Elettrodo Ag / AgCl
HCl dil.
SENSORE POTENZIOMETRICO
Potenziometro
Bioingegneriaa.a. 2009/2010
21
E =Eo + (RT/nF) ln [H+] (Legge di Nernst)
D-glucosio + O2 => D-glucosio-1,5-lattone => D-gluconato + H+
penicillina => acido penicilloico + H +
urea + H2O + 2H+ => 2NH4+ + CO2 (ureasi)
Amperometrici
GOD(FADH2) + Fe3+(Cp)2 => GOD(FAD) + Fe2+(Cp)2 (Ferrocene)
BIOSENSORI ELETTROCHIMICI
Potenziometrici
trigliceride + 3 H2O => glicerolo + 3 acidi grassi + H+ (lipasi + colipasi)
O2 + 4H+ + 4e- => 2 H2 O (catodo Pt)
4Ag + 4Cl => 4Ag Cl + 4e- (anodo Ag)
(penicillinasi)
(GOD)
Bioingegneriaa.a. 2009/2010
La sonda ed i suoi componenti
Trasduttori piezoelettrici
Bioingegneriaa.a. 2009/2010
22
1.7 - PRINCIPALI CARATTERISTICHE RICHIESTE AD UN SENSORE
Dopo aver studiato la configurazione di un sensore e le sue possibili
classificazioni e rappresentazioni, cerchiamo ora di mettere in risalto quali sono le
qualità che si richiedono a un sensore per ottenere una misura accurata ed
affidabile.
Le nostre considerazioni al riguardo rimarranno necessariamente su un
livello generico, essendo ogni misura influenzata dalla caratteristica situazione
ambientale in cui si opera e dagli scopi particolari prefissati.
Innanzitutto, perché una misura sia esatta, si devono individuare le possibili
fonti di errore, per annullarle o quantomeno limitarne l’effetto; la progettazione di
un sensore deve quindi essere preceduta dallo studio dell’ ambiente in cui la
misura viene effettuata, dall’ analisi del segnale che si vuole rilevare e del
possibile rumore che a esso si sovrappone, e cosi via.
Considereremo caratteristiche esteriori quelle relative alla forma, alle
dimensioni, alla facilità di posizionamento, alla robustezza e durata, mentre
considereremo caratteristiche interiori quelle che riguardano la forma che il
segnale assume nei vari stadi del sistema, il rumore, la selettività, la linearità della
risposta, le caratteristiche statiche e dinamiche dei trasduttori e dello stadio
condizionatore, l’eventuale tipo di reazione utilizzato, ecc.
Nella Tabella 1.5 abbiamo schematizzato le qualità richieste a un sensore.
Al gruppo delle caratteristiche esteriori appartengono anche qualità
abbastanza scontate come la robustezza e la durata. Spesso le misure si effettuano
in ambienti che danneggiano il sensore; in questi casi per la realizzazione si
dovranno adoperare materiali il più possibile non degradabili nel tempo: si
otterranno così sensori riutilizzabili a lungo per svariate misure.
Per misure su sistemi viventi è anche importante l’impiego di materiali
biocompatibili con l’organismo oggetto della misura: il sensore, oltre a non
provocare danni, deve essere in grado di resistere a lungo in un sistema vivente,
che è un ambiente ostile per i corpi estranei che vengono a contatto con esso.
Infine, poiché la maggior parte dei sistemi è influenzata dai fattori
23
ambientali (temperatura, pressione, umidità), per avere un buon quadro del loro
comportamento è necessario specificare la variazione della sensibilità con i più
importanti di questi fattori.
Tabella 1.5. Caratteristiche esterne e interne di un trasduttore
________________________________________________________________
CARATTERISTICHE ESTERNE
________________________________________________________________
Dimensioni ridotte (eventuale miniaturizzazione)
Facilità di posizionamento
Resistenza e durata (anche in ambiente ostile)
Riutilizzabilità
Presentazione ottimale dei risultati
Schermatura contro interferenze esterne
Misure su esseri viventi: non-invasività e uso di materiali biocompatibili ________________________________________________________________
CARATTERISTICHE INTERNE
________________________________________________________________
Elevato rapporto segnale-rumore
Capacità di eliminare il rumore (filtraggio, averaging …)
Funzione di trasferimento opportuna (diagramma di ampiezza e di fase)
Velocità di risposta
Accoppiamento tra i vari stadi senza attenuazioni o distorsioni
Elevata impedenza d’ingresso
Utilizzo della reazione (stabilità)
Linearità
Sistema di calibrazione
Sensitività indipendente dai fattori ambientali
Configurazione di tipo differenziale
Assenza d’isteresi
Capacità di resistere a un sovraccarico ______________________________________________________________________________________________
Ad. esempio, si dovrà naturalmente cercare di realizzare sistemi la cui curva
di calibrazione statica non subisca variazioni apprezzabili in una gamma di valori
di temperatura che copra quelli in cui il sistema si troverà realmente a operare.
Quanto detto per la temperatura si può facilmente estendere agli altri fattori
24
ambientali dai quali la curva di calibrazione dovrà essere il più possibile non
influenzabile.
Il sensore dovrà poi essere dotato di un sistema di protezione contro
eventuali sovraccarichi in ingresso, che potrebbero danneggiare irrimediabilmente
i suoi componenti interni; anche senza arrivare alla rottura del dispositivo, un
sovraccarico è sempre da evitare perché può essere dannoso in vari modi, ad
esempio alterando la calibrazione dello strumento. Concludendo possiamo notare
come sia veramente difficile riuscire a soddisfare contemporaneamente tutte le
caratteristiche che un buon sensore dovrebbe possedere; inoltre molte di esse
possono richiedere costi troppo elevati. Nel progettare un sensore sì sceglieranno
quindi le qualità principali da soddisfare in base alle esigenze prioritarie nel
particolare tipo di misura che si vuole realizzare.
1.8 - MATERIALI BIOCOMPATIBILI
Per inquadrare le problematiche generali dei diversi tipi di biomateriali
(intesi ora come materiali artificiali che possano far parte di apparecchiature
medicali a diretto contatto con tessuti biologici), è opportuno precisare la
terminologia qui introdotta soltanto per ragioni didascaliche.
1. Materiali inerti, nel senso che compiono una funzione sostitutiva di
materiali biologici, senza avere particolari attributi terapeutici e senza dar
luogo a scambi energetici, oppure a desiderate reazioni chimiche; questi
materiali sono adoperati nelle varie protesi ortopediche, nel cuore
artificiale, nelle arterie artificiali e così via. Questo paragrafo riguarda
prevalentemente materiali aventi queste finalità, benché i problemi di
biocompatibilità debbano essere tenuti presenti anche in relazione alle altre
applicazioni alle quali si accennerà qui sotto.
2. Materiali passivi, nel senso che non sono sede di scambi energetici o di
desiderate reazioni chimiche; le loro proprietà fisico-chimiche risultano
tuttavia determinanti per svolgere “al meglio” una funzione terapeutica. A
questa categoria appartengono, per esempio, tutti i vari tipi di membrana
25
adoperati nelle apparecchiature di dialisi e negli ossigenatori.
3. Materiali attivi, nel senso che sono sedi di scambi energetici e/o di
desiderate reazioni chimiche. A questa categoria appartengono, per
esempio, i materiali radioisotopi e le celle biologiche. Analogamente
appartengono a questa categoria alcuni polielettroliti reticolati che si tenta
oggi di adoperare per realizzare muscoli artificiali; sono cioè sostanze
aventi la possibilità di contrarsi una volta eccitate da opportuni segnali
elettrici. Fanno ancora parte di questa categoria alcuni materiali aventi la
proprietà di assorbire alcune sostanze presenti nel sangue e nocive per la
sopravvivenza del paziente.
In generale, si definiscono materiali biocompatibili quei materiali che
abbiano proprietà meccaniche, chimiche ed elettriche tali da non arrecare danni ai
sistemi biologici e da non essere a loro volta danneggiati dopo la loro inserzione
all’interno di un organismo biologico o comunque dopo il loro posizionamento a
contatto di tessuti biologici. Oggi lo stato dell’arte è molto diverso secondo le
specifiche applicazioni: per esempio, i materiali costituiscono uno dei “colli di
bottiglia” per il cuore artificiale, mentre non danno luogo a preoccupanti problemi
per le valvole cardiache. Per le protesi circolatorie (valvole, cuore, arterie e vene),
è importante approfondire le cause che producono un deterioramento del sangue e
i susseguenti effetti negativi su altri tessuti biologici. Significative ricerche in
proposito sono quelle rivolte a determinare parametri che esprimono, in modo
quantitativo, precisi indici di nocività per i tessuti e di conseguenza per
l’individuo.
Dal punto di vista tecnologico, le caratteristiche di un materiale ideale,
qualunque sia l’applicazione, possono cosi riassumersi:
- stabilità chimica, in quanto variazioni delle sue proprietà chimiche
potrebbero alterare le altre sue caratteristiche;
- assenza di fenomeni cancerogeni;
- assenza di fenomeni tossici;
- assenza di fenomeni di rigetto, peraltro in generale non così preoccupanti
26
confrontati a quelli presenti nei trapianti con organi biologici;
- assenza di cause che portano alla coagulazione del sangue;
- presenza di opportune proprietà elettriche (spesso ciò è strettamente collegato
al punto precedente);
- presenza di opportune proprietà di resistenza meccanica ogniqualvolta vi
siano sollecitazioni meccaniche non trascurabili;
- densità non eccessiva per mantenere in limiti tollerabili il peso delle
apparecchiature;
- proprietà anti-corrosive, sia per non avere un deterioramento del materiale,
sia per non porre in circolazione prodotti di corrosione che possono risultare
nocivi;
- possibilità di sterilizzazione senza degrado.
Per comprendere i problemi connessi ai materiali delle protesi circolatorie è
necessario porre attenzione anche agli effetti negativi dovuti al movimento
relativo del sangue rispetto al materiale. A questo proposito è opportuno avere
presente la seguente casistica:
- semplice contatto sangue-materiale;
- stato di turbolenza del sangue con susseguente formazione di bolle gassose
ed eventuali fenomeni di cavitazione; infatti, quando la pressione nella massa
fluida scende a livelli molto bassi, si ha l’evaporazione delle componenti
gassose contenute nel sangue stesso;
- presenza nella massa fluida di sforzi tali da portare alla rottura delle
membrane cellulari;
- aumento della temperatura nella massa fluida (qualunque sia stata la causa),
tale da favorire ancora la rottura delle membrane cellulari.
Questa casistica deve essere vista alla luce dei seguenti problemi clinici:
- deterioramento dei diversi componenti del sangue: eritrociti, leucociti,
piastrine e proteine plasmatiche;
- susseguente deterioramento del funzionamento di altri organi;
- aumento dei fenomeni trombotici.
27
La letteratura su questi argomenti è molto vasta ed è costituita soprattutto dal
riportare risultati sperimentali molto dettagliati e di grande interesse pratico,
facendo riferimento sia a prove di laboratorio in vitro, sia a prove su cavie, sia a
prove sull’uomo. Non potendo entrare in questi dettagli, ci si limita a riportare
alcune informazioni a livello esemplificativo dei risultati ottenuti. Si è appurato
che la serotonina, liberata dalla rottura delle membrane delle piastrine, ha un ruolo
importante nel determinare le lesioni dei reni riscontrate alcune volte dopo la
perfusione; la liberazione dei lipidi sarebbe invece dannosa per i polmoni. Gli
effetti ritenuti più dannosi sono comunque quelli di trombosi per cui occorre in
generale sottoporre i pazienti alla somministrazione di massicce dosi di
anticoagulanti. Per cercare di ridurre gli effetti trombotici, si vanno affermando
materiali che presentano una struttura meccanica molto “frastagliata” e ricoperta
da materiali vari aventi proprietà anticoagulanti. Una proprietà del materiale,
ritenuta molto importante, è anche quella della sua “bagnabilità”, unita a
specifiche proprietà elettriche, in modo che il materiale possa assumere una carica
negativa rispetto al sangue che lo lambisce.
Per le protesi ortopediche i materiali più usati sono quelli metallici; i requisiti
più importanti sono quelli di resistenza meccanica e di resistenza alla corrosione.
Le ricerche e le applicazioni svolte nel passato hanno portato ormai ad eliminare
molti materiali ritenuti dannosi e pertanto oggi ci si limita ad adoperare: acciai
inossidabili al cromo-nichel-cobalto, leghe di cobalto con cromo e molibdeno o
cromo e tungsteno, leghe multifase nichel-cobalto, titanio puro o in lega con
alluminio e vanadio. Da qualche tempo si stanno sviluppando protesi ortopediche
contenenti materiali ceramici. Non potendo entrare nei particolari, peraltro ben
individuabili e comprensibili soltanto ad un elettrochimico e/o ad un metallurgico,
si vuole qui richiamare l’attenzione su alcuni punti da tenere presente da parte di
chi si accinge a fare uso di questi materiali pur non avendo tali competenze. Oltre
alle proprietà chimico-fisiche, la loro lavorazione risulta ugualmente determinante
per la buona riuscita della protesi. I difetti più dannosi, prodotti per effetto di
cattiva lavorazione, sono i seguenti: presenza di inclusioni, microcricche,
soffiature, precipitazioni di carburi; risultano cioè dannose tutte le cause che
28
portano ad una disomogeneità, anche a livello microscopico, del materiale
adoperato. Si noti che la scelta del materiale influenza anche i criteri di
progettazione della protesi; per esempio, una regola di progettazione generale è
quella di evitare brusche variazioni di sezione che si sono spesso rivelate una
causa di rottura della protesi.
Nel passato notevoli inconvenienti si sono avuti ogniqualvolta materiali di
diversa natura sono stati messi a contatto, potendo in tal modo verificarsi la
generazione di forze elettromotrici che a loro volta danno luogo a corrosioni con
le ovvie conseguenze per la protesi. Oggi, in sede di progetto, si cerca di evitare
questa eventualità; il problema sussiste comunque in quanto piccoli frammenti o
polveri di materiali diversi possono formarsi durante la lavorazione dando luogo
agli stessi inconvenienti.
È importante sottolineare i diversi tipi di conoscenze necessarie, in
dipendenza dagli ambienti in cui si opera. Per affrontare questi problemi, quando
si ricercano nuovi materiali, è necessaria una preparazione basata sulla fisica, sulla
chimica, sull’elettrochimica e sulla metallurgia. In sede di progettazione delle
apparecchiature, il bioingegnere deve conoscere i criteri di scelta dei vari materiali
in termini quantitativi e non soltanto qualitativi come qui esposti. Infine, il
bioingegnere che svolge il suo lavoro in un ospedale deve essere edotto di tutti gli
inconvenienti che possono aversi da un loro uso non corretto, in modo da prendere
tutte le precauzioni indispensabili affinché le proprietà del materiale non risultino
degradate da operazioni eseguite presso l’ospedale stesso; inoltre deve essere in
grado di valutare, eventualmente con le opportune attrezzature di laboratorio, se le
caratteristiche del materiale, illustrate dal costruttore, siano effettivamente
presenti nelle protesi da utilizzare.
29
2 - LO SVILUPPO DELLA STRUMENTAZIONE BIOMEDICA
La Strumentazione Biomedica per la diagnosi, la terapia e la riabilitazione
non è un settore di applicazione recente. In effetti, i primi dispositivi realizzati per
tali scopi risalgono a tempi alquanto lontani, ma solo alla fine degli anni cinquanta
la strumentazione comincia a essere utilizzata sempre in modo più rilevante
all’interno degli ospedali, fino a diventare strumento insostituibile della moderna
pratica clinica. Non essendo possibile, in questo contesto, tracciare le linee di
sviluppo dell’intero mondo della Strumentazione Biomedica, ci si limiterà ad
alcuni esempi che, a vario titolo, sono particolarmente significativi. La
presentazione dell’attuale classificazione della Strumentazione Biomedica
conclude il capitolo.
2.1 - GLI ANTESIGNANI DELLA STRUMENTAZIONE BIOMEDICA
Già Galileo Galilei (1564-1642) usò la costanza del periodo del pendolo per
misurare la frequenza cardiaca nell’uomo, esprimendo così il risultato in termini
di lunghezza di un pendolo sincrono con il battito cardiaco. Egli ideò anche il
termometro e per primo progettò, nel 1609, un microscopio in senso moderno.
Secondo C. Singer (Breve storia del pensiero Scientifico, Piccola Biblioteca
Einaudi, 1961, pag. 253), l’inglese William Harvey, studente a Padova dal 1598 al
1601, può essere considerato allievo di Galileo; egli giunse alla conclusione che il
sangue si muoveva in un circuito chiuso poiché, misurando la frequenza cardiaca
e la capacità del ventricolo, osservò che, in un’ora, il ventricolo sinistro espelleva
una quantità di sangue pari a tre volte il peso corporeo. Si trattava di un concetto
rivoluzionario per quei tempi nei quali prevaleva la concezione fisiologica di
Galeno (131-201 d.C.), secondo la quale il sangue era prodotto all’interno
dell’organismo a partire dall’aria respirata. Contemporaneamente Santorio
Santorio (1561-1636), un altro collega del Galilei a Padova e considerato dal
Singer il fondatore dei moderni studi sul metabolismo, adattò all’uso clinico il
termometro di Galileo.
30
Figura 2.1 Applicazione clinica del termometro di Galileo realizzato da
Santorio, 1626. L’uomo che pare inghiottire un centopiedi tiene
in bocca l’estremità del termometro (da C. Singer, Breve storia
del pensiero scientifico. Piccola Biblioteca Einaudi, 1961).
Le scoperte fisiche di Galileo, l’introduzione del metodo sperimentale, le
dimostrazioni di Harvey e Santorio diedero grande impulso al tentativo di
spiegare in termini meccanicistici le funzioni organiche.
Nel secolo successivo, il reverendo inglese Stephen Hales (1677-1761), noto
per i suoi studi sulla fisiologia degli animali e delle piante, effettuò la prima
misura diretta della pressione ematica arteriosa nel cavallo, inserendo un tubo di
vetro in un’arteria dell’animale, come mostrato in figura 2.2. Fu così possibile
stimare le forze nel muscolo cardiaco, valutare la distensibilità dell’aorta e
utilizzare queste informazioni per spiegare come il pompaggio intermittente del
cuore possa essere convertito in un flusso continuo del sangue nei vasi periferici.
La tecnica di misura della pressione arteriosa venne poi, perfezionata da
Jean Poiseuille (1797-1869) che, studente di medicina, nel 1828 misurò tale
pressione nel cane utilizzando un tubo ad U riempito di mercurio. E’ da allora che
il mmHg rappresenta l’unità di misura adottata in emodinamica. Ma è solo alla
fine del 1800 che l’italiano Riva-Rocci (1896) e gli inglesi Hill e Barnard (1897)
misero a punto un metodo per la misura indiretta della pressione arteriosa
mediante manicotto riempito di aria: lo sfigmomanometro.
31
Figura 2.2 Disegno dell’esperimento di Hales per la prima misura diretta
della pressione arteriosa nel 1733 (da L.A. Geddés, 1984).
Nella seconda metà del diciannovesimo secolo si verificano tappe
importanti per lo sviluppo della strumentazione biomedica di misura. Un forte
contributo fu dato da uno dei padri della Bioingegneria, Hermann von Helmholtz
(1821-1894), professore di fisiologia e patologia a Konigsberg, di anatomia e
fisiologia a Bonn, di Fisiologia a Heidelberg e, infine, professore di fisica a
Berlino. I suoi interessi spaziarono dall’ottica all’acustica, dalla termodinamica
all’elettrodinamica, dalla fisiologia alla medicina e, in particolare, all’oculistica;
infatti, ideò l’oftalmoscopio per visualizzare la retina e il fondo oculare,
l’oftalmometro per misurare le dimensioni dell’occhio e lo stereoscopio con
aggiustamento della distanza interpupillare per valutare la visione tridimensionale.
Alla fine del secolo scorso, precisamente il 23 gennaio 1896, Wilhelm
Conrad Roentgen, professore di fisica a Wurzburg, fece la prima dimostrazione
pubblica di radiografia ossea (figura 2.3), segnando così l’inizio della diagnostica
32
clinica per immagini. Nel 1903, il fisiologo tedesco Einthoven realizzò uno
strumento in grado di rilevare l’attività elettrica del cuore, l’elettrocardiografo
(Figura 2.4). Tale strumento, basato sul galvanometro a molla, si diffuse ben
presto in tutto il mondo e segnò un passo fondamentale nello sviluppo
dell’elettrofisiologia clinica.
Figura 2.3 Radiografia della mano sinistra di un collega di
Roentgen a Wurzburg (da L.A. Geddés, L.E. Baker,
1989).
Figura 2.4 Elettrocardiografo con elettrodi a immersione e galvanometro
a molla, realizzato nel 1912 in accordo con il Prof. Einthoven
(da L. Cromwell, F.J. Weibell, E.A. Pfeiffer, 1980).
33
2.2 - L’ETÀ DELLA STRUMENTAZIONE BIOMEDICA
I progressi continuarono, anche se lenti, sino al termine della seconda guerra
mondiale, quando si verificò un surplus di apparecchiature elettroniche, quali gli
amplificatori e i registratori. In questa fase di riconversione da industria bellica a
industria civile molti ingegneri e tecnici, sia all’interno delle aziende sia per conto
proprio, provarono a modificare le apparecchiature esistenti per adattarle
all’impiego clinico. Tale processo si verificò negli anni cinquanta con risultati
spesso scoraggianti, sia per la difficoltà di misurare le grandezze fisiologiche con
le tecniche tradizionali, sia per i gravi problemi di comunicazione con la
professione medica.
Ma, durante il decennio successivo, alcune importanti aziende decisero di
progettare una strumentazione specifica per uso medico, invece di modificare le
apparecchiature esistenti. Sebbene i componenti utilizzati fossero per lo più gli
stessi, la filosofia era in realtà radicalmente cambiata: ora l‘analisi ed il progetto
dell’apparecchiatura si originavano direttamente dalle esigenze cliniche.
Un grande impulso allo sviluppo del settore venne anche dai programmi
spaziali che necessitavano di un preciso monitoraggio delle condizioni
fisiologiche degli astronauti. In questa fase, i programmi di medicina aerospaziale
si svilupparono considerevolmente grazie a convenzioni e contratti con le
università e le unità di ricerca ospedaliere. Notevoli furono le ricadute di tali
programmi nella vita di tutti i giorni, tanto che i concetti e le caratteristiche dei
sistemi per il monitoraggio del paziente oggi in uso negli ospedali sono la naturale
evoluzione delle tecniche per il monitoraggio degli astronauti messe a punto in
quegli anni.
In questo periodo buona parte della strumentazione per la valutazione
funzionale cardiovascolare, respiratoria e neuro-sensoriale compie un sostanziale
salto di qualità e, di conseguenza, gli elettrocardiografi, i flussometri Doppler, gli
spirometri, gli elettroencefalografi, i dispositivi per la misura diretta della
pressione ematica raggiungono la piena maturità tecnologica. Inoltre,
l’immissione sul mercato della prima macchina a flusso continuo in grado di
effettuare automaticamente le analisi chimico-cliniche, cambia profondamente il
34
carattere del laboratorio analisi, aumentandone sostanzialmente la produttività.
Negli stessi anni si assiste pure allo sviluppo di un’ampia gamma sia di
dispositivi di supporto alla vita sia di organi artificiali impiantabili. Già nel 1954
lo statunitense Gibbon introdusse la macchina cuore-polmone che aprì la strada
alla cardiochirurgia, tanto che lo stesso anno Hufnagel fece, sull’ uomo, la prima
sostituzione della valvola mitralica con una valvola artificiale a palla.
Successivamente Starr e Edwards (1961) perfezionarono questa protesi (figura
2.5), rimasta largamente in uso fino all’introduzione della valvola a disco.
Figura 2.5 Valvole cardiache a palla di Starr – Edwards ed a disco.
Nel 1960 fu utilizzato per la prima volta sull’uomo un pace-maker
totalmente impiantabile, in grado di stimolarne ritmicamente il cuore in presenza
di blocco atrio-ventricolare e sempre nei primi anni sessanta. I ricercatori Lown e
Edmar applicarono con successo un defibrillatore esterno a scarica capacitiva per
ripristinare un normale ritmo cardiaco in un paziente con fibrillazione
ventricolare.
Occorrerà aspettare, poi, venti anni per arrivare alla versione impiantabile di
defibrillatore.
Sempre negli anni sessanta, fu possibile garantire la sopravvivenza di
pazienti affetti da cronica e severa riduzione della funzionalità renale grazie
all’uso periodico dell’emodialisi o rene artificiale, una macchina in grado di
depurare sangue dai residui tossici del metabolismo cellulare. In realtà, il primo
rene artificiale era stato costruito da Willelm J. Kolff nel 1943 in Olanda, ma solo
la messa a punto dello shunt, prima, e della fistola artero-venosa, poi, ne resero
35
possibile l’uso periodico e prolungato.
Alla fine degli stessi anni sessanta, inizia la diffusione di nuove
apparecchiature in grado di consentire lo studio incruento delle strutture interne al
corpo: i sistemi diagnostici per immagine. Dapprima si utilizzano gli ecografi a
ultrasuoni, basati sulla proprietà di queste onde di propagarsi attraverso il corpo
umano e di essere riflesse dalle discontinuità incontrate lungo il loro percorso. Poi
nel 1971, Hounsfield - premio Nobel per la medicina nel 1979 - sperimentò
clinicamente il primo strumento radiologico in grado di ricostruire immagini o
sezioni trasversali del corpo umano a partire da una molteplicità di viste di
proiezioni: nasce la Tomografia Computerizzata, che supera, tra l’altro, il limite
della radiologia classica di presentare sovrapposte su un supporto piano (la lastra)
informazioni che provengono da un oggetto tridimensionale. Alla fine degli anni
settanta si hanno i primi dispositivi commerciali per la Tomografia a Emissione di
Positroni (l’ ECÀT scanner è stato descritto sulla rivista Journal of Nuclear
Medicine nel 1978), in grado di fornire immagini dell’attività metabolica del
cervello e di altre parti del corpo. Tali apparecchiature sono basate sulla proprietà
di alcuni isotopi di produrre positroni che, reagendo con gli elettroni, emettono dei
fotoni in direzioni opposte, ed utilizzano, altresì, sensori capaci di determinare la
posizione della sorgente di radiazioni dalla misura simultanea delle due opposte
emissioni. Anche se queste apparecchiature richiedono un piccolo ciclotrone per
preparare isotopi presso il luogo d’impiego, offrono tuttavia il vantaggio di
consentire lo studio della cinetica d’importanti metaboliti, qualora la loro
eliminazione sia influenzata da meccanismi biologici.
Infine, dal 1980 iniziano i test clinici sull’uomo con le prime
apparecchiature in grado di fornire immagini mediche sfruttando la Risonanza
Magnetica Nucleare (RMN), cioè la proprietà di alcuni elementi di liberare
energia quando, immersi in forti campi magnetici, ritornano nel loro stato di
riposo dopo essere stati eccitati da energia a radio frequenza. Tale effetto è
presente in elementi come l’idrogeno, la più attiva sorgente di segnali RMN e la
più utilizzata nei sistemi di diagnostica medica, il cui nucleo ha un numero dispari
di protoni o neutroni. Per questo la quantità misurata è generalmente la densità
36
dell’idrogeno nella sezione di tessuto. La Figura 2.6 mostra la forte diminuzione
delle dimensioni di queste apparecchiature, conseguente ai progressi di questi
ultimi anni nella tecnologia dei magneti e dei rivelatori a radiofrequenza.
Figura 2.6 La riduzione dell’ingombro nelle apparecchiature RMN (da R.L.
Magin, A.C. Webb, T.L. Peck, IEEE Spectrum, vol.34, n.10,
1997).
2.3 - CLASSIFICAZIONE DELLA STRUMENTAZIONE BIOMEDICA
L’attuale Strumentazione Biomedica può essere classificata secondo i
quattro principali criteri riportatiti nel seguito:
1. Orizzontale o merceologico, cioè secondo l’area e il comparto d’impiego nella
medicina. Seguendo questo criterio generalmente, si distinguono l’area
diagnostica e l’area terapeutico/ riabilitativa, ciascuna articolata nei comparti
indicati in figura 2.7. In questo testo si studieranno le apparecchiature relative
all’area diagnostica.
2. Verticale o tecno1ogico, cioè secondo il livello di complessità tecnologica.
Secondo questo criterio, generalmente, si distinguono: i materiali (radioisotopi,
la pasta per elettrodi, il concentrato per emodialisi, l’ossigeno per respiratore), i
componenti (gli elettrodi, l’amplificatore bioelettrico, il filtro per emodialisi, il
boccaglio per respiratore), i dispositivi (l’elettrocardiografo, l’unità di
emodialisi, il ventilatore artificiale), i sistemi (i sistemi di monitoraggio, i
37
sistemi automatizzati per il laboratorio di analisi).
3. Fisico. cioè secondo il principio fisico alla base del funzionamento dello
strumento. Seguendo questo criterio, generalmente, si distinguono: gli
strumenti resistivi, gli induttivi, i capacitivi, i piezoelettrici a ultrasuoni,
fotoelettrici, gli elettrochimici.
4. Clinico, cioè secondo l’organo fisiologico cui lo strumento è applicato.
Adottando tale criterio si distinguono le strumentazioni per il sistema
cardiovascolare, per quello respiratorio, per quello nervoso, per quello
endocrino. Così operando, s’individuano toni gli strumenti importanti per gli
specialisti che operano all’interno di una specifica area, sebbene si ottenga una
notevole sovrapposizione di quantità misurate e di principi di traduzione.
Figura 2.7 Classificazione merceologica della Strumentazione
Biomedica.
2.4 - CRITERI DI CLASSIFICAZIONE
Le tecnologie biomediche possono essere classificate in molti modi secondo
38
il criterio adottato. Si noti che ogni criterio ha propri vantaggi e svantaggi,
soprattutto perché può dar luogo ad assegnazioni dubbie per alcune
strumentazioni oppure a tralasciare di prenderne in considerazione altre.
Un primo criterio è quello di osservare lo scopo che la strumentazione si
propone; secondo questo criterio si ha:
- strumentazione per migliorare le conoscenze in campo medico-biologico;
- strumentazione diagnostica;
- strumentazione terapeutica;
- strumentazione riabilitativa.
Un secondo criterio fa riferimento alla sede nella quale più frequentemente
viene adoperata; questo criterio segue praticamente quello della suddivisione, più
o meno aggiornata, della medicina nei suoi settori. Seguendo questo criterio si ha:
- strumentazione cardiologica;
- strumentazione cardiochirurgica;
- strumentazione neurologica;
- strumentazione per la riabilitazione motoria;
e così via.
Un altro importante criterio è quello merceologico. Questo criterio porta a
definire le seguenti aree.
Area della valutazione funzionale comprendente le seguenti sotto-aree:
- Sotto-area delle funzioni cardiache e circolatorie: cardiografi
(comprendendo anche: sistemi di monitoraggio, mappe di potenziali
cardiaci e vettorcardiografia), fonocardiografi, ecocardiografi,
magnetocardiografi, tomografia cardiaca, misure di pressione e di flussi
ematici, fibre ottiche e cateterismo.
- Sotto-area delle funzioni respiratorie: spirometri, pneumotacografi,
analizzatori di gas.
- Sotto-area delle funzioni gastrointestinali.
- Sotto-area delle funzioni neurologiche, neuromotorie e neurosensoriali:
39
encefalografia, miografia, nistagmografia, potenziali evocati, mappe
elettriche e magnetiche, cocleografia, retinografia, oculografia, sistemi di
monitoraggio, rilievo di movimenti, sistemi di valutazione della
funzionalità respiratoria e circolatoria collegata al sistema nervoso.
Area delle bioimmagini: radiografia, tomografia ad assorbimento, tomografia ad
emissione di positroni, tomografia a risonanza magnetica, ecografia e
tomografia ecografica, scintigrafia, endoscopia, mappe di potenziali e di
induzione magnetica, mappe termiche. Si noti che in effetti le bioimmagini
sono utilizzate in tutti i settori della medicina, indipendentemente dagli
specifici riferimenti ora fatti.
Area della diagnostica clinica, comprendente le apparecchiature relative alla:
chimica clinica, microbiologia, ematologia, immuno diagnostica.
Area della chirurgia (strumentazione generale e specialistica) artroscopia,
laparoscopia, angioplastica, valvuloplastica, palloncino intraortico, stimolatori
interni, odontoiatria, radioterapia, terapia a raggi laser, litotrissia, stimolatori
esterni.
Area degli organi artificiali, protesi ed ausili per organi interni: pacemaker,
valvole cardiache, cuore artificiale totale o parziale, protesi vascolari,
ossigenatori, rene artificiale, pancreas artificiale.
Area della riabilitazione motoria: articolazioni artificiali, arti artificiali, protesi a
comando mioelettrico, stimolatori, ausili per la mobilità.
Area della riabilitazione sensoriale e di comunicazione: protesi e ausili per non
vedenti, protesi e ausili per non udenti, ausili di comunicazione per motulesi.
2.5 - PROBLEMI TERMINOLOGICI
Riteniamo opportuno svolgere alcune considerazioni riguardanti la
terminologia. Si deve osservare che molte espressioni sono ormai entrate nel
linguaggio scientifico e vengono comunemente adoperate pur contenendo qualche
volta termini non corretti. Per non disorientare il lettore, in questa sede ci si è
40
generalmente adeguati alla terminologia più diffusa negli specifici settori, anche
se i diversi usi di uno stesso termine possono a volte apparire contraddittori in un
medesimo contesto; occorre del resto dire che spesso le distinzioni sono molto
sottili, se non addirittura prive di significato quando si spinge agli estremi il
tentativo di introdurre ed usare sempre una medesima terminologia: ad esempio,
la stessa apparecchiatura può rientrare in una o in un’altra categoria secondo come
è adoperata per particolari tipi di pazienti.
Secondo l’Organizzazione Mondiale della Sanità, la distinzione principale
fra protesi ed ausilio consiste nel fatto che la protesi deve essere messa in opera
esclusivamente da personale sanitario a ciò abilitato, mentre l’ausilio può essere
utilizzato senza l’intervento di personale specializzato. Pur riconoscendo
l’importanza del concetto implicito in queste definizioni, ci sembra che non
possano essere assunte come generali anche perché presuppongono una
legislazione sanitaria comune per tutti i paesi.
Lowman e Klinger distinguono fra protesi, ortosi e ausili adattatori.
Secondo questi autori si hanno le seguenti definizioni.
1. Le protesi sostituiscono totalmente o parzialmente parti del corpo
mancanti recuperando la loro funzionalità.
2. Le ortosi aumentano, migliorano e controllano la funzionalità di parti del
corpo non compromesse restituendole alle loro normali funzioni.
3. Gli ausili adattatori sono finalizzati al compimento di un’attività che non
sarebbe possibile effettuare a causa della menomazione.
Queste definizioni, accettate anche dall’OMS ed effettivamente accettabili
per molte apparecchiature, hanno l’inconveniente di essere principalmente rivolte
solo a problemi propri degli handicappati motori e sensoriali; non fanno cenno
inoltre alla strumentazione terapeutica. Pur sapendo che anche le definizioni che
ora daremo non sono esenti da critiche, ci sembra opportuno esprimere la nostra
opinione in proposito, simile peraltro in alcuni punti a quella testé illustrata e
anche alla suddivisione merceologica prima riportata.
1 Le protesi sono apparecchiature che sostituiscono parzialmente o totalmente
parti del corpo deficitarie o mancanti, recuperando in modo continuo la
41
funzionalità di uno specifico sistema fisiologico. Ad esempio, secondo
questa definizione, le valvole artificiali cardiache costituiscono una protesi
parziale del cuore, mentre l’intero cuore artificiale costituisce una protesi
totale. Secondo questa definizione, le usuali apparecchiature per ipoudenti
non possono essere considerate protesi mentre tali risultano gli impianti
cocleari per non udenti.
2. Le ortosi sono apparecchiature che aumentano, o migliorano, o controllano
la funzionalità di parti non compromesse di sistemi fisiologici. recuperando
totalmente o parzialmente la funzionalità dell’intero sistema fisiologico
interessato. Secondo questa definizione le usuali apparecchiature per
ipoudenti, basate essenzialmente sull’amplificazione dei segnali, sono da
considerarsi delle ortosi; alla stessa categoria appartengono alcuni
stimolatori.
3. Gli ausili funzionali sono apparecchiature che sostituiscono, totalmente o
parzialmente, organi deficitari in modo non continuativo, ma svolgendone le
stesse funzioni. Ad esempio, i dializzatori sono da considerarsi appartenenti
a questa categoria.
4. Gli ausili sostitutivi sono apparecchiature che soddisfano esigenze del
paziente in modo diverso da quello attuato dal sistema fisiologico
menomato. Ad esempio, appartengono a questa categoria l’Optacon per i
ciechi e le carrozzelle per i motulesi.
5. Le strumentazioni terapeutiche sono apparecchiature, di uso limitato nel
tempo, aventi lo scopo di rimuovere la causa della patologia o di permettere
un miglior decorso della malattia. Ad esempio, appartengono a questa
categoria la stimolazione elettrica per motulesi periferici e gli ausili per la
circolazione
42
3 – ASPETTI E CARATTERISTICHE GENERALI DELLE
APPARECCHIATURE BIOMEDICHE
3.1 - INTRODUZIONE
Abbiamo visto all’inizio del Capitolo 2 che il settore delle Tecnologie
Biomediche si suddivide in area diagnostica, terapeutica e riabilitativa. Nei
capitoli successivi esamineremo una serie di apparecchiature delle suddette aree
dal punto di vista degli elementi funzionali e di una loro descrizione, della
formazione e acquisizione del rispettivo contenuto informativo e della sicurezza
nel loro utilizzo.
Prima di presentare le diverse apparecchiature ci soffermiamo su alcuni
aspetti generali.
3.2 - SEGNALI BIOMEDICI
Un segnale è una manifestazione che contiene un’informazione. I segnali
biomedici sono segnali impiegati nel campo biomedico per ottenere informazioni
sui sistemi biologici oggetto d’indagine. Questo processo di “estrazione”
dell’informazione da un segnale può essere semplice come quando ad esempio un
medico stima la frequenza della pulsazione del cuore del paziente ascoltandogli il
polso, complessa come ad esempio l’analisi della struttura di un tessuto interno
attraverso un’indagine tomografica.
3.2.1 - CATEGORIE DI SEGNALI BIOMEDICI
I segnali biomedici sono comunemente distinti a seconda dei fenomeni che
li generano:
- Segnali Bioelettrici
- Segnali Biomagnetici
- Segnali Biomeccanici
- Segnali Bioacustici
- Segnali Biochimici
- Segnali Biooptici
43
I segnali bioelettrici sono i più importanti in campo medico; essi sono
generati dalle cellule nervose e muscolari, il cui potenziale di membrana sotto
certe condizioni può venire eccitato generando un potenziale d’azione. Il relativo
campo elettrico associato si propaga attraverso i tessuti biologici e il potenziale
può essere registrato in punti definiti della superficie esterna eliminando la
necessità di ricorrere a mezzi invasivi.
Alcuni organi come il cuore, i polmoni, il cervello producono campi
magnetici di debole intensità. La misura di questi campi magnetici (segnali
biomagnetici) fornisce delle informazioni non contenute negli altri segnali
bioelettrici.
I segnali biomeccanici includono tutti i segnali originati da una qualunque
funzione meccanica svolta dal sistema biologico in osservazione. Gli effetti
meccanici non si propagano come quelli elettrici e la loro misura è per questo
generalmente localizzata e per lo più invasiva.
Molti eventi d’interesse biomedico sono accompagnati da “rumori” che
possono essere rilevati: pensiamo al fluire del sangue nelle arterie e attraverso le
valvole cardiache. L’energia acustica associata si propaga attraverso i tessuti e
questi segnali bìoacustici possono così essere facilmente acquisiti con opportuni
trasduttori sulla superficie del corpo.
I segnali biochimici sono prodotti dalle misure su tessuti o composti
esaminati in laboratorio (ad esempio le concentrazioni di ioni in prossimità di una
cellula).
Infine i segnali biooptici si ricavano dall’interazione naturale o indotta della
luce con i sistemi biologici.
44
3.2.2 - GRANDEZZE ANALOGICHE E GRANDEZZE DISCRETE
Un segnale può essere considerato come una funzione di una variabile
indipendente, generalmente il tempo o lo spazio. Una variabile è detta analogica
se può assumere tutti i valori all’interno di un certo intervallo. Una variabile è
invece detta discreta se può assumere un numero finito di valori all’interno di un
certo intervallo e tali valori differiscono tra loro di quantità finite.
Da ciò consegue che vi possono essere due categorie di segnali:
segnali analogici
segnali discreti
Figura 3.1: Segnale analogico Figura 3.2: Segnale discreto
Le informazioni contenute nei segnali biomedici sono essenziali per
comprendere i meccanismi fisiopatologici che stanno alla base della regolazione e
del comportamento dei sistemi biologici. Spesso però queste informazioni non
sono direttamente accessibili dalla semplice registrazione dei segnali, possono
essere nascosti da altri segnali biologici contemporaneamente rilevati o coperti da
rumore. Per questo si rendono necessari altri processi sui segnali per estrarre il
contenuto informativo più rilevante per definire il comportamento del sistema in
esame. Numerose tecniche di elaborazione sono state sviluppate in tal senso.
Anche se è sempre possibile trattare funzioni e forme d’onda continue nel tempo è
45
risultato conveniente convertire questi segnali in forma numerica prima di
applicare tecniche di elaborazione ai segnali stessi. Anche alla luce dei grandi
progressi registrati nella tecnologia digitale, sia dal punto di vista dell’hardware
che del software, e delle potenzialità offerte dall’uso dei computer nel trattamento
dei segnali, l’elaborazione digitale è risultata più flessibile ed efficace rispetto a
quella di tipo analogico.
Una grandezza analogica per poter essere utilizzata da un calcolatore deve
essere trasformata in una grandezza numerica o digitale attraverso un’operazione
di conversione analogico-digitale. L’aspetto più importante in tale conversione è
costituito dall’accuratezza della trasformazione perché in ogni conversione
analogìco-dìgitale si ha una perdita d’informazione, poiché un campo illimitato di
valori viene rappresentato mediante un numero finito di livelli discreti. Con
l’aggettivo digitale s’indicano informazioni espresse in forma numerica, ovvero
variabili discrete che possono essere trattate direttamente da un calcolatore. Nella
figura successiva è rappresentato lo schema di un sistema di acquisizione-
conversione di segnali analogico-digitali.
Figura 3.3: Schema a blocchi della conversione analogico-digitale del segnale.
Sono diverse le grandezze che possono essere misurate in un sistema
biologico. Si tratta di grandezze elettromagnetiche come correnti, differenze di
potenziale, intensità di campi, meccaniche, chimiche, o altre variabili non
46
elettriche (pressione, temperatura, spostamenti). I segnali elettrici vengono
acquisiti attraverso sensori, in particolare elettrodi di vario tipo, mentre le
grandezze non-elettriche sono prima trasformate in grandezze elettriche per mezzo
di trasduttori.
3.3 - LO STRUMENTO DI MISURA
Assegnato un sistema biologico (S) e un sistema di misura (M) la
classificazione e l’identificazione del sitema S è data dall’insieme di misure
ottenute tramite il sistema M.
Di quest’ultimo è nota la funzione di trasferimento Z = f(y,r) in cui y è
l’incognita e r rappresenta il rumore che influenza la precisione della misura.
Figura 3.4: Schematizzazione sistema biologico S e sistema di misura M.
3.3.1 - CARATTERISTICA STATICA E DINAMICA DI UNO
STRUMENTO DI MISURA
La caratteristica statica: di uno strumento definisce la relazione tra
l’ampiezza della grandezza in ingresso e l’ampiezza della grandezza in uscita.
Questa caratteristica è il più delle volte approssimabile con una retta:
z = a * y + b
La caratteristica dinamica di uno strumento esprime la relazione tra i valori
47
assunti a regime dall’uscita quando all’ingresso si manda una successione di
sinusoidi di frequenza diversa.
3.3.2 - INDICI DI QUALITÀ DI UNO STRUMENTO
Sensibilità statica è la pendenza locale della caratteristica statica (nel caso la
caratteristica sia una retta essa coincide con il coefficiente a ).
Risoluzione è la più piccola variazione dell’ingresso per la quale si hanno
variazioni apprezzabili dell’uscita.
Precisione è data dalla deviazione standard del coefficiente a avendo a
disposizione una serie di misure.
Isteresi è provocata da fenomeni di frizione tra gli elementi di uno
strumento di misura con il risultato che l’uscita assume valori diversi a
seconda che un certo valore d’ingresso venga raggiunto per valori crescenti
o decrescenti.
3.3.3 - COMPONENTI DI UN SISTEMA DI MISURA
Figura 3.5: Sistema di misura.
L’elemento di trasmissione è il sistema di rilevazione-misura dei segnali. Un
48
esempio, in campo biomedico, è dato dal gel e dagli elettrodi, che vengono scelti
in base all’evento da rilevare, alla localizzazione anatomica e alle caratteristiche
del generatore bioelettrico. La grandezza (il segnale) rilevata viene trasformata dal
trasduttore in una grandezza di diversa natura fisica (nella maggior parte dei casi
in una grandezza elettrica), che viene successivamente elaborata per eliminare
segnali sovrapposti indesiderati (rumore), per essere amplificata o per regolare
l’offset.
Diverse sono le modalità di visualizzazione dei segnali rilevati:
- L’oscilloscopio. Consente di visualizzare un segnale bioelettrico o in
funzione del tempo o in funzione di altro segnale. Nelle applicazioni
biomediche si utilizzano oscilloscopi a tubi catodici del tipo a più tracce e
schermi a lunga persistenza.
- I registratori su carta. Sono generalmente del tipo a galvanometro: il
segnale d’ingresso fa deviare di un angolo a esso proporzionale il
galvanometro e quindi il braccio mobile alla cui estremità è posta la penna
scrivente. I tipi più diffusi sono quelli a scrittura diretta per mezzo
d’inchiostro o a stilo caldo oppure i registratori fotografico o a
ultravioletto.
49
4 - LE PRESTAZIONI DEI SISTEMI PER MISURE BIOMEDICHE
Sono necessari criteri quantitativi per valutare le prestazioni di uno
strumento di misura. Generalmente l’analisi delle prestazioni è suddivisa nei due
aspetti statici e dinamici.
Infatti, alcune applicazioni richiedono la misura di grandezze costanti o
lentamente variabili nel tempo e, in questa caso, è sufficiente definire un insieme
di criteri, detti prestazioni statiche, che descrivono la qualità della misura senza
considerare il comportamento dinamico. Molti problemi di misura riguardano,
invece, quantità rapidamente variabili nel tempo. In questo caso, per definire le
prestazioni di uno strumento si deve tenere conto delle relazioni dinamiche tra
ingresso e uscita, generalmente rappresentate con equazioni differenziali. I criteri
basati su queste relazioni vengono detti prestazioni dinamiche.
Anche se le prestazioni statiche (ad esempio gli effetti nonlineari)
influenzano la qualità di una misura in condizioni dinamiche, tuttavia, includerle
nell’analisi dinamica renderebbe intrattabili le equazioni differenziali. Perciò si
preferisce considerare i fenomeni d’isteresi, saturazione, attrito di primo distacco,
e così via, nello studio statico e trascurarli nello studio dinamico. Le prestazioni
complessive di uno strumento sono così valutate tramite una sovrapposizione
semi-quantitativa delle due classi di prestazioni
4.1 - LE PRESTAZIONI STATICHE DEGLI STRUMENTI DI MISURA:
CONCETTI E DEFINIZIONI
4.1.1 - IL PROCESSO DI CALIBRAZIONE STATICA
Le prestazioni statiche sono ottenute da un processo, detto calibrazione
statica mediante il quale si determina la relazione (curva di calibrazione) tra
l’uscita e l’ingresso desiderato dello strumento. Durante la calibrazione statica si
cercano di mantenere costanti tutti gli altri ingressi (indesiderati, modificanti),
mentre l’ingresso in esame è fatto variare internamente a un prefissato campo di
50
valori e si osservano i conseguenti valori dell’uscita, una volta raggiunto
l’equilibrio.
Ovviamente, nella calibrazione statica l’ingresso deve essere misurato con
uno strumento dotato di una precisione superiore a quella dello strumento da
calibrare. Di norma si usa uno strumento di misura (standard di calibrazione) 10
volte più preciso di quello da calibrare.
Tabella 4.1 Figura 4.1 Calibrazione statica di un
manometro
La Figura 4.1 rappresenta la curva di calibrazione di uno strumento per la
misura della pressione, ottenuta variando la pressìone in ingresso da 0 a 10 kPa,
dapprima in senso crescente (cerchi) e poi in senso decrescente (asterischi). I dati
misurati durante la calibrazione sono riportati in tabella 4.1. Si può notare il
leggero fenomeno d’isteresi dovuto agli inevitabili attriti interni.
La curva di calibrazione è spesso approssimabile con una retta (detta curva
di calibrazione media), i cui parametri possono essere determinati a partire dai
dati sperimentali utilizzando, ad esempio, il metodo dei minimi quadrati. Questo
metodo porta a minimizzare la somma dei quadrati delle differenze tra i dati
51
indicati dallo strumento e quelli previsti dalla retta e può essere utilizzato per
approssimare anche curve diverse dalla retta.
In base al metodo dei minimi quadrati i due parametri della retta z = ay+b
risultano dalle relazioni (4.1) e (4.2), ove n è il numero complessivo di punti
sperimentali e le sommatorie sono estese a tutti gli n punti.
22 )(
))((
yyn
zyzyna (4.1)
22
2
)(
))(())((
yyn
yzyyzb (4.2)
Come illustrato in figura. determinati i parametri a e b, la migliore stima del
valore vero, y0 in corrispondenza alla lettura z0, è data dalla relazione:
y0= (z0 – b)/a.
Prima della calibrazione, invece, lo strumento si sarebbe considerato
calibrato e si sarebbe utilizzata la relazione z=y: commettendo così un errore
sistematico che, in corrispondenza alla lettura Z0 vale:
a
zy
ba
)1(0
.
Si noti che l’errore sistematico è nullo per a=l e b=0. Ogni strumento ha, in
genere, la possibilità di variare i parametri della sua caratteristica statica, cosicché
dopo la calibrazione può essere tarato per fornire z=y.
52
4.1.2 - PRESTAZIONI STATlCHE DI INTERESSE PIÙ GENERALE
1. La precisione (accuracy nella letteratura anglosassone). La precisione di una
misura, differenza tra il valore osservato e il valore vero, è una misura dell’
errore totale, dovuto sia all’errore sistematico (che assume lo stesso valore in
prove ripetute ed è eliminabile con la calibrazione) sia all’errore accidentale o
casuale, dovuto a una pluralità di fattori il cui effetto è impossibile (o non
pratico) eliminare. Poiché il valore vero è normalmente incognito, in realtà
con la precisione sì fornisce l’intervallo entro cui è compreso il valore vero.
Tale intervallo è espresso in percentuale del valore letto o (più spesso) del
fondo scala dello strumento. La precisione di uno strumento può essere
calcolata in base ai dati di calibrazione secondo due modalità. La prima
corrisponde a un approccio deterministico e assume come precisione la
massima differenza (in valore assoluto) tra l’ingresso misurato e quello
predetto dalla curva di calibrazione media, y-(z-b)/a. La seconda, più raffinata,
corrisponde ad un approccio statistico.
2. Il campo di misura. E’ il massimo intervallo di valori entro cui lo strumento è
in grado di misurare la grandezza d’ingresso rispettando le specifiche
dichiarate dal costruttore. Per uno strumento lineare, è di uso comune il
termine campo di funzionamento lineare.
3. La sensibilità statica. La sensibilità statica di uno strumento è la pendenza
della curva di calibrazione in corrispondenza di uno specificato valore di
ingresso. Se questa curva è un segmento di retta, la sensibilità non dipende dal
valore della grandezza d’ingresso e coincide con il coefficiente angolare
dell’equazione della retta.
Ovviamente, perché la definizione sia significativa, la grandezza di uscita
deve essere la grandezza fisica effettivamente osservata e non il significato
dato ai numeri sulla scala. Ad esempio, in un manometro a indice la quantità
in uscita letta sulla scala graduata è indicata in chilopascal, ma la grandezza
fisica è in realtà la rotazione angolare dell’indice. Pertanto, la sensibilità
statica del manometro è data in gradi/kPa.
53
Precisione:Capacità dello strumento, operando nelle stesse condizioni di
lavoro, di riprodurre valori assai prossimi di misure ripetute,
(si assume come indice la deviazione standard σ della serie di
grandezze misurate)
Campo di misura:
E’ il massimo intervallo di valori in ingresso che lo strumento
è in grado di misurare
Sensibilità:
Minimo spostamento dell’indice dello strumento avvertibile
dall’osservatore (pendenza della curva di calibrazione)
Prestazioni dei sistemi di misura
Bioingegneriaa.a. 2009/2010
4. La linearità. Un sistema è lineare se soddisfa il principio di sovrapposizione
degli effetti. In altre parole, indicate con z1 e z2 le risposte agli ingressi y1 e y2,
un sistema è lineare se soddisfa le due proprietà:
a. la risposta a ky1 vale kz1;
b. la risposta a (y1+y2) vale (z1+z2).
Nella pratica, nessuno strumento ha una risposta perfettamente lineare, per cui
è necessaria una misura dello scostamento dalla linearità. Come indice di tale
scostamento, generalmente, si assume la massima deviazione di un qualunque
punto di calibrazione dalla retta dei minimi quadrati, espressa come
percentuale del valore letto, del fondo scala o di una loro combinazione.
5. La deriva di zero e di sensibilità. In uno strumento lineare, gli ingressi
modificanti/indesiderati possono alterare la curva di calibrazione media,
variando sia il valore del coefficiente b (si parla allora di deriva di zero) sia il
valore del coefficiente a (si parla allora di deriva di sensibilità). Come
esempio si consideri il sensore di deformazione a estensimetri, una variazione
di temperatura modifica la resistenza dell’estensimetro e determina una deriva
54
dello zero. La stessa variazione di temperatura modifica il fattore di guadagno
e determina una deriva di sensibilità.
La figura 4.2 mostra gli effetti di una deriva positiva dello zero e della
sensibilità sulla curva di calibrazione. Questi effetti vengono valutati ripetendo
la calibrazione statica per diversi valori di temperatura.
Figura 4.2 Deriva positiva della linea di zero e della sensibilità
Deriva di zero e di sensibilità
Z = a y + b
(-a)
(+a)
(-b)
(+ b)
(+ a , b +)
(- a , b-)
Z = Y
Z = Y � b Z = � a Y Z = �a Y � b
Deriva di zero Deriva di sensibilità Effetti di Deriva
combinatiBioingegneria
a.a. 2009/2010
55
6. La risoluzione. Essa è espressa dalla più piccola variazione dell’ingresso in
grado di determinare variazioni apprezzabili dell’uscita. In alternativa
definisce soglia di sensibilità la più piccola variazione dell’ingresso in
corrispondenza della quale l’uscita è apprezzabilmente diversa dallo zero.
Spesso la risoluzione è data in percentuale del fondo scala.
7. La riproducibilità. è la capacità di uno strumento di fornire la stessa uscita per
uguali valori dell’ingresso, anche se applicati in tempi diversi. La
riproducibilità non implica la precisione.
8. L’isteresi. Essa ha origine dai fenomeni di attrito interno o d’isteresi
magnetica degli elementi che compongono lo strumento di misura e
apprezzabile in presenza di segnali anche lentamente variabili. Come mostrato
in figura 4.3, essa determina valori diversi dell’uscita a seconda che l’ingresso
sia raggiunto per valori crescenti (o) o decrescenti (*). L’isteresi può essere
specificata in termini d’ingresso o di uscita ed è data generalmente, come
percentuale del fondo scala
Figura 4.3 Curva di calibrazione di uno strumento con isteresi, ottenuto
variando l’ingresso per valori crescenti (o) o decrescenti (*).
56
Membrana semipermeabile
con E (GOD) immobilizzato
Elettrodo di
riferimento Pt
Elettrodo Ag / AgCl
HCl dil.
SENSORE POTENZIOMETRICO
Potenziometro
Bioingegneriaa.a. 2009/2010
CARATTERISTICHE DEI BIOSENSORI(sensore del glucosio)
• risposta veloce (1÷5 min)
• accuratezza (< 10 mg/dl)
• sensibilità (< 2 mg/dl)
• intervallo (20÷600 mg/dl)
• stabilità (< 5%)
Bioingegneriaa.a. 2009/2010
57
050 100 200150
10
15
5
20
mg/dl
mA
250
Curva di calibrazione
Z = a Y + b
Bioingegneriaa.a. 2009/2010
050 100 200150
10
15
5
20
mg/dl
mA
250
Deriva della curva di calibrazione
Bioingegneriaa.a. 2009/2010
Z = a Y + b
58
Valore medio di più misure diretteè la media aritmetica delle singole misure
y1 + y2 + … + yny =
nMedia aritmetica :
Deviazione Standard : √Σi
n=1 (y – yi)
2
n - 1σ =
Possiamo esprimere la nostra serie di misure con : y � σ
Bioingegneriaa.a. 2009/2010
La deviazione Standard σfornisce l’informazione di come le misure
sono distribuite intorno alla media
68 % delle misure sono comprese tra : y � 1σ
95 % delle misure sono comprese tra : y � 2σ
99,7% delle misure sono comprese tra : y � 3σ
Esempio: se esprimiamo una serie di misure con y � σ = 100 � 5vuol dire che la probabilità è così distribuita:
fra 95 105 sono comprese il 68 % delle misure
fra 90 110 sono comprese il 95 % delle misure
fra 85 115 sono comprese il 99,7% delle misureBioingegneria
a.a. 2009/2010
59
5 - SICUREZZA E RISCHIO NELL’USO DELLE APPARECCHIATURE
BIOMEDICHE
INTRODUZIONE
Nelle strutture ospedaliere, un requisito essenziale è la sicurezza di
esercizio, caratteristica globale che è costituita da molti aspetti per i quali il
contributo più grande è proprio fornito dagli impianti ed apparecchiature elettriche
in generale.
Infatti, l'utilizzazione dell'energia elettrica nelle apparecchiature
elettromedicali comporta indubbiamente dei rischi, che vanno accuratamente
bilanciati rispetto ai benefici che l'uso delle apparecchiature stesse comporta.
Tali rischi riguardano:
- la sicurezza elettrica dei pazienti e degli operatori;
- la sicurezza nella distribuzione dell'energia elettrica (disturbi, interruzioni,
irregolarità di erogazione);
- la compatibilità elettromagnetica, causata dall'interferenza tra più
apparecchiature operanti nello stesso ambiente o in ambienti limitrofi.
Nel seguito ci limiteremo a discutere nelle linee essenziali il problema della
sicurezza elettrica delle apparecchiature elettromedicali.
Ricordiamo che per sicurezza delle apparecchiature intendiamo diversi
aspetti interconnessi e cioè:
- la sicurezza intrinseca del dispositivo. E' connessa alla progettazione,
costruzione, trasporto, installazione, manutenzione dell'apparecchiatura.
Particolarmente rilevante per un uso sicuro delle apparecchiature è la
realizzazione di una manutenzione periodica attenta anche ai problemi della
sicurezza, poiché non sempre i guasti che compromettono la sicurezza delle
apparecchiature ne alterano anche la funzionalità in maniera evidente;
- la sicurezza degli impianti ai quali l'apparecchiatura è connessa o da cui dipende
per il suo funzionamento (impianti elettrico, idraulico, di riscaldamento e/o
condizionamento, di distribuzione gas, fognario). E' evidente, ad esempio, che
60
un guasto all'impianto di condizionamento di un locale può far salire la
temperatura di esercizio di un'apparecchiatura oltre i limiti di sicurezza
potendone compromettere il corretto funzionamento;
- la sicurezza riguardante i campi elettromagnetici in cui un'apparecchiatura si
trova inevitabilmente a operare, per effetto delle contiguità di altre
apparecchiature, o addirittura di altre sorgenti di emissione. Ad esempio,
un'apparecchiatura ad ultrasuoni può essere disturbata dalla vicinanza di stazioni
radio, oppure un sistema di acquisizione di segnali biologici può essere soggetto
a disturbi prodotti dall'accoppiamento indesiderato con campi magnetici presenti
nell'ambiente (problemi della compatibilità elettromagnetica);
- la sicurezza nell'uso, che quindi dipende dalla preparazione e professionalità
dell'operatore.
- la sicurezza derivante dal comportamento del paziente, che non sempre accetta
di buon grado i vari trattamenti o produce, con la sua indisciplina, guasti o
inconvenienti.
5.1 - IL RISCHIO IN AMBIENTE OSPEDALIERO
Lo sviluppo tecnologico degli ultimi decenni ha profondamente modificato
il tipo di prestazioni erogate nei diversi ambiti della medicina trasformando
l’ospedale da luogo di semplice ricovero in struttura altamente specializzata dove
l’introduzione di nuove e sofisticate metodiche medico-chirurgiche da un lato ha
considerevolmente innalzato il livello nelle attività diagnostiche e curative,
dall’altro ha però moltiplicato le fonti di rischio.
Le sorgenti di rischio ospedaliero possono essere distinte in due grandi
categorie: quelle strettamente ambientali (agenti chimici, fisici, elettricità) e altre
legate alla presenza dell’uomo (patologie infettive). L’ampia eterogeneità delle
prestazioni e delle condizioni di lavoro all’interno di una struttura ospedaliera fa si
che queste fonti di rischio assumano una differente gravità a seconda dell’area
funzionale interessata. Ad esempio i fattori di rischio chimico/fisico (gas
anestetici) sono specifici per il personale di sala operatoria, altri invece
61
(detergenti, sostanze farmacologiche) esplicano i loro effetti dannosi sul personale
di assistenza; le apparecchiature che emettono radiazioni ionizzanti risultano
potenzialmente pericolose anche per il personale addetto a tali servizi oltre che per
i pazienti sottoposti ai trattamenti.
Assicurare il benessere e la sicurezza a pazienti e personale che opera
all’interno dell’ospedale è quindi un compito estremamente articolato e
complesso. Esso per altro può essere ricondotto a due aspetti principali, per i quali
attuare le opportune strategie di controllo:
il benessere climatico;
la sicurezza ambientale.
Dal punto di vista igienistico per benessere climatico si intende quello stato
di benessere psico-fisico dell’individuo strettamente correlato alle condizioni
ambientali in cui vive e opera. Tale condizione è determinata da numerosi fattori
che intervengono contemporaneamente: temperatura, umidità, ventilazione,
illuminazione, rumorosità, che insieme costituiscono il cosiddetto “microclima”.
Per sicurezza ambientale invece si intende il controllo igienico-sanitario di
tutti i fattori microbici (infezioni) e non-microbici (inquinanti chimici, radiazioni,
fattori meccanici, elettricità, etc.) che possono compromettere direttamente o
indirettamente la salubrità dell’ambiente, la sicurezza del personale e dei pazienti.
5.2 - DEFINIZIONE DI SICUREZZA
E’ nell’etimologia stessa della parola “sicurezza” che troviamo il significato
e insieme la definizione che si adatta perfettamente al nostro contesto, quello
legato alle tecnologie. Sicurezza deriva infatti dal termine latino “securus” o
meglio “sine cura” che si traduce semplicemente “senza paura”. Pertanto
possiamo dire che una qualsiasi installazione tecnica, comprese le apparecchiature
biomediche, è sicura quando ci si può avvicinare ad essa “senza paura” alcuna
(sottintendendo: di subire conseguenze dannose per la propria integrità fisica). La
62
sicurezza dunque, nella sua accezione più comune, è sinonimo di mancanza di
pericoli immediati per l’uomo.
Tutto ciò viene implementato attraverso una richiesta di disponibilità e di
corretto funzionamento del dispositivo stesso e questa condizione viene riassunta
nel termine “affidabilità”.
Sicurezza e affidabilità sono concetti relativi, nel senso che non si può
parlare di una sicurezza assoluta: essa è sempre auspicata, ma mai raggiunta.
Esiste un preciso legame tra il grado di sicurezza ottenibile ed il costo
relativo: un aumento del grado di sicurezza oltre una certa soglia è sempre
accompagnato da un incremento di tipo esponenziale dei costi da sostenere, come
mostrato nel grafico seguente.
figura 5.1: Andamento gradi di sicurezza – investimenti.
Al di là delle difficoltà terminologiche rimane comunque il fatto che la
sicurezza è una condizione limite cui è possibile avvicinarsi per approssimazioni
successive e deve essere sempre noto agli addetti quanto indicato nella edizione
1973 della norma CEI 64-4:
“Nessuna norma, per quanto accuratamente studiata, può garantire in
modo assoluto l’immunità delle persone o delle cose dai pericoli dell’energia
elettrica. L’applicazione delle disposizioni contenute nelle seguenti norme può
diminuire le occasioni di pericolo, ma non evitare che circostanze accidentali
63
possano determinare situazioni pericolose per le persone o per le cose”
Vediamo ora come può essere raggiunto un certo grado di sicurezza:
con la costruzione a regola d’arte del dispositivo (tecnica della sicurezza
diretta);
con provvedimenti supplementari (tecnica della sicurezza indiretta);
qualora i provvedimenti adottati non fossero applicabili, attraverso
opportune disposizioni in fase di installazione e di utilizzo (tecnica di
sicurezza indicativa).
Le prime due sono da applicarsi sempre con priorità rispetto alla tecnica di
sicurezza indicativa, in quanto la loro efficacia è sicuramente maggiore e
pregiudicano in maniera minore la funzionalità e l’operatività del dispositivo
tecnico.
5.3 - DEFINIZIONE DI INCIDENTE
L’incidente rappresenta la conclusione di una catena causale e pertanto sono
sempre più di uno i motivi individuabili. Questi possono essere principalmente:
motivi legati alle persone, cioè risultato di iniziative personali non corrette e
in momenti inopportuni;
motivi legati a schemi organizzativi, legati a procedure di routine e di
frequente applicazione, come nel caso della maggior parte degli strumenti
settici, dalla sterilizzazione alla loro riutilizzazione;
motivi tecnici dovuti ad un malfunzionamento di dispositivi;
motivi esterni dovuti alla contaminazione di aria o acqua.
Ogni incidente è comunque riconducibile a comportamenti non corretti
dell’uomo in quanto è lui stesso a rappresentare l’ultimo anello della catena
causale. Per comprendere il significato della catena causale pensiamo ad una serie
di pezzi del domino in piedi uno dietro l’altro: se cade il primo, la sua caduta
trascina in successione tutti gli altri e l’incidente è inevitabile. Se però si riesce ad
estrarre uno dei pezzi l’incidente può essere evitato o perlomeno se ne possono
ridurre le conseguenze.
64
Vediamolo con un esempio.
In sala operatoria si opera un paziente senza che prima sia stata svuotata la
sua vescica (primo anello della catena causale). Il paziente viene posizionato sul
tavolo senza introdurre un panno di isolamento tra le sue gambe (secondo anello
della catena causale). L’elettrodo neutro dell’elettrobisturi viene posizionato sul
femore destro senza verificare che il contatto tra elettrodo e cute sia
sufficientemente ampio (terzo anello) e soprattutto senza assicurarsi che
l’elettrodo neutro non possa in alcun caso venire in contatto con altre parti del
corpo (quarto anello). Alla fine dell’intervento viene constatata una grave ustione
sul femore sinistro causata dall’elettrobisturi (incidente).
figura 5.2 Definizione di incidente.
Cosa è successo in questa catena causale? Uno svuotamento involontario
della vescica ha creato un ambiente caratterizzato da una buona conducibilità
elettrica, la quale non è stata interrotta con un panno isolante e ciò ha permesso il
65
contatto accidentale tra elettrodo neutro e femore sinistro. Per l’insufficiente
contatto tra elettrodo neutro e femore destro, parte della corrente elettrica generata
dall’elettrobisturi si è chiusa a terra attraverso il contatto accidentale dell’elettrodo
con il femore sinistro. Per le limitate dimensioni di tale contatto, la densità di
corrente è stata così alta da produrre l’ustione.
66
5.4 - Sicurezza in locali ad uso medico
L’applicazione del concetto di sicurezza in campo sanitario riveste una
peculiarità non riscontrabile in altri ambiti di lavoro. Infatti mentre generalmente
la sicurezza deve essere riferita ad una categoria omogenea di persone, nel caso
delle strutture ospedaliere si riscontra una molteplicità di categorie cui deve essere
riferita la sicurezza, ciascuna con attività ed esigenze differenti e cioè:
pazienti;
personale addetto alle strutture ospedaliere (personale sanitario e non sanitario);
pubblico (visitatori).
Un secondo fattore è dato dalla eterogeneità delle componenti tecnologiche
di cui molte strutture sanitarie sono dotate: esse vanno dagli impianti erogatori
delle tradizionali forme di energia (impianti termici, idrosanitari, elettrici, di gas
medicali), ai sistemi di comunicazione e trasporto (impianti telefonici e
telecomunicazioni, elevatori, posta pneumatica), alle strutture di laboratorio, alle
tecnologie biomediche, ai sistemi di trattamento dei reflui, agli impianti di
controllo ambientale (antincendio, antintrusione). Un terzo aspetto è dato
dall’articolazione delle disposizioni normative a supporto di chi deve assumersi la
responsabilità delle strutture tecnologiche indicate, limitate ad un settore
specifico, ad un impianto o ad una macchina particolare, mentre il problema di
fondo è quello di garantire standard di sicurezza ambientali o di sistema, vale a
dire soluzioni complessive al problema sicurezza.
L’organizzazione di un ospedale non prevede esplicitamente un ufficio cui
riferire tutte le problematiche della sicurezza, ma si possono individuare quattro
uffici che possono condividere tale prerogativa:
Direzione Sanitaria (per le implicazioni igienistiche e sanitarie della
sicurezza);
Servizio di Fisica sanitaria (per le problematiche relative all’impiego delle
radiazioni ionizzanti e non-ionizzanti);
Servizio Tecnico (per la gestione delle strutture civili e tecnologiche
dell’ospedale);
67
Servizio di Ingegneria Clinica (per le problematiche relative all’impiego di
tecnologie biomediche).
La gestione della sicurezza è dunque la conseguenza di una corretta politica
manutentiva che garantisca costantemente le migliori prestazioni da parte degli
impianti e delle attrezzature esistenti e che richiede:
una collaborazione interdisciplinare e costante tra le varie parti;
la definizione di programmi di intervento impostati su alcune priorità;
un approccio sistematico e non parziale ai problemi della sicurezza
considerando nel suo insieme l’interazione uomo/macchina.
Tornando alle tre categorie di persone rispetto alle quali affrontare il
problema della sicurezza, il paziente rimane sempre il soggetto più a rischio
rispetto ad una persona sana, in quanto la sua condizione può essere tale per cui
egli non è conscio (anche a causa della stessa terapia medica a cui è sottoposto) di
un eventuale pericolo che sta per correre e può dunque non essere in grado di
proteggersi autonomamente per essere fortemente desensibilizzato rispetto a
fattori esterni. Addirittura la sua stessa vita può dipendere dal funzionamento di
un dispositivo tecnico nel qual caso l’affidabilità del dispositivo e la relativa
installazione diventano un fattore discriminante di sicurezza. Una efficacie
prevenzione degli incidenti può essere impostata sulla seguente considerazione:
riconoscere le situazioni potenzialmente pericolose. Riconoscerle è la prima
condizione per poterle eliminare. Con riferimento specifico all’utilizzo delle
apparecchiature elettromedicali ecco le situazioni pericolose più ricorrenti:
incidenti provocati da un’installazione elettrica non in regola; soprattutto in
ambienti non costruiti di recente si possono incontrare installazioni
elettriche con linee di tensione non a norma, o fusibili mal dimensionati,
prese e cavi difettosi, spine e prese non corrispondenti alle normative;
incidenti provocati da gravi inadempienze, come riparazioni o manutenzioni
eseguiti da personale non qualificato;
incidenti dovuti ad incendi o esplosioni; si possono verificare
frequentemente durante l’impiego di gas anestetici infiammabili, soluzioni
solventi e in presenza di gas corporei. Dove tali fattori di rischio non sono
68
eliminabili come le sale operatorie, interruttori non protetti, scintille
prodotte da cariche elettrostatiche, dagli elettrobisturi o dai defibrillatori,
possono causare danni anche molto seri a pazienti e operatori;
incidenti dovuti ad installazioni approssimative delle apparecchiature
(apparecchi non stabilizzati, collocati su supporti pensili);
incidenti dovuti a sovradosaggi di energia in qualsiasi forma; per esempio la
potenza di uscita di un raggio laser, il flusso di un sistema infusionale, la
corrente in alta frequenza di un elettrobisturi;
incidenti causati da insufficiente preparazione professionale.
Un’insufficiente preparazione ed un aggiornamento non costante sull’uso di
determinate tecnologie o apparecchiature, può rappresentare uno dei rischi
più seri per la sicurezza. La conoscenza approssimativa di una
apparecchiatura si traduce spesso in un uso non corretto della stessa con
possibilità di provocare incidenti anche gravi o anche diagnosi e scelte
terapeutiche non adeguate.
Uno studio svolto negli Stati Uniti sull’incidenza dei problemi connessi
all’uso di apparecchiature elettromedicali ha messo in evidenza che circa il 15%
delle cause di guasto che hanno pregiudicato la sicurezza di sistemi
elettromedicali era dipesa da un errore dell’operatore sanitario.
5.5 - INCIDENTI LEGATI ALL’IMPIEGO DI APPARECCHIATURE
BIOMEDICHE
I maggiori pericoli introdotti dagli apparecchi utilizzati nella pratica medica sono
dovuti a:
energie o sostanze erogate durante il normale funzionamento o in caso di
primo guasto in seguito ad errori umani o cattivo utilizzo degli stessi;
cattivo funzionamento mentre sostengono le funzioni vitali del paziente.
In maniera più dettagliata possiamo individuare le seguenti cause di pericolo:
la corrente elettrica che attraversa il corpo umano;
il funzionamento errato dell’apparecchio da cui consegue una scorretta
somministrazione di sostanze;
le forze meccaniche in seguito a movimento per instabilità dell’apparecchio;
69
le interferenze a bassa e alta frequenza che producono errori nelle misure;
le alte temperature ed incendio;
pericoli chimici;
guasti dei componenti e interruzioni del sistema di alimentazione.
La cause più pericolose rimangono tuttavia gli errori umani perché
imprevedibili e incontrollabili. Essi comportano diverse cause di rischio dovute
principalmente a:
utilizzo errato dell’apparecchio;
annullamento di un allarme senza eliminazione dell’inconveniente;
malfunzionamento non rilevato di parti dell’apparecchio che può essere di
danno al paziente o portare a diagnosi errate;
scambio delle connessioni nei sistemi di sostentamento di funzioni vitali,
Analizzando gli incidenti dovuti a rischio elettrico si riscontrano le seguenti
percentuali di cause che li hanno prodotti:
_________________________________________________________________
CAUSE DEGLI INCIDENTI PERCENTUALE _________________________________________________________________
UTILIZZO NON APPROPRIATO 64
INSTALLAZIONE APPROSSIMATIVA 16
INSUFFICIENTE MANUTENZIONE 10
DIFETTO DI COSTRUZIONE 8
CAUSE NON DETERMINABILI 2
_________________________________________________________________
Tabella 4.1: Cause degli incidenti dovuti a rischio elettrico.
Come si nota dall’analisi della tabella sopra riportata, solamente il 2% degli
incidenti dovuti al rischio elettrico sono da attribuirsi a cause non determinabili.
cioè sono incidenti veri
70
5.6 - CLASSIFICAZIONE DELLE APPARECCHIATURE BIOMEDICHE
SECONDO I RISCHI
Le apparecchiature elettromedicali vengono classificate secondo il rischio
legato al loro utilizzo in tre classi: alto, medio, basso. Sono considerati dispositivi
ad alto rischio quelli che sono di sostegno alla vita e che in caso di fallimento,
abuso o non funzionamento è probabile che causino danni sia al paziente che al
personale. I dispositivi a medio rischio sono quelli che in caso di fallimento,
abuso o non funzionamento, non causano danni diretti al personale circostante, ma
possono causare danni al paziente sotto cura. In questa categoria rientrano la
maggior parte degli strumenti diagnostici. Quelli a basso rischio infine, sempre in
presenza di anomalie, è assai improbabile che comportino conseguenze serie per il
personale o per i pazienti.
DISPOSITIVI AD ALTO
RISCHIO
DISPOSITIVI A MEDIO
RISCHIO
DISPOSITIVI A BASSO
RISCHIO
DEPIBRILLATORI ANALIZZATORI DELLE
FUNZIONI POLMONARI
LETTO ELETTRICO
LASER CHIRURGICO ANALIZZATORI DEI GAS
DEL SANGUE
LAMPADA DA CHIRURGIA
PACE-MAKER ELETTROCARDIOGRAFO MICROSCOPIO DA
CHIRURGIA
PALLONCINO INTRA
AORTICO
ELETTROENCEFALOGRAF
O
SFIGMOMANOMETRO
SISTEMI DIAGNOSTICI
RADIOLOGICI E
NUCLEARI
ELETTROMIOGRAFO TAVOLO CHIRURGICO
UNITÀ DI ANESTESIA
UNITÀ DI EMODIALISI
LITOTRITORE
UNITÁ’ DI IMMAGINI AD
ULTRASUONI
TERAPIA AD ULTRASUONI
TERMOMETRO
ELETTRONICO
ELETTROBISTURI
VENTILATORI
POLMONARI
INCUBATRICI
NEONATALI
UNITÀ DI TRAZIONE
Tabella 4.2: Elenco dispositivi a rischio
71
5.7 - SICUREZZA ELETRICA IN AMBIENTE MEDICO E
PREVENZIONE DEGLI INCIDENTI
La corretta gestione dell’ingente patrimonio tecnologico presente nelle
strutture sanitarie, in termini di efficienza, efficacia e sicurezza, rappresenta
un’esigenza imprescindibile alla luce dei criteri su cui si basa la medicina
moderna che vede la quasi totalità delle azioni di tipo diagnostico, terapeutico e
riabilitativo svolte all’interno di un moderno ospedale ricorrere ad un largo
impiego di apparecchiature e tecnologie. La prevenzione di situazioni
potenzialmente pericolose può avvenire solo attraverso il monitoraggio continuo
delle stesse situazioni e attraverso l’aggiornamento continuo del personale
operante in situazioni potenzialmente pericolose. E’ inoltre importante predisporre
una costante documentazione dei provvedimenti adottati per evitare situazioni
pericolose; è necessaria non solo per la tutela sul piano delle responsabilità
personali degli operatori, ma anche per poter effettuare un effettivo controllo
sull’esecuzione dei provvedimenti.
In un ambiente elettricamente così difficile come quello medico il
raggiungimento di elevati livelli di sicurezza comporta l’impiego di competenze e
mezzi rilevanti, grande prudenza e grande diligenza da parte di tutti gli operatori
medici e paramedici.
Il personale di assistenza deve attenersi a precise norme di sicurezza e
conoscere perfettamente i pericoli ed i rischi a cui si può esporre o esporre i
pazienti utilizzando le apparecchiature elettromedicali.
Si deve in particolare:
considerare il paziente molto vulnerabile alle correnti elettriche e ricordare
che un apparecchio elettrico innocuo per un soggetto normale può risultare
fatale se entra in contatto con il paziente;
evitare di entrare in contatto con masse metalliche o apparecchi elettrici
mentre si tocca il paziente;
indossare guanti di gomma per toccare, aggiustare i terminali degli elettrodi
intracardiaci, nelle giunzioni intermedie, nei morsetti di ingresso
dell’apparecchio;
72
non introdurre nell’area del paziente apparecchi elettrici non elettromedicali
(piccoli elettrodomestici, apparecchi per la pulizia);
seguire le indicazioni e le misure di sicurezza indicate nei manuali di
utilizzo delle apparecchiature. Le norme CEI prevedono che ogni
apparecchio sia corredato da un manuale d’uso in lingua italiana;
non eseguire collegamenti a terra volanti, su infissi metallici, termosifoni
etc.;
segnalare qualsiasi alterazione nel funzionamento degli apparecchi, come
piccoli formicolii toccando le parti metalliche degli stessi, i danneggiamenti
di cavi, prese, spine etc.;
lasciare una ventilazione alle apparecchiature;
non esporre le apparecchiature all’irraggiamento solare diretto.
Le situazioni a rischio imputabili direttamente ad un uso improprio ed
incompetente delle apparecchiature possono così riassumersi:
estrazione di spine da prese per trazione sul cavo;
rovesciamento di liquidi o caduta di oggetti metallici all’interno
dell’apparecchiatura;
collegamento del conduttore di protezione a condutture dell’acqua;
uso di adattatori, prolunghe, spine multiple senza la messa a terra;
inserimento forzato di spine nella presa sbagliata;
uso dell’apparecchiatura senza preventiva lettura del manuale d’utilizzo;
uso simultaneo di apparecchiature elettriche e materiale infiammabile;
manipolazione di connettori di cateteri ed elettrodi endocavitari senza
particolari precauzioni;
attivazione di elettrobisturi o defibrillatori prima di stabilire un corretto
contatto con il corpo del paziente;
scarsa pulizia delle piastre degli elettrobisturi o degli elettrodi dei
defibrillatori.
Con la legge n. 626 del settembre 1994 lo Stato italiano si è dotato di un
primo, seppur non ancora completamente applicato, strumento legislativo in
materia di sicurezza dei lavoratori in ogni ambiente di lavoro che ha recepito
alcune direttive europee volte a promuovere in generale un miglioramento delle
condizioni di sicurezza e salute sui luoghi di lavoro (89/931/CEE), e che in
73
particolare regolamentano i requisiti minimi degli ambienti di lavoro
(89/654/CEE), l’esposizione ad agenti cancerogeni (90/394/CEE) e biologici
(90/679/CEE), la movimentazione ed il sollevamento di carichi pesanti
(90/269/CEE), i dispositivi di protezione individuali (89/656/CEE), l’utilizzo di
videoterminali (90/270/CEE) e delle attrezzature di lavoro (89/65/CEE) dove per
“attrezzature” si intende qualsiasi macchina, apparecchio, utensile o impianto
destinato ad essere usato durante il lavoro. Gli ospedali sono doppiamente
interessati al DL. 626/94 in quanto nei locali a uso medico, oltre alla tutela dei
lavoratori si aggiunge la necessità di garantire la sicurezza dei pazienti. Il DL.
626/94 estende, giustamente, il concetto di attrezzatura a tutte le apparecchiature
ed impianti utilizzati dai lavoratori nella “azienda ospedale”.
La sua più corretta applicazione deve partire dall’individuazione delle fonti
di rischio, nel nostro caso la concentrazione di apparecchiature elettriche per le
quali va programmata la gestione e la manutenzione con l’obiettivo primario della
sicurezza globale e della prevenzione dai rischi elettrici legati all’utilizzo di tali
apparecchiature. La sicurezza dipende da un loro adeguato utilizzo, dunque dalla
disponibilità di un’adeguata documentazione di accompagnamento (redatta in una
lingua comprensibile per l’operatore), dalla preparazione degli operatori che
diviene un vero e proprio obbligo, da un efficace programma di manutenzione,
dalla sicurezza dell’impianto in cui le apparecchiature sono inserite.
Oggi la sicurezza viene considerata sempre più un obiettivo primario, infatti
il recente decreto legislativo n.81 del 9.4.2008 riunifica tutte le normative in
materia di igiene e sicurezza sul lavoro determinando i requisiti minimi per la
protezione dei lavoratori contro i rischi per la salute e la sicurezza nell’ambient di
lavoro.
74
5.8 - CAUSE DEGLI SHOCK DA CORRENTE ELETTRICA
La potenziale pericolosità di ogni apparecchiatura alimentata attraverso la
tensione di rete risiede nelle modalità con cui si realizza la rete di distribuzione
dell’energia elettrica. Questa distribuzione avviene attraverso una rete trifase ad
alta tensione e raggiunge l’utilizzatore passando attraverso una serie di cabine di
riduzione che abbassano la tensione di linea a 380 Volt. (Fig. 5.1)
RETE DI DISTRIBUZIONE
DELL’ENERGIA ELETTRICA
Linea di Alta
Tensione (250 KV)
Linea di Media
Tensione (15 KV)
Linea di Bassa
Tensione (380 V)
Trasformatore
Trifase
Trasformatore
Trifase
Linea di Alta Tensione Trifase: 250 KVolt
Linea di Media Tensione Trifase: 15 KVolt
Linea di Bassa Tensione Trifase: 380 Volt
Linea di Bassa Tensione Monofase: 220 Volt
1
2
3n
Bioingegneriaa.a. 2009/2010
Figura 5.1
La linea trifase a 380 Volt si utilizza per l’alimentazione industriale, mentre
la maggior parte delle utenze viene alimentata con la rete monofase a 220 Volt
che si ottiene prelevando la tensione tra una fase e il centro stella del
trasformatore di bassa tensione (neutro). Il “neutro” viene di norma collegato a
terra a livello del trasformatore di bassa tensione. All’utilizzatore vengono così
due fili: quello collegato alla fase e quello collegato al neutro in pratica al
potenziale di terra.
Se ora una persona tocca una fase, il circuito elettrico viene chiuso
75
attraverso il contatto con una qualunque superficie posta a terra (tipicamente il
pavimento) con una conseguente circolazione di corrente che dipende
dall’impedenza totale del circuito (Fig. 5.2).
2
1
3
380 v 220 v
neutro
fase
terra
Cause degli Shock da corrente elettrica
Bioingegneriaa.a. 2009/2010
Figura 5.2
Questa situazione può essere evitata realizzando una rete di distribuzione
munita di trasformatori d’isolamento. Con tale accorgimento infatti, se una
persona in contatto con una superficie a terra tocca un filo di alimentazione, il
circuito elettrico non viene chiuso e pertanto non vi sarà circolazione di corrente.
Ciò richiede però un isolamento perfetto tra il circuito secondario del
trasformatore e la terra.
76
6 - EFFETTI DELLA CORRENTE ELETTRICA SUL CORPO UMANO.
I pericoli alla sicurezza del paziente sottoposto a interventi con l'uso di
apparecchiature elettromedicali deriva dalla corrente elettrica che può
attraversarne il corpo. Infatti, l'organismo umano si fonda su complessi equilibri
elettrici, e le risposte dei tessuti muscolari e nervosi dipendono dalla corrente
introdotta attraverso la membrana delle cellule. In particolare, la presenza di
un’elevata densità di corrente in corrispondenza del cuore può alterare il ritmo
cardiaco in maniera tale da produrre la cosiddetta fibrillazione cardiaca, con
conseguente incapacità del cuore a pompare il sangue nel circuito in maniera
coordinata. Ne può derivare in breve tempo la morte del paziente, se il contatto
non viene interrotto e non vengono prese adeguate misure.
In complesso, le conseguenze del passaggio di corrente elettrica all'interno
del corpo possono produrre stimolazione dei tessuti eccitabili (membrane
cellulari), fenomeni di riscaldamento più o meno rilevanti, bruciature di tipo
elettrochimico.
L'entità della corrente che attraversa il soggetto dipende da come esso si
trova inserito nel circuito elettrico, e dall'impedenza offerta dal soggetto e dal
circuito stesso. Gli effetti sul paziente dipendono, invece, non solo dall'intensità
della corrente, ma anche dalla sua frequenza, dal sesso, dal peso e dalle condizioni
del soggetto, dai punti di entrata e uscita delle correnti e dal loro percorso
all'interno del corpo (in particolare se è attraversato il cuore), dalle modalità di
effettuazione del contatto, dalla durata e dalle relazioni temporali con il ciclo
cardiaco.
Di conseguenza, per approfondire tali aspetti, è necessario esaminare quali
siano le interazioni della corrente elettrica con il corpo umano.
6.1 - EFFETTI FISIOLOGICI DELLA CORRENTE
L'organismo umano è formato da acqua (in percentuale di circa 2/3 del
peso corporeo dell'individuo) nella quale sono sospese micelle, molecole e ioni.
Dal punto di vista elettrico, quindi, il corpo umano è un discreto conduttore di
77
corrente in quanto in esso sono presenti molti elettroliti.
Il confine tra il corpo umano e l'ambiente esterno è costituito dalla pelle,
nome sotto il quale in realtà vengono compresi più strati, suddivisi in epiderma,
che è il complesso degli strati superficiali, e derma, comprendente gli strati
sottostanti. Il primo strato dell'epidermide è costituito dallo strato corneo che, in
assenza di liquidi apportati dall'esterno o di secrezioni prodotte dall'interno
(sudore o altro), è un buon isolante elettrico. Per un corpo umano asciutto la
resistenza elettrica, in corrente continua, ad esempio tra una mano e l'altra, può
raggiungere anche 1 M. Naturalmente le condizioni di pelle perfettamente
asciutta sono rare in quanto, per effetto delle variabilissime condizioni dovute
all'equilibrio tra liquidi uscenti (sudorazioni ed altro) e liquidi entranti (se non
altro l'acqua presente nell'aria per effetto dell'umidità relativa), sulla superficie
cornea è sempre presente uno strato di liquido salino che abbassa notevolmente la
resistenza elettrica superficiale. Pertanto questa può assumere, in dipendenza delle
diverse condizioni, valori compresi da 1 e 500 k, con un valore tipico di 10 k.
Poiché, come ricordato, il sangue è un buon conduttore di corrente e quindi
presenta bassa resistenza ohmica, ogniqualvolta viene abbattuta la barriera
costituita dalla cute, la resistenza elettrica si abbassa drasticamente sino a qualche
centinaio di ohm e il corpo umano diviene particolarmente vulnerabile da correnti
elettriche (sia continue che alternate) che possono essere prodotte quindi anche da
piccole differenze di potenziale. Ciò accade in presenza di una ferita aperta o in
via di cicatrizzazione, e ancora quando per qualsiasi motivo (terapeutico o
diagnostico) vengono introdotte sonde attraverso la pelle (cateteri, trasduttori di
pressione o temperatura, ecc.)
Per questo motivo le sale operatorie occupano il primo posto nella
graduatoria della pericolosità dal punto di vista del rischio elettrico. Al secondo
posto sono i luoghi destinati alla terapia intensiva ove, pur essendo le ferite
chiuse (ma ancora non perfettamente), si utilizzano trasduttori e/o sonde per il
monitoraggio.
Infine i luoghi di degenza, ove il malato si trova dal punto di vista
chirurgico con ferite in via di cicatrizzazione e senza alcuna sonda di
78
monitoraggio di tipo enterale, presentano requisiti meno stringenti dal punto di
vista della sicurezza elettrica.
Discuteremo gli effetti della corrente elettrica sul corpo umano in
dipendenza soprattutto dal valore efficace della intensità di corrente alternata,
comunemente usata nei luoghi di cura. Anche la corrente continua può essere
pericolosa, ma risulta meno critica poiché di norma non é utilizzata nei locali a
uso medico se non in casi eccezionali, e per un tempo assai limitato. Ricordiamo
che, trattandosi di corrente alternata, è più corretto parlare d’impedenza anziché
di resistenza e tutti i valori di resistenza sopra riportati sono in realtà impedenze
alla frequenza di 50 Hz.
Nella Tabella 6.1 vengono riportati valori tipici di corrente elettrica insieme
agli effetti che essi producono sul corpo umano.
I valori riportati nella Tabella 6.1 sono stati ottenuti facendo passare la
corrente per la durata da 1 a 3 secondi, in soggetti sani, per mezzo di due elettrodi
afferrati dal soggetto con le mani.
I dati della tabella hanno ovviamente valore orientativo in quanto condotti
su un campione ristretto della popolazione e, a rigore, valgono solamente per
quelle determinate condizioni sperimentali. Essi tuttavia sono utilissimi per
stabilire i dati di progetto degli impianti elettrici delle Sale Operatorie e dei locali
per terapia intensiva.
E' ancora da osservare che i dati sugli effetti della corrente elettrica vanno
intesi in senso statistico, indicando cioè "una probabilità di produzione di certi
effetti in corrispondenza al passaggio di una prefissata intensità di corrente".
La causa principale di ogni rischio elettrico, nella maggior parte delle
apparecchiature, sta nel fatto che la loro alimentazione avviene tramite la tensione
di rete. Affinché l’elettricità produca un effetto fisiologico rilevante, il corpo
umano deve diventare parte di un circuito elettrico chiuso: la corrente cioè deve
entrare da una parte del corpo e uscirne da un’altra. Se due punti del corpo entrano
in contatto con due punti a potenziale diverso e se si indica con V la differenza di
potenziale tra questi due punti, R la resistenza (impedenza) del corpo umano, la
79
corrente I che scorre è data dalla legge di Ohm:
I = V / R
E’ la quantità di questa corrente e non l’entità della tensione applicata a
fornire una stima significativa del livello di rischio. A parità di sorgente elettrica
l’intensità della corrente circolante nel corpo (definita come la quantità di cariche
elettriche che fluiscono attraverso un corpo conduttore nell’unità di tempo)
dipende prevalentemente dall’impedenza globale offerta dal soggetto (impedenza
globale = impedenza del corpo + impedenza delle interfacce tra le due aree di
contatto) o dall’impedenza del circuito con cui avviene il contatto tra soggetto e
sorgente. Nel caso questa sia prevalente (è il caso delle correnti di dispersione
capacitive) la corrente circolante nel soggetto è praticamente indipendente
dall’impedenza da esso offerta. Se questa ha valore molto basso, la corrente
circolante in base alla legge di Ohm sarà funzione inversa dell’impedenza offerta
dal soggetto.
Bruciature e danni fisici
Effetti fisiologici dell’elettricità a 50 Hz
Soglia Percezione
Contrazione Miocardica
Fibrillazione Ventricolare
Corrente di rilascio
Paralisi respiratoria
1 mA 100 mA 1 A10 mA 10 A 100 A20 mA 50 mA 70 mA
10-20 mA
1 mA
50 mA
70-400 mA 1- 5 A
oltre 10 A
1- 6 A
Bioingegneriaa.a. 2009/2010
Figura 6.1
80
Effetti della
Corrente elettrica
Valori
Tipici
Descrizione
Soglia di percezione 1 mA E’ la minima corrente che un soggetto può
percepire. L’intensità della corrente è sufficiente a
stimolare le terminazioni nervose della pelle, il
soggetto ha la percezione del passaggio della corrente
elettrica. Questo valore può variare notevolmente da
soggetto a soggetto e dipende da numerosi fattori
esterni. Il valore medio nell’uomo è di 1.1 mA, nella
donna di 0,7 mA. Si sono riscontrati valori minimi di
500 μA per soggetti con mani leggermente umide.
Soglia di rilascio
della presa
10-20 mA Aumentando l’intensità della corrente, nervi e
muscoli vengono stimolati e il soggetto è sottoposto a
ripetute e involontarie contrazioni che possono
provocare dolore e stanchezza muscolare. Oltre un
certo livello di corrente si ottiene una stimolazione
diretta dei nervi motori e dei muscoli a cui il
controllo centrale, volontario, non è in grado di
opporsi. In questa condizione il muscolo subisce una
contrazione ripetuta (contrazione tetanica) e in
funzione anche della frequenza degli stimoli si può
pervenire a una condizione di tetano fuso in cui il
fascio muscolare permane nella condizione di
contrazione completa. In quest’ultima condizione il
soggetto non è più in grado di rilasciare la presa.
Questa soglia definisce la massima corrente con la
quale il soggetto si può ritrarre volontariamente (in
inglese “let go current”). Il suo valore medio è di 16
mA nell’uomo e di 10.5 mA nella donna, quello
minimo riscontrato di 9.5 mA.
Paralisi respiratoria
Dolore, fatica
muscolare
50 mA Con correnti anche di poco più elevate della soglia
di rilascio si provocano contrazioni dei muscoli
respiratori o la paralisi dei centri nervosi che
sovrintendono alla funzione respiratoria. Se
l’erogazione di corrente non viene interrotta ciò può
provocare asfissia. Sono stati riscontrati (Dalziel
1979) arresti respiratori con correnti di 18-22 mA. In
caso di lunghe esposizioni le contrazioni involontarie
dei muscoli e le stimolazioni dei centri nervosi
possono provocare sensazioni di dolore e
affaticamento muscolare. Non esistono soglie per
questo tipo di effetti.
81
Effetti della
Corrente elettrica
Valori
Tipici
Descrizione
Fibrillazione
Ventricolare
70-400 mA
1-5 A
Una corrente di media entità, con valori compresi
da 70-400 mA fino a 1-5 A è in grado di produrre il
più pericoloso effetto dovuto alla corrente elettrica
sull’uomo, la fibrillazione dei ventricoli cardiaci. Il
muscolo cardiaco si contrae ritmicamente da 60 a 100
volte al minuto esercitando in questo modo la sua
funzione di pompa per il sangue da e verso i distretti
periferici. La contrazione del muscolo cardiaco è
prodotta da impulsi elettrici originati in un particolare
gruppo di fibre cardiache poste nella parte superiore
dell’atrio destro, il nodo seno-atriale. Da questo
particolare punto il segnale elettrico si propaga
attraverso particolari fibre di conduzione fino a
raggiungere le fibre muscolari dei ventricoli, la cui
contrazione ritmica spinge il sangue nel sistema
arterioso. Se ora a queste correnti fisiologiche si
sovrappone una corrente esterna di intensità anche
maggiore, questo meccanismo sincronizzato e in
equilibrio viene perturbato ed il cuore non è più in
grado di svolgere la sua funzione. L’alterazione della
normale sequenza di depolarizzazioni e
ripolarizzazioni del muscolo cardiaco ha come
conseguenza un irregolare controllo meccanico del
cuore e la diminuzione della potenza di pompaggio
che possono portare alla morte nel giro di pochi
minuti. La caratteristica più rilevante della
fibrillazione ventricolare e che la rende così
pericolosa è che essa continua anche quando la
corrente elettrica viene interrotta perché la
propagazione dell’eccitazione si autosostiene al
cessare della causa che l’ha prodotta. Per ripristinare
la normale attività del cuore occorre produrre un
impulso di corrente di elevata intensità in grado di
depolarizzare simultaneamente tutte le cellule
cardiache, interrompendo il circuito fibrillante. La
fibrillazione ventricolare viene innescata da quella
porzione di corrente circolante nel torace che passa
attraverso il cuore. E’ dunque fondamentale il
percorso della corrente. Le soglie d’insorgenza della
fibrillazione indicate (70-400 mA) sono relative a una
condizione di passaggio della corrente tra un braccio,
il torace e l’altro braccio. Se invece uno dei due punti
82
di entrata della corrente è localizzato direttamente sul
cuore come nel caso di pazienti con cateteri
intracardiaci, tutta la corrente circola in esso e la
soglia di fibrillazione in queste condizioni
(microshock) si abbassa di vari ordini di grandezza
(80-180 µA Rowley 1976, Grass 1978). Questa
corrente è pertanto inavvertibile dal paziente stesso
(perché non stimola le sue terminazioni nervose
libere o i nervi sensitivi) e da un altro soggetto in
contatto con esso, e proprio per questo risulta più
pericolosa. La normativa italiana CEI fissa come
limite di sicurezza per queste correnti un valore di 10
μA.
Contrazioni
Miocardiche
1-6 A Valori di corrente superiori a quelle che innescano
la fibrillazione, fanno sì che tutto il muscolo cardiaco
viene eccitato e si contrae massivamente. Si verifica
il blocco delle pulsazioni, ma se la corrente viene
interrotta il cuore riprende il suo normale ritmo.
Questi livelli d’intensità di corrente tuttavia non
provocano danni irreversibili al cuore.
Bruciature e altri
danni fisici
10 A
e oltre
Non si sa ancora molto sui danni prodotti dal
passaggio nel corpo umano di correnti superiori ai 10
A. Nei punti d’ingresso della corrente il
riscaldamento per effetto Joule della pelle, che è il
tessuto che presenta resistenza più elevata, è causa di
bruciature. Si è potuto riscontrare che il cervello e
tutti i tessuti nervosi perdono le proprietà di
eccitabilità se attraversati da correnti di elevata
intensità.
TABELLA 6.1: Effetti della corrente elettrica alternata a 50 Hz attraverso il
torace di un uomo (valori medi).
Dalla Tabella 6.1 si riconosce che correnti fino a qualche milliampere non
sono pericolose. Nella figura 6.1 sono invece riportati graficamente gli effetti
fisiologici dell’elettricità alla frequenza di 50 Hz.
Il valore della soglia di percezione varia da 0.5 mA con probabilità dello 0.5
% a 1.5 mA con probabilità del 99.8 %. Ciò significa che lo 0.5 % delle persone
ha una soglia di percezione inferiore a 0.5 mA, mentre il 99.8 % (cioè quasi tutti)
83
ha una soglia di percezione minore o uguale a 1.5 mA.
Forti correnti (dell'ordine dell'ampere) possono tuttavia non essere
pericolose, se il tempo di applicazione è di qualche centesimo di secondo, e quindi
trascurabile rispetto alla durata del ciclo cardiaco (0,8 s). Se invece la durata è
comparabile o maggiore di tale ciclo esse non producono più l'arresto del cuore
ma bloccano il respiro e pertanto può essere ancora efficace la respirazione
artificiale. Danni gravi si hanno invece a livello della pelle e delle articolazioni
perché ivi è elevata la resistenza elettrica e quindi anche grande è lo sviluppo di
calore che può dar luogo a ustioni. L'impedenza della cute decresce al crescere
della frequenza in modo non lineare e diverso a seconda dello strato
dell'epidermide o del derma che viene interessato. Come ordine di grandezza,
l'impedenza della cute decresce di un fattore 100 per frequenze che variano da 10
Hz a 10 kHz.
6.2 - MACROSHOCK E MICROSHOCK
Nel descrivere gli effetti che sono stati precedentemente illustrati abbiamo
già distinto fra le due condizioni tipiche di contatto con la tensione di rete. Una
prima configurazione è quella caratterizzata dal contatto mediante due punti
esterni (la cute) e tale da produrre il passaggio di una frazione della corrente
complessiva attraverso il cuore. Questa condizione viene definita macroshock
(Figura 6.2). Non è specifica dell’ambiente ospedaliero in quanto l’elettrocuzione
da macroshock può verificarsi in tutti quegli ambienti (casa, industria, laboratorio
artigiano), dove si utilizzano apparecchiature elettriche alimentate dalla tensione
di rete.
84
Tensionea. c.
Condizione di macroshock braccio-braccio
70-400 mA – 1-5 A
Bioingegneriaa.a. 2009/2010
Figura 6.2
Una situazione ben diversa è invece quella in cui uno dei due collegamenti
che chiudono il circuito elettrico è interno al corpo del soggetto, direttamente dal
cuore, come nel caso di un paziente collegato a un catetere intracardiaco. In questi
casi viene annullato l'effetto protettivo dell'isolamento elettrico della pelle e i
valori della corrente che producono la fibrillazione ventricolare sono più piccoli.
In questa condizione è tutta la corrente che raggiunge il cuore producendo una
stimolazione diretta del muscolo cardiaco. Questa condizione viene definita di
microshock (Figura 6.3). In queste condizioni, come già detto precedentemente, la
densità di corrente che interessa il muscolo cardiaco è notevolmente superiore e i
diversi valori di soglia vengono ad essere notevolmente abbassati. Il valore di
soglia della fibrillazione ventricolare può essere ad esempio di 80 mA in
condizione di macroshock e di 80A in condizione di microshock. Il rischio da
microshock richiede pertanto particolari cautele nella progettazione delle
apparecchiature elettromedicali perché, come già detto, viene provocato da
correnti praticamente inavvertibili sia dal paziente che dagli altri soggetti
eventualmente in contatto con esso e tali correnti vengono generate da apparecchi
85
e impianti elettrici che nella concezione generale di sicurezza e guasto risultano
perfettamente funzionanti.
Tensionea. c.
Condizione di microshock braccio-braccio> 80 μA
Catetere intracardiaco
Bioingegneriaa.a. 2009/2010
Figura 6.3
Nel caso di elettrodi, di pacemakers o di cateteri cardiaci la soglia di
corrente che può produrre fibrillazione ventricolare è dell'ordine della decina di
microampere. E' comunque difficile stabilire quale sia il limite minimo di corrente
al di sotto del quale certamente per tutti gli individui non si verifichi fibrillazione
ventricolare poiché esso dipende da molti fattori come peso, ferite, ischemia
cardiaca, anossia, ipossia causata da eventuali assunzioni di medicamenti, ecc..
E' stato osservato che correnti di valori tra 80 A e 180 A producono
fibrillazione ventricolare nell'uomo ma nei neonati si può avere fibrillazione anche
con soli 3 - 5 A.
Dal punto di vista dei calcoli per la progettazione di un impianto sicuro, e
quindi per tenere conto dei limiti di corrente pericolosa riportati nella precedente
tabella, il caso che viene preso in considerazione è quello di un paziente
86
elettricamente suscettibile e con cateteri cardiaci, la cui impedenza può essere
molto bassa: il valore di 500 è quello ormai comunemente adottato. Posto
quindi Z = 500 , ne deriva che affinché il paziente non sia attraversato da una
corrente superiore a 10 A è necessario che nelle sue immediate vicinanze non si
possa stabilire una differenza di potenziale superiore a 5 mV.
Questi due valori massimi, 10A e 5mV, sono i valori base, necessari per
ogni progettazione d’impianti o apparecchiature elettromedicali, che costituiscono
i limiti alla corrente di dispersione consentita per tutti gli apparati elettrici ed
elettronici.
6.3 - CONDIZIONI ELETTRICHE INTORNO AL PAZIENTE
Come già ricordato, tra gli elementi che contribuiscono a determinare
condizioni pericolose intorno al paziente vi sono:
- gli apparati elettromedicali;
- il tipo d’impianto che alimenta gli apparati elettromedicali;
- l’interazione con il personale medico e paramedico.
Un apparecchio elettromedicale è uno strumento che compie una
determinata funzione terapeutica a contatto o meno con il paziente. Per assolvere
la sua funzione, l'apparato richiede energia elettrica che, a sua volta, può essere
fornita sotto forma di corrente continua o alternata. Quest'ultima alimenta
l'apparecchio con una differenza di potenziale normalmente di 220 V efficaci
(tensione concatenata).
6.3.1 - SITUAZIONI DI RISCHIO ELETTRICO
Per far meglio comprendere i problemi connessi alle diverse possibili
situazioni dal punto di vista circuitale, è utile presentare alcuni esempi pratici,
discutendo dapprima l’origine delle correnti di dispersione delle apparecchiature.
Si consideri una semplice apparecchiatura elettromedicale dotata di
conduttore di terra, possiamo osservare in Figura 6 che, a seguito di un guasto, il
paziente viene attraversato da una corrente di dispersione. La resistenza R genera
87
una tensione tra gli involucri accessibili degli apparecchi elettromedicali applicati
al paziente e quindi un passaggio di corrente non solo verso terra ma anche verso
il paziente.
Impianto senza nodo equipotenziale
apparecchio in
dispersione
I
R < 0,15 Ω
Corrente
nel paziente
Bioingegneriaa.a. 2009/2010
Figura 6.4
Correnti di dispersione sono inevitabilmente presenti in ogni
apparecchiatura poiché esistono sempre degli accoppiamenti tra parti di circuito
che si trovano a tensioni differenti. Questi accoppiamenti sono sia di tipo resistivo
sia, soprattutto, di tipo capacitivo.
Le correnti parassite di tipo resistivo dipendono dalla qualità dell’isolante
interposto, e dalla presenza di umidità o polvere, ma sono in genere (a meno che
l’isolante non sia deteriorato per vecchiaia o per uso anomalo) inferiori a quelle di
tipo capacitivo. Queste ultime sono sempre presenti, e si possono schematizzare
con capacità concentrate applicate tra i conduttori di alimentazione e il conduttore
di protezione, e/o tra parti sotto tensione dell’apparecchiatura e il telaio (il quale,
se dotato di conduttore di protezione, è collegato alla terra).
In qualche caso, queste capacità risultano esplicitamente introdotte nel
88
circuito: si vedano le capacità di filtro contro i disturbi sull’alimentazione
dell’apparecchiatura, che si vengono a collocare in parallelo ai parametri parassiti
già citati e possono quindi essere conglobate in essi. Queste capacità possono
risultare anche molto pericolose, nel caso di pazienti cateterizzati, in assenza di
conduttore di protezione o nel caso in cui esso non sia integro.
6.4 - ACCORGIMENTI PER MIGLIORARE LA SICUREZZA
6.4.1 - IL NODO EQUIPOTENZIALE
Viene naturale l'idea di costruire un impianto di terra tale che in ogni locale
dove sono collegabili più apparecchi (ad es. una sala operatoria), o nell'ambito
anche di un singolo letto di terapia intensiva, ove è facile che si verifichino le
stesse necessità, sia fornito di un luogo (chiamato nodo equipotenziale) ove
pervengono singolarmente tutti i collegamenti di terra di tutte le prese o di
apparecchiature fisse (Figure 6.5 e 6.6).
Impianto con nodo equipotenziale
apparecchio in
dispersione
I
Nodo equipotenziale
Corrente nel
paziente nulla
Bioingegneriaa.a. 2009/2010
Figura 6.5
89
Nodo equipotenziale
Bioingegneriaa.a. 2009/2010
Figura 6.6: Nodo equipotenziale. Tutte le superfici conduttive sono collegate allo
stesso punto di terra (1). Ogni apparato è collegato allo stesso punto
di riferimento dell’edificio (2) e agli altri punti di terra (3).
6.4.2. - ADOZIONE DI PAVIMENTO EQUIPOTENZIALE
Il primo inconveniente, e cioè quello dovuto alla possibilità che
un’infermiera entri in contatto con il paziente attraverso una resistenza (minima)
di 20 k e nodo equipotenziale a qualche decina di volt rispetto alla terra, può
essere eliminato rendendo equipotenziale anche il pavimento e cioè rendendolo
conduttore. Basterà a tale scopo porre sotto il pavimento (conduttore) una rete
metallica collegata al nodo equipotenziale. Una tale rete, se di magliatura
opportuna e se racchiude anche le altre pareti del locale, servirà efficacemente
anche da schermo elettromagnetico fornendo un’ulteriore garanzia per il buon
funzionamento (esente da disturbi) degli apparecchi ad elevata sensibilità
d’ingresso. Giova osservare che la presenza di un pavimento conduttore e relativa
rete metallica è essenziale anche per l'eliminazione delle cariche elettrostatiche
che producono scariche che possono innescare esplosioni di miscele di gas
anestetici.
90
Nel caso più importante, e cioè quello relativo alla corrente di fuga o di
guasto di un apparecchio collegato al nodo equipotenziale, anche se il
collegamento di terra è a bassa resistenza (0,0l ), le correnti di guasto possono
comunque provocare d.d.p. tali da produrre correnti largamente sufficienti per
indurre fibrillazione ventricolare.
6.4.3 -. IL TRASFORMATORE D’ISOLAMENTO
Il problema è allora limitare le correnti di guasto a valori trascurabili, per
esempio l mA, indipendentemente dalle cause che le provocano o, ciò che è lo
stesso, eliminare le basse tensioni accidentali. Per risolvere il problema accennato
è sufficiente alimentare tutti gli apparecchi del locale sotto controllo, sia esso sala
operatoria o terapia intensiva, con un trasformatore, detto di isolamento, per i
motivi che appaiono dalla Figura 6.7.
Figura 6.7: Trasformatore di isolamento
Ipotizziamo la presenza di un corto circuito con trasformatore di isolamento.
91
Se nello strumento il conduttore va in cortocircuito con il telaio, poiché il circuito
a valle del trasformatore di isolamento è isolato rispetto alla terra non può
(idealmente) scorrere alcuna corrente sul conduttore di terra in quanto il
generatore, a monte del trasformatore, è fisicamente separato dal circuito che ora
viene accidentalmente a contatto con la terra.
In realtà però la corrente alternata può passare attraverso la capacità
parassita esistente tra gli avvolgimenti primario e secondario del trasformatore di
isolamento: tale capacità, CAVV, sarà tanto più elevata quanto più estesa è la
superficie dei conduttori e quindi quanto maggiore è la potenza del trasformatore.
In generale, si fa in modo che tale capacità distribuita sia tale che in condizioni di
corto circuito la corrente che può attraversarla sia al massimo di 1 mA. Ciò
equivale a limitare la potenza erogabile dal trasformatore di isolamento a valori di
5 7 KVA max.
La corrente di 1 mA è pertanto la massima che attraversa il circuito di terra.
Il potenziale di cui si eleva lo chassis è ora trascurabile: infatti se ad esempio si
pone per la resistenza di terra un filo da 100 m di S = 16 mm la resistenza è di 0,1
, la corrispondente caduta di potenziale vale V = RI = 0,l · 0,001A = 0,1 mV.
Il problema sembrerebbe quindi completamente risolto in quanto i guasti a
terra degli apparecchi collegati tutti al medesimo nodo equipotenziale non
producono più differenze di potenziale tra gli apparecchi stessi e pertanto
l'ambiente risulta tutto equipotenziale.
La presenza del trasformatore di isolamento così come è stata illustrata non
garantisce tuttavia la sicurezza totale perché:
1) Il trasformatore non segnala il primo corto circuito, e pertanto, se si
dovesse verificare un secondo corto sull'altro lato dell'avvolgimento secondario, si
svilupperebbe una forte corrente di corto circuito sull'apparecchio il cui telaio si
troverebbe ora a potenziale elevato rispetto agli altri.
Ad esempio per un corto circuito di 100 A - che è modesto - su una R = 10
(tra due punti del telaio dello strumento: valore già bassissimo) si avrebbe già
una d.d.p. di 100 mV che su 500 del paziente producono corrente di 200 A).
Oltre a tale pericolo vi è quello dello sviluppo di calore e probabile esplosione del
92
trasformatore di alimentazione.
Occorre pertanto introdurre un controllo dell'isolamento della linea e cioè
introdurre un dispositivo che avverta allorquando è intervenuto il primo corto.
A conclusione di questa seconda parte si deduce che il requisito vitale per la
sicurezza del paziente è comunque l'ispezione periodica, ed il controllo della
qualità della linea di terra.
6.5 - PROGETTAZIONE ED USO DELLE APPARECCHIATURE
Diamo qui alcune indicazioni riassuntive, che orientino nella scelta della
migliori condizioni operative per le apparecchiature.
6.5.1 - COLLEGAMENTI DI TERRA
Come già notato, è questo un aspetto cruciale sia dal punto di vista della
progettazione (su cui non entriamo) sia dell’uso. E’ opportuno che il cavo non sia
sollecitato in maniera anormale tanto da potersi interrompere il collegamento di
terra, e che non vengano utilizzati adattatori da tre a due conduttori (e quindi con
disattivazione dell’effetto del conduttore di terra).
6.5.2 - RIDUZIONE DELLE CORRENTI DI PERDITA
L’isolamento delle parti sotto tensione degli apparati rispetto allo chassis
deve essere particolarmente curato, sia per quanto riguarda i parametri parassiti
resistivi sia soprattutto capacitivi.
6.5.3 - APPARATI CON DOPPIO ISOLAMENTO
Invece di utilizzare un conduttore di terra, si possono usare apparati in cui
sia stato aggiunto un doppio strato di isolamento (apparati di Classe II) separato in
modo da evitare contatti con parti sotto tensione (è anche possibile realizzare
l’involucro esterno in materiale isolante, in modo che funga da secondo
isolamento) (Figura 6.8). Anche interruttori, leve di controllo etc. devono esser
forniti di doppio isolamento. Nel campo degli elettrodomestici, è questa una
93
pratica molto utilizzata (ad es. phon o altre apparecchiature). Viene riportato il
simbolo utilizzato.
Simbolo relativo ad uno Strumento di classe II, con doppio isolamento
Figura 6.8: Apparato con doppio isolamento
6.5.4 - ISOLAMENTO ELETTRICO SULLA LINEA DI “SEGNALE”
Viene ottenuto utilizzando amplificatori di isolamento, cioè tali da
interrompere la continuità ohmica tra due sezioni del circuito, e mantenendo la
continuità per quanto riguarda il segnale tramite un accoppiamento in genere di
tipo ottico o a trasformatore.
Nell’accoppiamento ottico, un diodo luminoso funge da trasmettitore ed un
fotodiodo da ricevitore del segnale. La banda di frequenze va dalla continua in su,
perciò non è necessaria una demodulazione.
Nell’accoppiamento a trasformatore si modula il segnale che viene quindi
trasferito al secondario ove viene demodulato. L’alimentazione isolata viene
ottenuta tramite un convertitore continua – continua.
Riportiamo infine la terminologia usata per caratterizzare gli apparati in
base alla possibilità di utilizzazione in diversi ambienti di uso medico. In
94
particolare si parla di:
Apparato di Tipo B: con un grado di protezione particolare dallo shock elettrico
Apparato di tipo BF: apparato di tipo B con uscita flottante rispetto a massa
Apparato di tipo CF: con protezione più efficace (max corrente di dispersione: 10
A); può essere usato su paziente in sala operatoria etc.
Apparato di Tipo B: con un grado di protezione particolare dallo shock
elettrico
Apparato di tipo BF: apparato di tipo B con uscita flottante rispetto a
massa
Apparato di tipo CF: con protezione più efficace; può essere usato su
paziente in sala operatoria etc.
95
7 - CLASSIFICAZIONE DEI LOCALI AD USO MEDICO
La Norma CEI 64-8/710 classifica i locali ad uso medico in tre gruppi:
Locali di gruppo 0 – Sono locali ad uso medico nei quali non si utilizzano
apparecchi elettromedicali con parti applicate. A questo
tipo di locali si applica la Norma generale impianti e non
la Norma sui locali ad uso medico.
Locali di gruppo 1 – Sono locali ad uso medico nei quali si fa uso di apparecchi
con parti applicate destinate ad essere utilizzate
esternamente o anche invasivamente entro qualsiasi parte
del corpo, esclusa la zona cardiaca.
Locali di gruppo 2 – Sono locali ad uso medico con pericolo di microshock dove
sono utilizzate apparecchiature con parti applicate
destinate ad essere impiegate in operazioni chirurgiche, o
interventi intracardiaci, oppure dove le funzioni vitali del
paziente possono essere compromesse dalla mancanza
dell’alimentazione elettrica.
In questi locali viene individuata una particolare zona, definita dalla Norma
“zona paziente”che delimita il volume all’interno del quale il paziente può venire
a contatto con masse o masse estranee pericolose. La classificazione del locale e
l’individuazione della zona paziente deve essere frutto della collaborazione tra
progettista e direttore sanitario i quali devono giungere ad un compromesso tra
l’esigenza di semplificazione e l’adeguatezza dell’impianto in previsione di
eventuali esigenze future.
All’interno della zona paziente gli accorgimenti da adottare per la sicurezza
del paziente sono più restrittivi che all’esterno perciò si rende necessario stabilire
l’effettiva posizione che possono assumere il paziente o le apparecchiature che
possono entrare in contatto con il paziente.
96
Sono da considerare interne alla zona paziente le masse e le masse estranee
che si trovano in verticale ad una quota inferiore a 2,5 m dal pavimento o, in
orizzontale, ad una distanza inferiore a 1,5 m dal paziente considerando anche le
eventuali diverse posizioni che il paziente, quando può entrare in contatto con
apparecchi elettromedicali, potrebbe assumere se fosse spostato dal posto
originario.
Nei locali dove la posizione del paziente non è ben definita o dove gli
apparecchi elettromedicali sono spesso spostati all’interno del locale, la zona
paziente non è sempre facilmente individuabile. In questo caso il progettista può
convenientemente estendere la zona paziente a tutto il locale.
Va sempre, e comunque, ricordato che la corretta classificazione del locale
deve essere determinata sulla base dell’uso al quale esso è destinato e che in ogni
caso la decisione spetta sempre al medico o all’organizzazione sanitaria.
7.1 - UTENZE NORMALI E DI TIPO PRIVILEGIATO
In relazione alla essenzialità dei vari servizi e alle conseguenti necessità di
continuità di alimentazione, le utenze vanno individuate e classificate in normali e
preferenziali - vitali.
Le utenze normali sono alimentate solo da rete ma, tenuto conto
dell’ambiente ospedaliero, sarebbe opportuno garantire una alimentazione di
sicurezza ad interruzione media (non superiore a 15s, classe 15). Per le utenze
preferenziali e vitali occorre garantire l’alimentazione di sicurezza ad interruzione
breve (non superiore a 0.5 s, classe 0.5) con un sistema statico.
Come riferimento di base si può assumere la classificazione che prevede
quali utenze preferenziali e vitali:
• le prese delle apparecchiature elettromedicali ed equivalenti dei locali per
chirurgia e dei locali per sorveglianza e per terapia intensiva, dei locali
degenze dialisi e locali del reparto diagnostica per immagine;
97
• l’illuminazione di sicurezza da alimentare con unità autonoma incorporata
negli apparecchi normali e lampade per la segnaletica di sicurezza.
7.2 - LA PARTE APPLICATA E LA CLASSIFICAZIONE DEGLI
APPARECCHI ELETTROMEDICALI
Nella camera di degenza si trovano prese di corrente e apparecchiature
elettromedicali di vario genere che possono essere causa di ustioni e folgorazioni.
Secondo la Norma 62-5-V3 si definisce apparecchio elettromedicale un
apparecchio, munito di una connessione ad una particolare rete di alimentazione
destinato alla diagnosi, al trattamento o alla sorveglianza del paziente sotto la
supervisione di un medico, che entra in contatto fisico o elettrico col paziente e/o
trasferisce energia verso e dal paziente e/o rivela un determinato trasferimento di
energia verso e dal paziente. L'apparecchio comprende quegli accessori, definiti
dal costruttore, che sono necessari per permetterne l'uso normale.
Dal 14 giugno 1998 tutti i dispositivi medici messi in commercio e in
servizio devono essere marcati CE in base al DLgs 24/02/97 n. 245 e al DLgs
25/02/98 n. 95, che recepiscono la direttiva Europea 93/42. Sono esclusi dal
campo di applicazione della direttiva:
• dispositivi impiantabili attivi (es. pace-maker) in quanto soggetti a direttive
specifiche 90/385/CEE;
• dispositivi in vitro, regolamentati da apposita direttiva;
• termometri in vetro di mercurio che hanno ottenuto un’approvazione CE
secondo la direttiva 76/764/CEE. Per questi dispositivi la marcatura CE
secondo la direttiva 93/42/CEE è obbligatoria dal 30-06-2004;
• medicinali;
• prodotti cosmetici;
• sangue umano e suoi derivati;
• organi, tessuti o cellule di origine animale o umana.
98
Viene definita dalla Norma "parte applicata" la parte di un apparecchio
elettromedicale che nell'uso normale, affinché l'apparecchio possa svolgere la sua
funzione di diagnosi e cura, deve necessariamente venire in contatto fisico col
paziente. Può essere costituita da elettrodi, sensori applicati al paziente, cateteri
contenenti liquidi fisiologici conduttori o più semplicemente dall'involucro stesso
degli apparecchi. Il contatto della parte applicata col paziente rende ovviamente
maggiore il rischio rispetto ad una parte dell'apparecchio che il paziente potrebbe
toccare, volontariamente o involontariamente, direttamente o indirettamente, ma
comunque occasionalmente. Da ogni apparecchio, nonostante l'elevata impedenza
interna d'isolamento, fluisce una piccola corrente che si disperde verso terra,
sull'involucro e nel paziente. La corrente di dispersione verso terra è quella che
dalla parte dell'apparecchio collegata alla rete elettrica, attraverso o lungo
l'isolamento, percorre il conduttore di protezione verso l'impianto di terra. La
corrente di dispersione sull'involucro è la corrente che percorre l'involucro di un
apparecchio in uso normale (escluse le parti applicate) accessibile al paziente o
all'operatore, che può attraversare il soggetto in collegamento tra l'involucro e la
terra o con due punti dell'involucro. I limiti di corrente di dispersione
sull'involucro sono da considerare per tutte le apparecchiature indipendentemente
dall'involucro, sia esso metallico o isolante, comprese le apparecchiature di classe
II1.
_____________________________________________
1
Le classi di isolamento IEC elettrico definiscono il grado di collegamento a terra richiesto da
un'apparecchiatura elettrica. Gli apparecchi di classe II, detti anche a doppio isolamento, sono
progettati in modo da non richiedere (e pertanto non devono avere) la connessione di messa a terra.
Sono costruiti in modo che un singolo guasto non possa causare il contatto con tensioni pericolose
da parte dell'utilizzatore. Ciò è ottenuto in genere realizzando l'involucro del contenitore in
materiali isolanti, o comunque facendo in modo che le parti in tensione siano circondate da un
doppio strato di materiale isolante (isolamento principale + isolamento supplementare ) o usando
isolamenti rinforzati .
99
Quando l'apparecchio possiede parti applicate si deve parlare anche di
corrente di dispersione nel paziente, intesa come la corrente che dalla parte
applicata, quando l'apparecchio è in funzione, può fluire nel soggetto verso terra.
Una parte applicata può essere definita come l'insieme di tutte le parti
dell'apparecchio che nell'uso normale è indispensabile mettere in contatto fisico
con il paziente perché l'apparecchio possa svolgere la propria funzione oppure che
possono venire in contatto con il paziente o che devono essere necessariamente
toccate dal paziente. Una parte applicata può essere isolata da tutte le altre parti
dell'apparecchio (flottante o di tipo F) per limitare, in condizione di primo guasto
quando una tensione indesiderata derivata da una sorgente esterna è applicata al
paziente tra la parte applicata e la terra, la corrente di dispersione ammissibile sul
paziente. (Figura 7.1)
Bioingegneriaa.a. 2009/2010
Figura 7.1
In funzione delle correnti di dispersione in condizioni normali e di primo
guasto verso terra, sull'involucro e sul paziente, gli apparecchi elettromedicali
100
vengono classificati in apparecchi di tipo B, BF, CF. Gli apparecchi di tipo BF e
CF, per limitare la corrente che può fluire nel paziente, hanno le parti a contatto
isolate da terra (flottanti) mediante disaccoppiamento (ad esempio mediante
disaccopiamento ottico) ad elevata impedenza capacitiva. L'isolamento è
ulteriormente aumentato, rispetto a quelle di tipo BF, nelle parti applicate di tipo
CF (correnti di dispersione nel paziente non superiori a 10 microampere) che sono
pertanto applicabili direttamente sul cuore.
Le correnti di dispersione presenti nelle normali condizioni d'uso possono
aumentare in presenza di anomalie nel circuito. Si parla in tal caso di correnti di
dispersione di primo guasto che per gli apparecchi elettromedicali assumono un
significato leggermente diverso da quello normalmente specificato per gli altri
dispositivi.
Le cause di primo guasto più frequenti possono dipendere da:
• interruzione del conduttore di protezione;
• interruzione di uno dei conduttori di alimentazione. In un circuito
monofase l'interruzione del neutro comporta lo stabilirsi della tensione
di fase su tutto il circuito mentre in un circuito trifase che alimenta un
apparecchio con filtri capacitivi d'ingresso, l'interruzione di una fase
determina uno squilibrio che può produrre una corrente di dispersione
verso terra molto elevata.
• tensione 1,1 volte la tensione nominale che si stabilisce tra una parte
metallica accessibile o la parte applicata di tipo flottante di apparecchi
di tipo BF e CF e la terra. La corrente di dispersione deve essere
inferiore ai limiti stabiliti (<50 microampere) anche se il paziente
entra in contatto direttamente con una fase, con la massa di un altro
apparecchio in tensione oppure indirettamente con una massa in
tensione attraverso un operatore medico e la parte applicata.
101
8 - ELETTROCARDIOGRAFO
8.1 - INTRODUZIONE
L’elettrocardiografia è uno dei test medico-diagnostici cardiovascolari non
invasivi più importanti e diffusi ed oggi l’elettrocardiografo costituisce dotazione
base della maggior parte dei reparti, ambulatori e studi medici.
L’attività cardiaca è legata alla formazione di potenziali elettrici, generati da
gruppi di cellule (pace-maker) poste in zone ben definite del miocardio. Questi
potenziali, originati nel nodo seno-atriale, si propagano lungo il muscolo cardiaco
attraverso particolari fibre (fascio di His e rete di Purkinje) determinandone la
contrazione ritmica. I potenziali non restano però confinati all’interno del
miocardio poiché il tessuto che lo circonda è conduttivo. Essi sono perciò presenti
anche sulla superficie esterna del corpo, dove possono essere misurati applicando
degli elettrodi sulla cute. L’elettrocardiografia (ECG) è la registrazione di questi
potenziali che si generano in conseguenza del campo elettrico variabile prodotto
dall’attività cardiaca. Il livello di questi potenziali è molto basso; se
opportunamente amplificati e trattati è però possibile ottenere una
rappresentazione grafica dei potenziali cardiaci dalla quale dedurre informazioni
diagnostiche utili per l’analisi di alcune funzioni cardiache.
I potenziali che si manifestano sulla superficie del corpo sono rilevati in
posizioni determinate, dette derivazioni (o connessioni), universalmente accettate
ai fini di poter disporre di tracciati confrontabili.
Le derivazioni sono distinte in:
derivazioni sul piano “frontale”
derivazioni sul piano “trasversale”.
Le derivazioni sul piano frontale
Le derivazioni sui piano frontale sono ulteriormente distinte in:
derivazioni “bipolari standard”
derivazioni “unipolari”
102
Le connessioni bipolari standard sono date dalle possibili coppie ottenibili
collegando tra loro:
braccio destro (RA)
braccio sinistro (LA)
gamba sinistra (LL)
Esse sono pertanto:
I. LA-RA
II. LE-RA
III. LL-LA
Derivazioni Bipolari Standard
I. LA - RA
II. LL - RA
III. LL - LA
Elettrocardiografo
12 Derivazioni : 6 sul piano frontale
6 sul piano trasversale
Derivazioni unipolari
aVR: RA - (LA + LL)/2
aVL: LA - (RA + LL)/2
aVF: LL - (RA + LA)/2
LL
LARA
V aVL
aVF
aVR
Derivazioni Precordiali:
V1; V2; V3; V4; V5; V6
I.
III.II.
Figura 8.1: Triangolo di Einthoven, derivazioni bipolari e Derivazioni unipolari standard
La loro rappresentazione sotto forma di triangolo equilatero (di lati I, II, III)
definisce il cosiddetto “Triangolo di Einthoven” dal nome di colui che per primo
rivelò e studiò il segnale elettrico prodotto dall’attività cardiaca (figura 8.1).
103
Le derivazioni unipolari sono date dalle possibili coppie ottenibili
collegando tra loro uno dei tre punti RA, LA, LL ed un punto “virtuale” (Punto di
Goldberg) ottenuto come media dei potenziali dei punti restanti:
aVR: RA - (LA ÷ LL)/2
aVL: LA - (RA ÷ LL)/2
aVF: LL - (RA-÷-LA)/2
Figura 8.2: Derivazioni unipolari.
Le derivazioni sul piano trasversale (derivazioni precordiali)
La misura si effettua tra uno dei sei punti lungo un arto di 90° sulla parte
sinistra del torace ed un riferimento “virtuale” dei potenziali (Punto di Wilson)
dato dalla media dei potenziali di RA, LA, LL. Ad ogni derivazione corrisponde
una traccia di registrazione caratteristica trasferibile su carta o visualizzabile da
una a dodici tracce su display. Gli elettrocardiografi possono visualizzare da una a
dodici tracce contemporaneamente. La scelta della derivazione si effettua tramite
un commutatore manuale elettronico o automatico-sequenziale.
aVL aVF aVR
RA LA RA LA RA LA
R/2
R
R
R
R/2
R
R
R
LL
LL LL
R/2
104
Figura 8.3: Le sei derivazioni precordiali.
Il segnale elettrico rilevato sulla superficie del corpo ha un’ampiezza
relativamente piccola (1 mV), e quindi il segnale raccolto dagli elettrodi è
amplificato da un preamplificatore, all’ingresso del quale un sistema di filtri
elimina la componente continua e determina la minima frequenza registrabile. Un
altro sistema di filtri riduce per quanto possibile anche le componenti di rumore.
Dai primi anni ‘80 sono stati introdotti sul mercato sistemi per l’analisi
automatizzata del segnale elettrocardiografico. Grazie alle maggiori capacità di
analisi e calcolo, l’interpretazione del tracciato tramite computer risulta più
precisa, anche se i criteri di valutazione utilizzati dalla macchina sono molto
diversi da quelli dell’uomo. Certamente la macchina non è dotata di quel
“buonsenso” che consente di riconoscere subito un artefatto (disturbo, rumore)
dall’effettivo segnale dell’attività cardiaca.
I segnali prelevati sono 12, vale a dire tutte le possibili derivazioni sul
piano frontale e trasversale. Conclusa la fase di acquisizione viene svolto un
esame preventivo per accertare eventuali irregolarità dovute al distacco degli
elettrodi, movimenti degli arti, disturbi elettrici della rete. Successivamente ha
inizio la fase di elaborazione vera e propria del segnale secondo un algoritmo
105
abbastanza complesso che individua alcuni parametri caratteristici del tracciato.
Generalmente questa elaborazione viene svolta “in parallelo sui segnali di tre
connessioni. Al termine della fase di elaborazione i dati sono presentati
all’operatore: il sistema stampa i dati del paziente, i 12 tracciati, la diagnosi.
Questi sistemi sono disponibili sotto forma di unità mobili di elaborazione,
totalmente autosufficienti, in grado di acquisire ed elaborare autonomamente il
segnale elettrocardiografico.
Schema a blocchi di un elettrocardiografo
Circuito di
isolamentoElettrodi
Calibratore
Selettore
derivazioni
Sistema
scrivente
Preampli
ficatore
Amplificatore
di potenzaMarker Filtro
Bioingegneriaa.a. 2009/2010
Figura 8.4: Schema a blocchi di un elettrocardiografo.
Vediamo ora una rapida descrizione dei diversi blocchi.
Elettrodi
Possono essere del tipo riutilizzabile e vengono realizzati in acciaio oppure
in cloruro di argento; questi ultimi hanno il vantaggio di minimizzare i potenziali
elettrochimici che si creano all’interfaccia cute-elettrodo. Gli elettrodi monouso
sono realizzati in leghe o in cloruro d’argento e montati su supporti autoadesivi.
106
Circuito di isolamento-protezione
La funzione di tale blocco consiste nell’isolare il paziente da correnti
pericolose che possono generarsi nell’apparecchio; esso realizza diversi tipi di
isolamento fra gli elettrodi, la parte restante dell’ apparecchiatura e la rete di
alimentazione.
Sono spesso presentì anche circuiti di protezione interna dell’apparecchio,
aventi la funzione di impedire che elevati potenziali, accidentalmente presenti fra
gli elettrodi, possano danneggiarlo.
Selettore delle derivazioni
Questo circuito deve combinare opportunamente i segnali provenienti dagli
elettrodi in modo che l’operatore possa selezionare le diverse derivazioni da
collegare ai successivi stadi di amplificazione, senza intervenire sul
posizionamento degli elettrodi stessi.
Calibratore
Questo circuito consente all’operatore di inserire manualmente, con un
apposito comando, un segnale di ampiezza nota e costante per tarare lo strumento
(tipicamente di 1 mV).
Preamplificatore
Realizza una prima amplificazione del segnale elettrocardiografico senza
distorsione e minimizzando il rumore. Tipicamente si tratta di uno stadio
realizzato con amplificatori differenziali integrati, con elevata impedenza di
ingresso.
Circuito di filtraggio
Consente di effettuare un’attenuazione selettiva di alcune particolari bande
di frequenza del segnale elettrocardiografico, al fine di migliorarne la leggibilità
ed attenuare eventuali segnali di disturbo o interferenze sovrapposti al segnale
elettrocardiografico.
107
Amplificatore di potenza
Questo stadio deve amplificare il segnale elettrocardiografico per pilotare
correttamente il sistema scrivente di registrazione. I circuiti di questo blocco
prevedono di sovrapporre al segnale una componente continua variabile mediante
un comando di controllo, per posizionare il sistema scrivente sulla posizione di
riferimento.
Sistema scrivente
E' l’organo di uscita dello strumento ed il suo compito è di restituire una
rappresentazione grafica dell'andamento temporale del segnale
elettrocardiografico. E' costituito da una parte scrivente e da una parte per il
trascinamento della carta.
I sistemi si dividono in:
sistemi monocanale: permettono di esaminare l'andamento nel tempo
del segnale elettrocardiografico riferito alle diverse derivazioni, un
tracciato alla volta in modo sequenziale.
sistemi multicanale: permettono di esaminare contemporaneamente
l’andamento temporale di segnali relativi a più darivazioni. In tali
apparecchi preamplificatori, circuiti di filtraggio e amplificatori di
potenza sono in numero pari a quello dei canali registrati
contemporaneamente.
I sistemi scriventi più comuni sono quelli a carta termosensibile e
galvanometro a penna riscaldata; altri sistemi utilizzano stampanti a getto
d’inchiostro, stampanti termiche a matrice di punti ad alta risoluzione.
Marker
Consente all’operatore di contrassegnare, agendo su un apposito comando,
porzioni di tracciato particolarmente interessanti per un’immediata identificazione
in fase di lettura ed interpretazione del tracciato.
108
8.2 - SICUREZZA
Durante l’esame elettrocardiografico il paziente è in diretto contatto
attraverso gli elettrodi applicati alla cute, con la macchina. Da qui la necessità di
garantire un elevato grado di affidabilità e sicurezza dell'apparecchiatura. La
valutazione del grado di sicurezza di un elettrocardiografo deve prendere in esame
soprattutto due aspetti:
- misura delle correnti di dispersione
- caratteristiche costruttive dell’apparecchio
Le correnti di dispersione sono dovute alle capacità parassite, e a resistenze
di isolamento non infinite tra le parti sottoposte alla tensione di alimentazione e le
restanti parti dell'apparecchiatura. Il collegamento a terra elimina le correnti di
dispersione sull'involucro esterno; queste possono diventare pericolose qualora
detto collegamento venga interrotto accidentalmente. Le correnti di dispersione
sul circuito-paziente dipendono dalle tecniche di isolamento adottate.
Per misurare l‘entità delle correnti di dispersione si deve interrompere il
collegamento di terra e misurare le correnti circolanti tra:
l’involucro esterno e la terra
ciascun elettrodo e la terra.
Queste correnti devono risultare inferiori ai 100 µA se gli elettrodi di
collegamento paziente-elettrocardiografo sono esterni; scendono a 10 µA se gli
elettrodi sono posti direttamente sul muscolo cardiaco.
109
8.3 - ESTRATTO DELLE NORME DI SICUREZZA
Le normative di sicurezza che si riferiscono agli elettrocardiografi sono date
dalle Norme generale CEI 62-5 e dalle Norme particolari CE 62-I5.
Correnti di dispersione (art. 19)
La loro misura non deve essere effettuata quando l’apparecchio è collegato
al paziente. La frequenza dei controlli delle correnti di dispersione , per le
apparecchiature usate negli ambienti di chirurgia e similari, può essere maggiore
di una volta all’anno, ed ogni due anni per le apparecchiature usate in altri
ambienti.
Per i limiti delle correnti di dispersione si fa riferimento alle norme generali
CEI 62-5.
Errori umani (art.46)
Controllare che eventuali prese o spine per bassa tensione o utilizzate nel
circuito paziente non si possano scambiare con le prese e le spine di alimentazione
della rete elettrica.
Controllare che, dove esistono connessioni fra differenti parti di un
apparecchio con prese spine sui cavi, non possano venire scambiate con quelle
dell'alimentazione e non possano rappresentare alcun pericolo maneggiandole.
Controllare che le spine dei cavi del circuito paziente non possano essere
invertite ed inserite in prese sullo stesso apparecchio con altre funzioni.
110
9 - SEGNALI SPAZIALI: BIOIMMAGINI
Questo settore dell’ingegneria biomedica ha dato luogo negli anni passati ad
uno sviluppo ancora più impressionante rispetto a quello illustrato nel precedente
capitolo. Il successo delle bioimmagini è dovuto essenzialmente al fatto che è
possibile il più delle volte vedere "cosa c’è" e che “cosa avviene” all’interno del
corpo in modo incruento o comunque con rischi del tutto trascurabili rispetto
all'importanza diagnostica dell’informazione che si può acquisire mediante
opportune apparecchiature e con l’ausilio di apposite metodologie di elaborazione
dei segnali provenienti dal paziente. Confrontando i due settori, quello illustrato
nel precedente capitolo e questo delle bioimmagini, una prima differenza consiste
nel fatto che i tracciati temporali, quale ad esempio il tracciato
elettrocardiografico, sono di facile lettura morfologica, ma talvolta di difficile
interpretazione diagnostica; invece spesso le immagini presentano minori
difficoltà di interpretazione, mentre qualche volta non hanno la risoluzione
sufficiente per mettere in evidenza piccole lesioni.
Le bioimmagini sono oggi adoperate pressoché in ogni settore della
medicina permettendo di acquisire conoscenze insostituibili sia per le ricerche di
base, sia nelle applicazioni cliniche. Ciò ha portato al susseguirsi in breve tempo
di diversi tipi di strumentazione; non per nulla oggi si parla di apparecchiature di
prima, seconda, terza, ... generazione, ciascuna delle quali rende obsolete le
precedenti. In questo settore le “novità” non si misurano in termini di piccole
innovazioni e miglioramenti quantitativi, bensì nel rendere possibile ciò che fino a
poco tempo prima non si riusciva ad ottenere. Un così rapido progresso può
portare all’acquisizione indiscriminata di nuove e spesso costose apparecchiare.
Dal punto di vista bioingegneristico, oltre agli altri problemi tecnologici e
metodologici, occorre pertanto sottolineare la necessità di accurati studi in termini
di "costi/benefici" specialmente nei riguardi di un accurato confronto fra
apparecchiature molto diverse ed adoperabili con uguale utilità ai fini diagnostici;
in altre parole, questo è un esempio particolare di quanto detto in generale a
proposito dell’ingegneria clinica.
111
9.1 - PRINCIPALI CARATTERISTICHE DELLE APPARECCHIATURE
9.1.1 - DISPLAY
Come dispositivi per la presentazione delle bioimmagini vengono ormai
universalmente utilizzati display costituiti da Tubi a Raggi Catodici (CRT) o LCD
a colori. I loro parametri più significativi sono:
- dimensioni dello schermo;
- matrice rappresentativa dell'immagine;
- frequenza di ripetizione.
La diagonale degli schermi va da 14” (circa 36 cm) a 15" o 17" (adeguati
alle esigenze delle bioimmagini) fino a 20”.
Δx
Δy
Pixel
- Dimensioni dello schermo: 15”, 17”, 20” (diagonale)
- Matrice dell’immagine: NxxNy (pixel 0,25 mm) 512 x 512; 1024 x 1024
- Frequenza di ripetizione: 75 immagini sec. (std.TV europeo 25 imm. sec.)
- Profondità: ≥ 8 bit (≥256 scale di grigi o colori)
Principali caratteristiche dei display per bioimmagini
X
Y
NX
Ny
i
j1
Bioingegneriaa.a. 2009/2010
Figura 9.1: Discretizzazione spaziale dello schermo di un display: definizione del
pixel.
112
Riferendoci a due assi cartesiani x e y, una superficie piana può essere
discretizzata come illustrato in figura 9.1; indicando con Δx e Δy rispettivamente
gli intervalli di tale discretizzazione, siano Nz e Ny il numero di colonne e di
righe corrispondenti: nel caso di immagini, ogni rettangolo così individuato
prende il nome di pixel (picture element) che appare sullo schermo come un
"punto" del diametro dell'ordine di grandezza di 0,25 mm; nel caso di immagini
rappresentanti oggetti a tre dimensioni è anche utilizzato il termine voxel.
Praticamente tutti i display attualmente in commercio consentono la
rappresentazione delle immagini come matrici di colonne e righe come ora
indicato: si va da matrici 640x480, a quelle di 1.024x780 fino ad arrivare a quelle
più costose di oltre 1.600x1.200.
- Matrice dell’immagine: NxxNy (pixel 0,25 mm) 32x32; 512x512; 1024x1024
- Profondità: ≥ 8 bit (≥256 scale di grigi o colori)
Principali caratteristiche delle bioimmagini
Bioingegneriaa.a. 2009/2010
Figura 9.2: Definizione dell’immagine in funzione della matrice.
La frequenza di ripetizione è di almeno 75 immagini al secondo, cioè
notevolmente superiore a quella dello standard televisivo europeo (25 immagini
secondo). I moderni display permettono poi di individuare i singoli pixel e quindi
modificarne (o leggerne) il contenuto lasciando inalterato il resto dell'immagine.
113
Ogni elemento della matrice può essere definito da almeno 8 bit e quindi
può assumere almeno 256 valori (livelli di grigio o diversità di colorazione); in
realtà però, i tubi RCT usuali non consentono di riprodurre fedelmente simili
sfumature che comunque non potrebbero essere percepite direttamente dall’occhio
umano; d’altra parte; mediante appositi programmi, si riesce a superare questa
difficoltà delimitando, per esempio, in modo opportuno (finestra dei grigi),
l'intervallo della grandezza da riportare come illuminazione del pixel.
Una caratteristica infine dei moderni display è la capacità (ottenuta in
hardware o in firmware) di compiere sulle immagini operazioni matematiche
anche relativamente complesse.
9.1.2 - ACQUISIZIONE DELLE MISURE
Per cercare di fornire alcune indicazioni in proposito occorre distinguere
alcuni concetti generali (comuni, cioè, ad ogni sistema di misura) e criteri
specifici delle apparecchiature che stiamo illustrando. I primi evidentemente sono
molto più importanti dei secondi. In questa sede ci sembra opportuno accennare
alle seguenti importanti caratteristiche: risoluzione spaziale, risoluzione temporale
e risoluzione della misura. Questi parametri caratteristici possono essere poi
riferiti: ai sistema biologico oggetto della misura, all’apparecchiatura di
acquisizione ed elaborazione delle misure, all'apparecchiatura di presentazione dei
risultati.
Nei riguardi dei vari tipi di risoluzione, riferiti al sistema biologico, occorre
sottolineare che non è tanto importante mettere in evidenza quali possano essere le
distanze minime di due regioni di spazio aventi diverse proprietà, bensì quale sia
la distanza minima significativa ai fini diagnostici; si può anche dire che questa
distanza minima è quella ideale alla quale si deve cercare di avvicinarsi con le
apparecchiature. Quanto ora detto per la risoluzione geometrica è evidentemente
applicabile anche per le altre due risoluzioni, temporale e della misura. Le
risoluzioni delle apparecchiature di acquisizione ed elaborazione sono
determinabili studiandone separatamente le caratteristiche; alcune considerazioni
114
generali possono essere svolte per i display come precedentemente visto.
Qualche volta si desidera avere una successione di immagini che
riproducano in tempo reale i movimenti di parti del corpo; in tali casi occorre che
i display a memoria esterna ridisegnino la figura con una frequenza
predeterminata f, avendo indicato con f il numero di immagini distinte al secondo
che si possono avere sullo schermo. La risoluzione temporale è evidentemente
data dal suo reciproco; come già detto, gli attuali display arrivano almeno fino a
frequenze di 75 Hz Si noti ancora che è possibile avere una presentazione dei
movimenti “al rallentatore” o mediante la memoria del sistema di calcolo
collegato o mediante quella interna del display. Per quanto riguarda la risoluzione
della misura, per i display questo parametro è individuato dal numero di bit che
possono essere ricordati per ogni pixel. Se per esempio sì adoperano i “falsi
colori” (vedi più avanti) per rappresentare il livello del segnale acquisito ed
elaborato dall’ apparecchiatura, nel caso che per ognuno dei tre canali cromatici vi
siano a disposizione 3 bit, il segnale può essere quantizzato in un numero di livelli
23x3
=512, ai quali corrispondono potenzialmente altrettante sensazioni visive
distinte. Si noti che è possibile mettere in evidenza “forti” differenze di colori in
corrispondenza a “piccole” differenze delle misure, scegliendo in modo opportuno
la corrispondenza fra colori e valori della misura eseguita.
9.2 - CLASSIFICAZIONE DELLE BIOIMMAGINI
Le apparecchiature che forniscono le bioimmagini possono essere
classificate secondo vari criteri, uno dei quali fa riferimento ai principi fisici di
funzionamento su cui si basa l’acquisizione delle informazioni. Un altro criterio,
forse il più importante, è quello che fa riferimento alle proprietà chimico-fisiche
delle varie regioni del corpo, rilevate e riportate secondo diverse modalità sullo
schermo del display. Mediante questo secondo criterio si può stabilire una
classificazione secondo le seguenti proprietà dei vari tessuti biologici messe in
evidenza da una bioimmagine:
115
- impedenza offerta alla propagazione di ultrasuoni; in effetti spesso si mette
in luce una variazione di impedenza;
- potere di assorbimento di raggi x; a questa categoria appartengono sia le
usuali apparecchiature a raggi x, sia quelle relative alla tomografia assiale
computerizzata ad assorbimento di raggi x;
- attività metabolica, con riferimento alla presenza di particolari sostanze
radioattive precedentemente iniettate nel paziente; a questa categoria
appartengono: le apparecchiature scintillografiche (in particolare le γ-
camere) e quelle relative alla tomografia a emissione di positroni;
- presenza di particolari sostanze aventi opportune proprietà magnetiche; la
più importante è quella denominata a risonanza nucleare magnetica;
- capacità di sviluppare calore, con riferimento alla termografia;
- capacità di generare un campo elettrico, dove sono messi in evidenza gli
aspetti spaziali dei segnali elettrici;
- capacità di generare un campo magnetico in quanto sede di correnti
elettriche circolanti a seguito del funzionamento elettrico dei neuroni e delle
fibre muscolari; queste apparecchiature non sono ancora diffuse dato il loro
costo alquanto elevato rispetto ai vantaggi diagnostici conseguibili; si vanno
però diffondendo nei centri di ricerca, dati i significativi risultati già ottenuti
in fisiologia e in alcune applicazioni cliniche;
- resistività, con riferimento alla possibilità, in sede diagnostica, di misurare
la resistività dei vari tessuti del corpo mediante elaborazioni che, in linea di
principio, sono riconducibili a quelle tomografiche; le apparecchiature per
misurare detta resistività, pur essendo relativamente semplici, sono però
ancora poco utilizzate in sede clinica in quanto la loro utilità diagnostica è
ancora molto limitata.
Evidentemente queste proprietà fisiche o chimiche devono poi essere
correlate a parametri diagnostici, essendo importante non soltanto rendere visibili
eventuali differenze, rispetto al normale, di masse e strutture patologiche, ma
116
anche individuare la loro natura ed eventualmente anche le loro cause. In tal senso
si sono ottenuti significativi risultati riuscendo a realizzare biopsie incruente.
Le apparecchiature descritte sono oggi utilizzabili, con uguale utilità
diagnostica, in molte patologie. Da una parte quindi, vi è l’importante problema di
individuare la “migliore” per ogni specifica applicazione, dall’altra si aprono
orizzonti di ricerca difficilmente prevedibili; basti pensare alla possibilità di
eseguire diagnosi basate sul confronto dell’informazione acquisibile dalle varie
apparecchiature. In altre parole, nei casi dove la diagnosi è ancora incerta e
difficile, sempre di più si dovrà cercare di utilizzare alcune di queste
apparecchiature in modo opportunamente coordinato.
Il più delle volte le bioimmagini sono riferite a una coppia di variabili
spaziali x e y relative a piani che passano attraverso il corpo; salvo avviso
contrario, nel seguito viene fatto sempre riferimento a questo caso.
RADIOLOGIA TRADIZIONALE
I(0)
0 y
I(y)
I(y) = I(0) * e -∫ μ(y) dy
μ : coefficiente di assorbimento
I(0) : Intensità del raggio nel punto 0
I(y) : Intensità del raggio nel punto y
I(y) = I(0) * e -μy
Tubo a raggi X
Tecnologie BiomedicheSegnali spaziali : Segnali spaziali : BioimmaginiBioimmagini
Bioingegneriaa.a. 2009/2010
117
10 - TOMOGRAFIA ASSIALE COMPUTERIZZATA AD ASSORBIMENTO
Prendiamo questa apparecchiatura come esempio per illustrare in generale i
metodi di ricostruzione di immagini, rimane ora da accennare alle sue
applicazioni. Si noti che in Italia si usa l’acronimo TAC (Tomografia Assiale
Computerizzata): per le altre apparecchiature, che si basano sullo stesso principio
di funzionamento, si usano spesso gli acronimi derivati dall’inglese.
Per sua natura, l’immagine che si ottiene è relativa ad una sezione del corpo;
ogniqualvolta si desidera avere l’informazione tridimensionale è pertanto
necessario eseguire scansioni su diversi piani (o livelli), ottenendo in tal modo la
tomografia stratificata.
Queste apparecchiature sono ormai diffuse ed applicate praticamente in ogni
settore medico. Risultano di estrema utilità per mettere in luce masse tumorali
anche molto piccole; le moderne apparecchiature, infatti, danno una risoluzione
spaziale dell’ordine del millimetro. La TAC si presta anche ottimamente a mettere
in luce la gravità di lesioni dovute a traumi.
TOMOGRAFO ASSIALE COMPUTERIZZATO
I(0)
0 y
I(y)
I(y) = I(0) * e -∫0y μ(y) dyμ : coefficiente di assorbimento
I(0) : Intensità del raggio nel punto 0
I(y) : Intensità del raggio nel punto yI(y) = I(0) * e – ∑i μi Δy
Tubo a raggi X DETETTORE
Tecnologie BiomedicheSegnali spaziali : Bioimmagini
Bioingegneriaa.a. 2009/2010
118
L’unico inconveniente è che il numero di esami che si possono eseguire per
il singolo paziente deve essere limitato, dato l’impiego di raggi x; ciò comporta
qualche cautela quando si deve seguire il decorso di una malattia.
TOMOGRAFIA ASSIALE COMPUTERIZZATA
I(y) = I(0) * e –∑i μi Δy
Tubo a raggi X
Detettore
0 yΔy Δy Δy
I(0)
I(1)
I(2)
I(3)
I(7)
I(5)I(4)
I(6)
I(8) I(9)
μ1 μ2 μ3
μ4 μ5 μ6
μ7 μ8μ9
I(1) � Μ1= μ1 + μ2+ μ3
I(2) � Μ2= μ4 + μ5+ μ6
I(3) � Μ3= μ7 + μ8+ μ9
I(4) � Μ4= μ4 + μ1+ μ2
I(5) � Μ5= μ7 + μ5+ μ3
I(6) � Μ6= μ8 + μ9+ μ6
I(7) � Μ7= μ7 + μ4+ μ1
I(8) � Μ8= μ8 + μ5+ μ2
I(9) � Μ9= μ9 + μ6+ μ3
Tecnologie BiomedicheSegnali spaziali : Bioimmagini
Bioingegneriaa.a. 2009/2010
10.1 - TOMOGRAFO ASSIALE COMPUTERIZZATO
La Tomografia Assiale Computerizzata (TAC) è il primo esempio di tecnica
radiologica digitale che converte le informazioni di tipo analogico in dati numerici
trattabili da elaboratori. Da un punto di vista teorico le basi della TAC furono
introdotte dal matematico J. Radon nel 1917. Questi stabilì che una qualsiasi
sezione di un oggetto solido poteva essere ricostruita univocamente da un insieme
infinito di proiezioni (o viste) dello stesso.
Inizialmente, nelle prime TAC, l'acquisizione dei dati richiedeva circa 5
minuti e la successiva elaborazione circa 20 minuti. Oggi sono comuni tempi di
acquisizione e di ricostruzione di circa 2 secondi.
119
La TAC è un metodo radiografico per la produzione di immagini di sezioni
trasversali del corpo. L'informazione ha origine dalla misura dell'attenuazione che
i raggi X subiscono durante l'attraversamento dei diversi tessuti biologici. A tale
scopo vengono impiegati un complesso radiogeno ed un sistema di detettori
(rivelatori di segnale) posizionati attorno al paziente. Nei sistemi attuali il
complesso radiogeno viene fatto ruotare attorno ai detettori, disposti ad anello,
emettendo contemporaneamente un fascio di raggi X collimato a ventaglio.
I(0)
I(1)
Tubo a raggi X 1 Detettore
Tecnologie BiomedicheSegnali spaziali : Bioimmagini
SCANZIONI : 160 x 180° = 28.800
0°180°
EMI Scanner (1970)
Prima Generazione
Bioingegneriaa.a. 2009/2010
120
I(0) I(y)
Tubo a raggi X 3-50 Detettori
Tecnologie BiomedicheSegnali spaziali : Bioimmagini
0°180°
Seconda Generazione
Bioingegneriaa.a. 2009/2010
I(0)
I(y)
Tubo a raggi X
Detettori N° > 50
Tecnologie BiomedicheSegnali spaziali : Bioimmagini
360°
Terza Generazione
Bioingegneriaa.a. 2009/2010
121
Tecnologie BiomedicheSegnali spaziali : Bioimmagini
Tubo a raggi X
I(0)
I(y)
Detettori
360°
Quarta Generazione
Bioingegneriaa.a. 2009/2010
Ogni singolo rivelatore fornisce quindi una misura del grado d'attenuazione
del fascio di raggi X lungo la direzione tubo radiogeno-detettore. Tutte le misure
ottenute vengono successivamente elaborate mediante un calcolatore di adeguata
potenza di calcolo e, con opportune tecniche di ricostruzione, si perviene alla
rappresentazione dell'immagine finale. Dimensioni tipiche della matrice
dell'immagine sono: 512x512, 1024x1024 pixel.
La tomografia computerizzata presenta i vantaggi di tutte le tecniche
digitali: possibilità d'elaborazioni successive sull'immagine già ricostruita (post-
processing), alte prestazioni di visualizzazione, facilità nel trasferimento e
nell'archiviazione dei dati e delle immagini. Le elaborazioni successive
comprendono, ad esempio, ricostruzioni dell'immagine con diversi algoritmi e
fattori di ingrandimento, ricostruzione di immagini di sezioni sagittali, coronali o
oblique da una serie di immagini assiali, misure di distanze, angoli, densità, profili
densitometrici di segmenti opportunamente scelti, visualizzazione delle regioni ad
isodensità, istogrammi della distribuzione di densità. Negli ultimi anni si sono
122
affinate tecniche di trattamento dell'immagine che permettono di ottenere, da
sezioni consecutive, un'accurata immagine tridimensionale di specifiche parti
anatomiche.
L’attuale generazione di TAC è denominata TC (Tomografia
Computerizzata) in quanto è in grado di fornire scansioni non solo sul piano
assiale, ma anche obliquo. Le nuove TC prevedono un moto di rotazione continuo
del tubo radiogeno. Il numero di rivelatori è notevolmente aumentato essendo
allineati lungo tutta la circonferenza del gantry ed in grado di acquisire con una
singola rotazione del Tubo radiogeno fino a 64 strati.
La TC fornisce accurate sezioni tomografiche del corpo. Viene eliminata, in
virtù dei metodi di ricostruzione, la sovrapposizione di differenti strutture che si
verifica nelle convenzionali proiezioni radiografiche. I raggi X attraversano solo
tessuti della sezione del corpo che viene visualizzata, ed i tessuti esterni a tale
sezione non intervengono nella formazione dell'immagine.
Le componenti principali di un'apparecchiatura TC sono le seguenti:
Gantry
Tavolo portapaziente
Complesso radiogeno
Generatore
Sistema di detettori
Computer
Memoria di massa
Consolle di comando
Già molto consolidata è la scansione di tipo volumetrico, ovvero
l'acquisizione di dati provenienti non da singoli strati, ma da volumi del corpo.
Tale tecnica d’acquisizione è stata resa possibile dalla tecnologia slip-ring,
ovvero dalla possibilità di alimentare il complesso radiogeno mediante appositi
contatti striscianti invece dei convenzionali cavi d'alta tensione. Grazie a tale
innovazione tecnologica il complesso radiogeno può ruotare attorno al paziente
123
senza doversi fermare e riposizionare ad ogni rotazione mentre il lettino si muove.
L'acquisizione volumetrica, pertanto, consente tecniche di esame estremamente
rapide nonché successive ricostruzioni tridimensionali.
Il rapporto tra la distanza coperta dal lettino durante una rivoluzione del
complesso radiogeno e lo spessore dello strato acquisito è detto fattore di pitch o
pitch. Si tratta di una grandezza adimensionale che assume tipicamente i valori 1,
1.25, 1.5, 2. Tanto più elevato è il fattore di pitch tanto più allungata sarà l'elica
lungo la quale vengono acquisiti i dati.
Questa modalità di scansione produce un unico insieme continuo di dati che
si presta a nuove opzioni negli algoritmi di ricostruzione. La ricostruzione, infatti,
può produrre, a seconda delle esigenze, immagini assiali simili a quelle
convenzionali, ottenute mediante interpolazione dei dati mancanti, oppure
immagini ricostruite lungo direzioni diverse (es. sagittali o coronali), oppure
immagini tridimensionali, particolarmente apprezzate per studi di tipo
angiografico. A seconda del tipo di algoritmo e dei parametri impostati, inoltre,
varia la qualità delle immagini finali che possono presentare un rumore più o
meno elevato ed artefatti di trascinamento più o meno evidenti.
Il recente sviluppo tecnologico dei generatori e dei collimatori per raggi X
consente di limitare l'esposizione alle radiazioni alla sola area di interesse e la
dispersione nei tessuti adiacenti è notevolmente ridotta rispetto al passato.
L'evoluzione delle TAC è essenzialmente rivolta alla riduzione dei tempi di
scansione e al miglioramento della qualità dell'immagine. Risolti oramai da tempo
i problemi di carattere progettuale e costruttivo dei sistemi a rotazione continua, la
tecnologia "slip-ring" consente la realizzazione di studi dinamici e di acquisizioni
volumetriche. In tal modo, oltre a ridurre sensibilmente i tempi di acquisizione,
vengono esplorati settori completamente nuovi sinora di pertinenza di altre
modalità diagnostiche, quali la risonanza magnetica o l'angiografia digitale.
Ma l'innovazione principale dell'ultimo decennio consiste nell'introduzione
di tomografi computerizzati multi strato. L'utilizzo simultaneo di più strati di
124
detettori ha determinato un notevole incremento della velocità di scansione,
migliorando la qualità delle immagini e conseguentemente l'analisi diagnostica.
Infatti, la maggiore velocità migliora la risoluzione temporale in quanto
l'acquisizione risente molto meno degli artefatti (movimenti involontari o meno
del paziente) permettendo nel contempo l'analisi tomagrafica di organi in
movimento. La scansione multistrato, disponendo di strati molto più sottili, ha
chiaramente migliorato la risoluzione spaziale. Gli esami di tipo vascolare
risultano più accurati visto che l'alta velocità di scansione permette una maggiore
frequenza di iniezione del mezzo di contrasto: il che consente una maggiore sua
concentrazione durante la scansione. La velocità della scansione permette un
aumento della corrente (mA) nel tubo radiogeno contribuendo così ad abbattere
sensibilmente il rumore. Infatti, la velocità della scansione determina
un'utilizzazione più efficace del tubo in quanto si riduce il suo surriscaldamento e
si riducono i tempi d'attesa tra una scansione e l'altra; si stima che durante la vita
di un tubo nelle TC multistrato, si produca un numero di immagini otto volte
superiore di quelle prodotte da TC meno veloci abbattendo quindi i costi.
TOMOGRAFO COMPUTERIZZATO
Scansione a spirale
Tecnologie BiomedicheSegnali spaziali : Bioimmagini
Spessori Tipici:
0,5 – 1 – 1,25 – 1,5 – 2 pitch
Tecnologia
slip-ring
Bioingegneriaa.a. 2009/2010
125
TOMOGRAFO ASSIALE COMPUTERIZZATO
Scansione assiale
Tecnologie BiomedicheSegnali spaziali : Bioimmagini
Strato 1---------Strato 4--------Strato 8--------Strato 16--------Strato 32--------Strato 64
Spessori Tipici:
0,5 – 1 – 1,25 – 1,5 – 2 pitch
Tecnologia
slip-ring
Bioingegneriaa.a. 2009/2010
Anatomia di un detector
ScintillatoreConverte X-
rays in luce
ConnettoreTrasporta i
segnali al
DAS
Banco FET SwitchingConsente la
commutazione tra canali
e loro combinazione
DAS - Data Acquisition System (non in figura)Converte I segnali analogici in digitali e avvia il processo di ricostruzione
Banco di
Fotodiodi
Converte la luce in
un segnale
elettrico analogico
Bioingegneriaa.a. 2009/2010
126
Configurazione del Detector
Macchia focale
Configurazione detector 4 x 1.25 mm
Scaleable Multi-Slice X-Ray Detection
16 file di detettori
Diode FET Switching Array
Flex Connector A Flex Connector B
Collimatore
Bioingegneriaa.a. 2009/2010
1,25 mm
1,25 mm
1,25 mm
1,25 mm
2,5 mm
2,5 mm
5 mm
Collimazione 5mm
Tu
bo
RX
as
se
Z
Configurazione del Detector
Bioingegneriaa.a. 2009/2010
128
11 - TOMOGRAFIA AD EMISSIONE DI POSITRONI
Il principio di funzionamento di questa apparecchiatura (denominata PET:
Positron Emission Tomography è il seguente: si inietta nel soggetto una
particolare sostanza radioattiva che abbia la possibilità di raggiungere un
determinato tessuto-bersaglio; a seconda cioè dell’organo biologico che si vuole
studiare, si sceglie una sostanza che abbia la proprietà di accumularsi in tale
organo; in generale poi, le sostanze da impiegare devono avere la proprietà di
emettere positroni. Nell’istante in cui avviene questo fenomeno nucleare, dal
nucleo di queste sostanze viene emesso un positrone, il quale rallenta ed
interagisce con un elettrone dando luogo al processo di annichilazione.
L'annichilazione produce due fotini γ di uguale energia orientati in due direzioni
opposte, a 180° l'uno dall'altro, come riportato schematicamente in figura 10.1.
Principio di funzionamento
Un radiofarmaco, emette un positrone, il quale rallenta e interagisce con un elettrone, producendo due fotoni di uguale energia in due direzioni opposte. Successivamente i due fotoni sono rivelati contemporaneamente così da localizzare il radiofarmaco nel corpo in esame.
Bioingegneriaa.a. 2009/2010
Figura 10.1: Schema del principio di funzionamento delle apparecchiature di
tomografia ad emissione di positroni.
La generica coppia di sensori S1 e S2, che si trovi sul tratto nel quale avviene
questa emissione, è in grado di rilevare che, lungo tale tratto, è avvenuto uno di
questi fenomeni nucleari. In un prefissato intervallo di tempo T, il numero ni,j di
129
tali eventi nucleari, avvenuti nel generico pixel i,j, è proporzionale, in senso
statistico, alla quantità qi,j di sostanza radioattiva ivi presente.
Bioingegneriaa.a. 2009/2010
Occorre notare che un problema delicato riguarda il tipo di materiale
nucleare adoperato; è necessario infatti che il tempo di decadimento sia molto
piccolo per evitare che la sostanza radioattiva rimanga a lungo nel corpo del
paziente. Per poter utilizzare tali sostanze è quindi necessario avere a
disposizione, in un luogo molto vicino, anche il ciclotrone mediante il quale tali
sostanze sono ottenibili. Il costo di questi sistemi, apparecchiatura tomografica e
ciclotrone, risulta dell’ordine di alcuni milioni. Pertanto queste apparecchiature
sono oggi considerate importanti sia per eseguire ricerche sul funzionamento dei
vari sistemi fisiologici sia per applicazioni cliniche.
Il confronto fra le due apparecchiature fino ad ora esaminate deve essere
comunque fatto tenendo conto anche di molti altri fattori qui riportati.
La tomografia ad assorbimento (TC) misura le proprietà fisiche dei vari
tessuti, in relazione appunto alla capacità di assorbire raggi x; la tomografia ad
emissione (PET) permette invece d’indagare sul comportamento metabolico di
alcuni tessuti, relativo al posizionamento della particolare sostanza radioattiva
iniettata. Pertanto queste due apparecchiature danno informazioni.
130
La risoluzione spaziale della tomografia ad assorbimento è, allo stato attuale,
è di circa 10 volte maggiore di quella ad emissione di positroni.
Formazione del segnale Pet
La pet si basa su isotopi instabili che emettono positroni.
Gli isotopi instabili sono preparati in un ciclotrone.
Il positrone non permane indefinitamente nella materia.
Si urta con un elettrone, annullandosi, e dando luogo ad un fotone.
Tale processo si chiama annichilazione.
L’annichilazione produce due raggi γ che viaggiano a 180° l’uno dall’altro.
Bioingegneriaa.a. 2009/2010
Formazione del segnale Pet
I due raggi y emessi a seguito dell’annichilazione, raggiungono
una coppia di rilevatori.
Essi registrano un evento (l’annichilazione), esclusivamente
quando vengono effettuate due rilevazioni simultanee.Bioingegneria
a.a. 2009/2010
132
11 - ULTRASUONI
La strumentazione ad ultrasuoni, sviluppata negli ultimi trent’anni, permette
di ricavare con notevole precisione immagini sia statiche che dinamiche
riguardanti lo stato anatomico di alcune parti interne del corpo, sfruttando
apparecchiature relativamente poco complesse e costose. A favore, poi, degli
ultrasuoni, è il fatto che vengono considerati innocui, sebbene ogni tanto appaiano
nella letteratura dubbi in proposito: non per nulla vi sono delle limitazioni
riguardanti sia la banda di frequenza da adoperare (da 1 a 20 MHz), sia l’intensità
(come ordine di grandezza, si tenga presente che la potenza media non deve
superare 0,5 mw/cm2 e quella di picco 0,5 w/cm
2). Ci si limita qui ad illustrare il
modo in cui gli ultrasuoni sono usati nella diagnostica; occorre dire che, da
qualche tempo, vengono utilizzati anche come strumenti terapeutici proprio per la
loro capacità di distruggere particolari strutture quali i calcoli renali (litotritore).
Il suono é un’onda meccanica prodotta da un corpo in vibrazione.
La propagazione dell’onda all’interno del mezzo per una certa distanza dalla sorgente, provoca una sollecitazione delle particelle contigue che, a loro volta, oscillano alternando fasi di compressione e rarefazione.
Cenni di fisica
Bioingegneriaa.a. 2009/2010
Le apparecchiature ad ultrasuoni si basano sulla riflessione che le onde di
pressione subiscono quando attraversano una superficie che delimita regioni di
spazio aventi diversa impedenza nei riguardi della loro propagazione.
133
Dipende dalle grandezze :
D = densità del tessuto (g/cm3)
V = velocità di propagazione nei tessuti (ritenuta costante a 1540 m/s)
VxD = Impedenza acustica
La resistenza opposta dai tessuti alla trasmissione dell’onda
La trasmissione del segnale
Tissue A
Tissue B
ReflectedSound 0,8%
Transmitted Sound 99,2%
tessuto/tessuto
Bioingegneriaa.a. 2009/2010
Tissue A
Tissue B
ReflectedSound 0,8%
TransmittedSound 99,2%
Riflessione tessuto/tessuto
La trasmissione del suono
Il passaggio dell’onda tra due superfici aventi impedenza acustica differente comporta una riflessione parziale della stessa
La parte dell’onda meccanica riflessa provoca una sollecitazione del cristallo che vibrando comporta la creazione di un segnale elettrico ed un voltaggio proporzionale allaampiezza delle onde sonore.
% riflessa = f(Impedenza)
Bioingegneriaa.a. 2009/2010
134
Lo schema di principio è quello riportato in figura 11.1. Un generatore di
ultrasuoni invia all’interno del corpo un fascetto di onde; quando questo incontra
la superficie σ1, viene in parte riflesso dando luogo al primo eco E1; la parte non
riflessa prosegue e, attraversando la seconda superficie di separazione σ1, dà luogo
ad un secondo eco E2 e così via per ogni superficie attraversata.
La misura consiste nella registrazione sia degli istanti nei quali questi echi
arrivano al sensore, sia delle loro intensità; tale intensità risulta dipendere dalla
differenza di impedenza Δ esistente fra i vari mezzi attraversati.
Il funzionamento ora descritto, denominato presentazione tipo A, è stato il
primo realizzato e ha provocato un così grande numero di polemiche da indurre a
credere che gli ultrasuoni non avrebbero arrecato nessun giovamento alla
diagnostica. Questa procedura è comunque attualmente adoperata per misure
grossolane, per esempio per valutare le dimensioni del feto. Ė ugualmente
adoperata in ricerche avanzate quando si tenti d’analizzare il segnale eco con
metodi simili a quelli illustrati per i segnali temporali, in questi casi occorre
campionare a frequenza molto elevata, per esempio in cardiologia la frequenza di
campionamento è circa 20 Mhz.
Ampiezza: energia pressoria dell’onda >> la forza del suono nello spostare le particelle del mezzo contiguo dalla loro posizione di equilibrio
Lunghezza d’onda: distanza tra due punti corrispondenti di due onde pressorie consecutive
Frequenza: numero cicli dell’onda che si ripetono nell’intervallo di un secondo
Caratteristiche dell’onda sonora
Bioingegneriaa.a. 2009/2010
135
11.1 - ECOTOMOGRAFO
L’ecotomografo produce immagini di sezioni del corpo umano attraverso
l’impiego di emissioni di energia ultrasonora. Il principio di funzionamento si
basa sul fatto che l’onda ultrasonora, trasmessa attraverso i tessuti, viene
parzialmente riflessa dalle strutture incontrate durante il percorso, dando luogo
alla generazione di echi. L’intensità dell’onda riflessa è legata alla variazione
d’impedenza acustica che si verifica in corrispondenza delle disomogeneità dei
tessuti che compongono i vari organi. Per la generazione dell’energia ultrasonora,
e per la successiva ricezione degli echi, si impiega un trasduttore composto da uno
o più elementi piezoelettrici, posti a contatto con la pelle mediante
l’interposizione di un gel, avente la funzione di accoppiatore acustico.
Caratteristiche:
NON invasivo
NON dannoso per il paziente
Di veloce esecuzione
Bassi costi
Screening
Meno risolutivo vs CT e RM
utilizzatore dipendente
MA
L’esame ecografico
Bioingegneriaa.a. 2009/2010
I primi tentativi per l’utilizzo degli ultrasuoni a scopo diagnostico risalgono
agli anni ‘50. Nel 1955 furono sfruttate le proprietà piezoelettriche in alcuni
materiali cristallini che risultavano idonei all’utilizzo come trasduttori. Questi
136
materiali, se sollecitati con opportune differenze di potenziale elettrico, subiscono
deformazioni elastiche che provocano delle vibrazioni: esse possono propagarsi
nel mezzo circostante sotto forma di onde ultrasonore.
La generazione dell’onda ultrasonora avviene grazie all’esistenza del fenomeno piezoelettrico.
Trasmissione e ricezione di un’onda sonora a seguito sollecitazione di un cristallo piezoelettrico.
Bioingegneriaa.a. 2009/2010
L’ecotomografo genera le onde ultrasonore ed esegue successivamente una
misura dell’intensità degli echi ricevuti, del tempo trascorso dall’emissione e della
direzione di provenienza degli echi.
Combinando tali informazioni, l’ecotomografo è in grado di generare
un’immagine e renderla disponibile per la presentazione su un monitor televisivo.
Le frequenze ultrasonore utilizzate dipendono dalle caratteristiche costruttive del
trasduttore impiegato e sono funzione delle specifiche applicazioni diagnostiche:
esse sono generalmente comprese nell’intervallo: 2 ÷ 20 MHz.
137
Trasduttori di frequenza elevata, producendo impulsi aventi lunghezza
d’onda e durata inferiori, consentono di ottenere una maggiore risoluzione e
immagini di qualità superiore.
Alle frequenze più elevate, tuttavia, il fenomeno dell’assorbimento di
energia ultrasonora da parte dei tessuti è maggiormente accentuato: ciò riduce
notevolmente la capacità di penetrazione del fascio di ultrasuoni.
L’ecotomografo è dotato di un apparato di compensazione (detto TGC, ossia
Time Gain Compensation) che consente di amplificare in modo differenziato gli
echi a seconda della profondità delle strutture che li producono. Il segnale
amplificato e demodulato viene inviato a un convertitore analogico-digitale (Scan
Converter) e archiviato nella memoria digitale del sistema. Se si esegue la
conversione secondo un’opportuna legge non lineare, si è in grado di ottenere un
processo di pre-elaborazione del segnale in quanto si riesce a espandere la scala
dei grigi in corrispondenza di determinate fasce di ampiezza, cioè proprio in
corrispondenza delle zone in cui il contenuto informativo del segnale risulta
essere maggiore.
I dati numerici, ritrasformati in forma analogica attraverso un convertitore
digitale-analogico, vanno infine a formare il segnale video composito che è
utilizzabile dai normali monitor televisivi. Le modalità di presentazione
dell’informazione fornita dagli echi ultrasonori possono essere differenti. Esse
possono essere classificate in modo generale con il seguente elenco:
A-mode;
B-mode Real Time
M-mode
Doppler (PW e CW)
Color Doppler
138
A-Mode
L’A-mode (Amplitude modulated mode) consiste nella presentazione degli
echi sotto forma di un grafico in cui sono rappresentati dei picchi. L’ampiezza dei
picchi è proporzionale all’intensità dei picchi stessi. Questa modalità è utilizzata
solamente in applicazioni molto specifiche.
B-Mode Real Time
Nel B-mode (Brightness modulated mode) gli echi sono rappresentati sotto
forma di punti aventi luminosità proporzionale all’intensità dell’eco stesso. La
tecnica è impiegata per la produzione di immagini bidimensionali dinamiche
(Real Time) di strutture anatomiche.
M-Mode
L’M-mode (Motion mode) è un metodo particolare di utilizzo del B-mode:
gli echi sono acquisiti lungo una singola linea di scansione. Viene generato un
grafico monodimensionale in cui sono rappresentate le posizioni assunte nel
tempo da strutture in movimento. L’M-mode è tipicamente usato in ecotomografia
cardiologica.
Doppler
Gli ecotomografi con modalità Doppler sfruttano l’effetto Doppler per
determinare la direzione e la velocità del flusso sanguigno: gli echi vengono
analizzati sulla base della variazione apportata alla frequenza degli echi dal
movimento del sangue rispetto al trasduttore ricevente.
Color Doppler
Il Color Doppler o Color Flow Mapping (CFM) consente una stima
dell’informazione ottenuta mediante spettrometria Doppler attraverso la
sovrapposizione a immagini bidimensionali (B-mode).
Questa tecnica è presente nei sistemi che utilizzano lo stesso trasduttore per
entrambe le metodiche di acquisizione. Eseguendo una stima della direzione e
della velocità relativa del flusso ematico in corrispondenza a diversi punti lungo
139
varie direzioni del fascio, si ottiene una rappresentazione delle caratteristiche
anatomiche del miocardio e dei grandi vasi sanguigni. I diversi colori sovrapposti
all’immagine, identificano la direzione e la velocità del flusso sanguigno
migliorando l’interpretabilità e il valore diagnostico di un doppler bidimensionale
tradizionale.
COLOR DOPPLER: definizioni
Il colore rappresenta
velocità medie
Angolo d’incidenza del fascio U/S
Il colore BLU rappresenta un flusso ematico in allontanamento dalla sonda (destra-sinistra)
Il colore ROSSO rappresenta un flusso ematico in avvicinamento alla sonda (sinistra-destra)
Bioingegneriaa.a. 2009/2010
L’informazione può essere spesso completata dalla spettrometria Doppler,
da immagini M-mode, da dati statistici e dai dati anagrafici del paziente.
Le Tecniche di Scansione
Il sistema di scansione adottato (lineare, settoriale, convex) determina il tipo
di presentazione delle immagini ecografiche che possono essere rettangolari, a
settore circolare oppure trapezoidali. Le immagini rettangolari vengono ottenute
con trasduttori realizzati con una serie di elementi piezoelettrici affiancati e
disposti in linea retta (linear array).
140
Le immagini settoriali possono essere ottenute con trasduttori a movimento
meccanico (sector meccanico) oppure con degli array di elementi piezoelettrici
(phased array) molto corti e controllati elettronicamente (sector elettronico).
Con una opportuna sequenza dei valori di fase, è possibile effettuare la
scansione di un area avente la forma di un settore circolare. I trasduttori a
controllo elettronico risultano essere più piccoli e maneggevoli di quelli a
movimento meccanico. I trasduttori di tipo settoriale presentano, come
caratteristica comune, una superficie di appoggio di ridotte dimensioni che facilita
indagini su organi parzialmente schermati dallo scheletro (le cui ossa limitano la
propagazione degli ultrasuoni).
A ciò si contrappone l’inconveniente di una scarsa definizione
dell’immagine negli strati più superficiali. Alcuni trasduttori per impiego
specialistico, utilizzati di solito per indagini endocavitarie, sono realizzati con
elementi miniaturizzati rotanti o con array e generano fasci radiali, conici o
circolari. La logica di controllo del trasduttore è sensibilmente diversa nel caso in
cui la scansione sia realizzata elettronicamente o meccanicamente. Nel primo caso
la funzione principale consiste nel selezionare i cristalli dell’array e il ritardo di
fase con cui applicare gli impulsi di eccitazione. Nel caso di scansione meccanica
(oscillazione o rotazione del cristallo), la logica di controllo provvede a codificare
la posizione angolare del trasduttore. Ciò consente di controllarne con accuratezza
la velocità e di garantire un perfetto sincronismo fra trasmissione, ricezione e
scrittura dei dati in memoria.
Una tecnica di scansione che, almeno in parte, accomuna i vantaggi dei
sistemi lineari e settoriali (ossia l’elevata definizione superficiale e la possibilità
di utilizzo di finestre acustiche) è rappresentata dall’impiego di array convessi
(convex), composti da un array di elementi piezoelettrici disposti lungo un arco di
circonferenza. Le immagini generate in tal caso hanno forma
approssimativamente trapezoidale.
Piuttosto diffusi sono i calcoli di distanze, angoli, aree, volumi e le misure
dei parametri specifici delle singole specialità in cui l’ecotomografia trova utili
applicazioni. Inoltre, spesso è possibile registrare contemporaneamente segnali di
141
diversa natura come l’elettrocardiogramma, il fonocardiogramma o altri esami e
correlarli con le varie immagini cardiache.
In generale, si può concludere, osservando che le tecniche diagnostiche
basate sugli ultrasuoni sono diffusamente applicate in campo
ostetrico/ginecologico, in oftalmologia, in neurologia e nel vasto campo
cardiovascolare.
In sintesi
• Attenuazione aumenta con la frequenza degli ultrasuoni
• Risoluzione laterale migliora all’aumentare della frequenza
• Risoluzione assiale migliora all’aumentare della frequenza
• Angolo di divergenza del fascio diminuisce all’aumentare della frequenza
• Nella scelta della sonda da utilizzare (frequenza e diametro del trasduttore) si cerca un compromessocompromesso tra
la profondità da raggiungere (penetrazione)
e
la definizione desiderata (risoluzione)
Bioingegneriaa.a. 2009/2010
142
12. TOMOGRAFIA A RISONANZA MAGNETICA
Da diversi anni, sempre di più si stanno diffondendo apparecchiature che
sfruttano alcune fenomenologie fisiche basate sull’interazione di campi magnetici
con vari tipi di tessuti biologici, al fine di ottenere significative informazioni da
utilizzare sia in sede clinica, sia nella ricerca medico-biologica. Questo settore è
individuato da diversi acronimi; oggi il più diffuso è MM (Magnetic Resonance
Imaging). Nel passato era invece quasi sempre adoperato l’acronimo NMR
(Nuclear Magnetic Resonance) che descrive indubbiamente meglio la
fenomenologia fisica; in alcune trattazioni si tende comunque ad evitarlo, forse
perché la parola nucleare può evocare situazioni pericolose peraltro inesistenti,
almeno a seguito di fenomenologie nucleari: in realtà occorre avvicinarsi a queste
apparecchiature senza indossare oggetti metallici che potrebbero altrimenti essere
sottoposti all’azione di considerevoli forze meccaniche.
Le fenomenologie fisiche ora descritte possono essere utilizzate per
determinare la densità di particolari sostanze aventi uno spin magnetico che può
essere: spin di elettroni periferici, spin di nuclei e spin di protoni.
TOMOGRAFO A RISONANZA MAGNETICA
Tecnologie BiomedicheSegnali spaziali : BioimmaginiSegnali spaziali : Bioimmagini
Bioingegneriaa.a. 2009/2010
143
Vi sono poi due distinte applicazioni.
a) Determinazione, nei vari punti interni al corpo, della densità di atomi di
particolari sostanze aventi lo spin, ottenendo quindi immagini. Nelle
analisi cliniche il più delle volte si cerca di determinare la densità
dell’idrogeno. La quantità d’idrogeno presente dipende dalle particolarità
dei tessuti biologici esaminati: ad esempio è diversa per le ossa e per i
grassi; in modo particolare, tale diversità è molto spiccata per i tessuti
cancerogeni.
b) Determinazione delle proporzioni presenti di particolari molecole,
contenenti un dato elemento chimico, in un campione spazialmente
omogeneo (spettrografia): in medicina particolarmente significativi a
questo riguardo sono l’idrogeno e il fosforo. In effetti già da alcuni anni
sono numerose le ricerche di spettrografia relativa a tessuti spazialmente
disomogenei in modo da realizzare la spettrografia ad immagini NMR.
I nuclei generano campi magneticiI nuclei generano campi magnetici
N
S
spin nucleare spin nucleare momento magnetico nuclearemomento magnetico nucleare
Bioingegneriaa.a. 2009/2010
Pur essendo notevolmente più complesse, in questa sede sono illustrate
soltanto le apparecchiature che forniscono immagini, data la loro maggiore
144
rilevanza clinica.
I nuclei interagiscono
con un campo magnetico
I nuclei interagiscono
con un campo magnetico
In assenza di
campo magnetico
Nuclei orientati in
modo casuale
In presenza di
campo magnetico
Nuclei allineati al
campo applicato Bioingegneriaa.a. 2009/2010
Per comprendere completamente la teoria, è necessario ricorrere alla teoria
quantistica della materia. Questo però è effettivamente indispensabile quando si
vogliono determinare a priori i risultati delle esperienze, soprattutto quando si
considerano molecole molto complesse; la teoria quantistica è ugualmente
indispensabile quando si desideri indagare sul funzionamento del singolo nucleo.
Nelle applicazioni biomediche invece, ciò che conta è il funzionamento d’insiemi
estremamente numerosi di nuclei; il funzionamento può quindi essere interpretato
ricorrendo alle leggi della fisica classica. Anche con questa limitazione,
l’esposizione delle fenomemologie rimane ugualmente complessa e quindi in
questa sede si fa un’esposizione alquanto superficiale.
Ora e nel seguito faremo riferimento alla terna di assi cartesiani riportata
nelle figure 12.1 e 12.3; supponiamo poi che l’asse del corpo del soggetto
coincida con l’asse z.
Per comprendere il funzionamento, è utile elencare gli avvolgimenti presenti
nell’ apparecchiatura. Il campo magnetico di induzione B0, ora chiamato
principale, è disposto secondo l’asse z. Può essere generato mediante: a) un
145
magnete permanente; b) un avvolgimento resistivo che presenta, cioè, un
significativo valore di resistenza; c) un avvolgimento superconduttore, costituito
da particolari materiali e mantenuto all’appropriata temperatura per dar luogo alla
superconduttività. I magneti permanenti sono stati adottati soprattutto agli inizi
delle ricerche. Per ovvie ragioni l’avvolgimento resistivo è adoperato soltanto per
bassi valori di Tesla (meno di 0,3 T). Nelle più moderne apparecchiature
usualmente si adoperano avvolgimenti superconduttivi, mediante i quali si
realizzano abbastanza bene induzioni magnetiche dell’ordine di 1 ÷ 2 T; in
qualche apparecchiatura per la spettroscopia si è arrivati anche a 4 T.
0.2T / 0.35T
0.5T
Permanent Super-conducting
0.7T
1.0T-1.5T
3T
Bioingegneriaa.a. 2009/2010
Il diametro interno dell’avvolgimento deve essere quasi di 1 metro per
permettere l’introduzione al suo interno del corpo del paziente. Le variazioni di
induzione magnetica tollerabili sono di qualche parte su un milione, almeno nelle
zone centrali. Per rendere più uniforme il campo magnetico principale cercando di
ridurre 1’effetto delle dimensioni finite delle spire, si adoperano altri avvolgimenti
ausiliari (shim coil: avvolgimenti tampone). Vi sono poi tre altri avvolgimenti per
generare gradienti del campo magnetico nelle tre direzioni x, y e z: mediante
146
questi avvolgimenti si “selezionano” fette, righe e colonne dei voxel interni al
corpo. I valori di questi gradienti sono dell’ordine di grandezza di qualche
millitesla per metro. Infine vi sono avvolgimenti RF utilizzati sia per generare
opportuni segnali a Radio Frequenza, sia per ricevere segnali emessi dal soggetto.
I segnali generati da questi avvolgimenti sono in generale impulsi di sinusoidi di
una ben determinata frequenza: per esempio, volendo determinare un’immagine di
densità dell’idrogeno, con un campo magnetico di 1 T, la frequenza deve essere
42,57 Mhz.
Sottoponendo il corpo al campo magnetico principale d’induzione B0, gli
spin degli elettroni si allineano lungo l’asse z generando un momento magnetico
M0 diretto lungo tale asse; si dimostra poi che in effetti gli elettroni compiono un
movimento di precessione attorno alla direzione del campo magnetico B0. La
pulsazione di tali movimenti (pulsazione di Larmor anche pulsazione di
risonanza) è data da:
w0=γB0 (1)
dove γ è il rapporto giromagnetico ed è un valore caratteristico (con ottima
precisione) del protone in questione.
Bo
La frequenza di precessione è data
dalla equazione di Larmor
(y =rapporto giromagnetic)
2Bo
Meccanica classicaMoto di precessione di un singolo nucleo
attorno al campo applicato
Meccanica classicaMoto di precessione di un singolo nucleo
attorno al campo applicato
Bioingegneriaa.a. 2009/2010
147
Figura 12.1: Risonanza magnetica nucleare: orientamento degli assi
(x,z) e del campo magnetico principale B0
Per effetto del campo magnetico, prodotto dagli avvolgimenti RF con
impulsi di sinusoidi di pulsazione ω0, il momento magnetico ruota e quindi risulta
funzione del tempo: M = M(t). Scegliendo in modo opportuno la durata T e le
ampiezze dell’ impulso di sinusoidi, si può ottenere quindi che, al suo cessare,
M(t) sia ruotato di 90° (o di 180°); con riferimento alla figura 12.1, ad esempio, il
momento magnetico M(T) sia allineato lungo l’asse x. Questa modifica delle
orbite degli elettroni comporta un assorbimento di energia che viene
successivamente emessa; quando termina tale impulso, gli elettroni infatti tendono
a riportarsi nella condizione originaria. Considerando le componenti di M(T), si
hanno quindi due distinti transitori: Mx tende a 0 e Mz tende a M0.
Questi transitori risultano essere degli esponenziali e quindi sono
caratterizzati dai valori di due costanti di tempo T1 e T2. Queste costanti di tempo
sono di notevole rilevanza in quanto risultano diverse secondo il tessuto in esame,
come indicato in figura 12.2. Una volta determinati questi valori per i vari pixel
(vedi più sotto), con le opportune elaborazioni si possono dedurre due immagini
distinte chiamate usualmente appunto T1-immagine e T2-immagine. Spesso ci si
limita a determinare una sola immagine, costituita in qualche modo da un
“compromesso” di queste due immagini. In realtà, ai su citati esponenziali sono
sovrapposte piccole oscillazioni che giocano un ruolo molto importante nella
spettroscopia. mentre possono essere completamente ignorate quando si desidera
ottenere un’ immagine.
148
Figura 12.2 Transitori per diversi tipi di tessuti.
Eccitiamo ora l’avvolgimento preposto ad ottenere il gradiente Gz lungo
l’asse z come indicato in figura 12.3. Alla luce della relazione (1), soltanto gli
elettroni di una “fettina” del corpo sono in risonanza con l’impulso RF; pertanto
le misure eseguite dipendono soltanto dai tessuti cosi selezionati. In linea di
principio, agendo mediante gli altri due avvolgimenti di gradiente, si potrebbe
pensare di selezionare il singolo pixel (o il singolo voxel); in realtà questa
procedura darebbe luogo a una prova eccessivamente lunga e quindi la selezione
del pixel (o del voxel) è ottenuta anche mediante altre procedure qui non illustrate.
figura 12.3: Selezione di una “fetta” Δz del corpo mediante
il gradiente B0(z)
149
13 - APPENDICE
13.1 - INGEGNERIA CLINICA
In tutte le strutture sanitarie risulta ormai indispensabile la presenza di gruppi
di persone espressamente dedicate a risolvere numerose questioni concernenti le
tecnologie: è così nata la figura professionale dell’ingegnere clinico. Come è stato
già detto nel capitolo introduttivo, è ormai largamente riconosciuto che
l’inserimento di bioingegneri nelle strutture sanitarie permette di raggiungere i
due seguenti obiettivi:
a) miglioramento delle prestazioni sanitarie, in quanto le metodologie e le
tecnologie sono adoperate “al meglio” per i singoli pazienti;
b) diminuzione dei costi di gestione delle strutture sanitarie, in quanto la
strumentazione è adoperata “al meglio” ai fini organizzativi e gestionali.
In un recente documento del Clinical Engineering Division dell’International
Federation on Medical and Biological Engineering si trova questa definizione di
ingegnere clinico.
L ‘ingegnere clinico è coinvolto, nei riguardi delle proprie aree di
competenza, per un uso sicuro, appropriato ed economico delle tecnologie nei
sistemi sanitari ed è coadiuvato nello svolgimento di tali funzioni dai tecnici
biomedici. Secondo questa definizione, l’attività dell’ingegnere clinico riguarda
tutte le questioni nelle quali si debbano considerare aspetti tecnologici dei vari e
molteplici problemi inerenti i sistemi sanitari, dal perfezionamento e
manutenzione di apparecchi al controllo di qualità, dal prestare opera di
consulenza nella fase degli acquisti all’aiutare il personale medico
nell’interpretazione dei segnali acquisiti mediante la strumentazione biomedica.
Dall’esame di numerosi documenti preparati dalla suddetta Federazione, le
attività dell’ ingegnere clinico possono essere evidenziate facendo riferimento ai
seguenti tipi di problemi.
Consulenza sulla tecnologia esistente. L’ingegnere clinico ha la
responsabilità di dare pareri sull’applicabilità di tali tecnologie nell’ospedale, sia
in risposta a problemi clinici precisati, sia prendendo l’iniziativa di introdurre
150
nuovi prodotti o metodi ritenuti validi ed appropriati per la struttura di cui fa
parte.
Valutazione delle apparecchiature ed acquisti. L’ingegnere clinico deve
essere consultato al momento della scelta e dell’acquisto delle apparecchiature per
dare una valutazione tenendo conto: dei costi d’acquisto e di gestione (consumi e
spese ausiliarie), dell’adeguatezza dell’apparecchiatura ad assolvere il compito
richiesto presso l’ente cui è destinata, del rapporto costi/benefici realizzabile
presso tale ente, della loro sicurezza nell’ambiente proposto, del confronto fra il
servizio richiesto e quello offerto dal costruttore.
Installazione e collaudo della nuova apparecchiatura per assicurare sicurezza
e funzionalità.
Manutenzione. La manutenzione pianificata di un’apparecchiatura è un
fattore essenziale per assicurarne la sicurezza e l’efficienza; questo servizio deve
anche prevedere un programma di dismissione di apparecchi obsoleti, al fine di
assicurare la continuità del servizio.
Prevenzione degli infortuni. All’ingegnere clinico compete la responsabilità
di evitare situazioni pericolose. Ciò comporta la necessità di operare in modo
appropriato avendo approfondite conoscenze sul rischio di alcune apparecchiature
potenzialmente difettose, conoscenze provenienti da agenzie internazionali o
nazionali, governative o commerciali. L’ingegnere clinico deve anche, a sua volta,
informare tali agenzie, quando sia il caso di infortuni o di situazioni pericolose.
Misure cliniche. L’aumento nelle richieste di dati oggettivi ad uso clinico o
di ricerca ha comportato una proliferazione di tecniche di misure cliniche. Molti
dei dispositivi di misura richiedono che il funzionamento sia controllato da
persone aventi specifiche competenze tecniche; per molte apparecchiature è poi
necessario anche l’intervento di un ingegnere clinico al fine di rielaborare i dati
acquisiti in forme più adatte all’uso clinico.
Supporto tecnico e metodologico al sistema informatico ospedaliero. Il
diffondersi di apparecchi numerici collegati fra loro in un rete informatica
d’ospedale pone numerosi problemi di coordinamento e di gestione di tutta
l’informazione esistente sia presso il singolo ospedale, sia in reti informatiche che
151
collegano diversi enti.
Supporto tecnico e servizi generali. L’ingegnere clinico può contribuire al
miglioramento del servizio sanitario fornendo competenze tecniche in numerosi
problemi quali: la supervisione durante la fase della realizzazione di
apparecchiature speciali, la modifica di servizi esistenti in modo da adeguarli a
nuove richieste o da migliorarne le prestazioni (per esempio, sviluppo di
programmi per elaboratori elettronici ed estensione del sistema di calcolo).
Addestramento ed aggiornamento. L’ingegnere clinico ha il dovere, non solo
di addestrare i propri colleghi giovani, ma anche i medici ed in parte anche gli
utenti del servizio sanitario. In particolare ha il compito:
- di provvedere all’addestramento sul campo del personale tecnico di recente
formazione, sviluppando programmi di insegnamento;
- di svolgere seminari e corsi con lo scopo di fornire a tutto il personale
medico, dallo studente al primario, le informazioni più adeguate su ciò che
la tecnologia può offrire;
- consigliare gruppi di potenziali utenti sulla disponibilità di nuove
apparecchiature e di nuove metodologie.
Ricerca e sviluppo. È opportuno il coinvolgimento dell’ingegnere clinico, a
partire dalla definizione del problema, in ogni progetto sanitario riguardante le
tecnologie e/o le metodologie; in ambiente clinico la formulazione corretta del
problema può infatti richiedere una intensa campagna di misure, la loro analisi ed
il loro confronto, prima che possa partire il vero e proprio progetto. Inoltre è
necessaria un’adeguata sperimentazione controllata sul prototipo; un’analisi della
sua efficacia nell’ambiente di lavoro è quanto mai importante per trasferire
l’innovazione nella pratica.
13.2 - DEFINIZIONI
Nelle Norme CEI che si riferiscono a specifiche categorie di apparecchiature
sono ricorrenti le seguenti definizioni che vengono qui riportate:
152
Paziente: ogni essere vivente (persona o animale) sottoposto ad esame o trattamento medicale.
Ambiente circostante il paziente: Lo spazio (fino a 2,5 metri di distanza dal paziente) in cui possono
verificarsi contatti intenzionali o non intenzionali tra paziente e apparecchio
e tra apparecchio e altre persone.
Circuito paziente: il circuito elettrico comprendente il paziente.
13.3 - PARTI DELLE APPARECCHIATURE
Parte conduttrice accessibile: parte conduttrice di un apparecchio che può essere toccata dall’operatore o dal paziente senza l’impiego di un utensile.
Parte applicata: complesso delle parti dell’apparecchio che vengono intenzionalmente messe in contatto con il paziente sotto esame o cura.
Parte applicata isolata di tipo F(flottante): parte applicata, isolata da tutte le parti dell’apparecchio in modo tale che la corrente di dispersione nel paziente, ammissibile in condizioni di primo guasto, non venga superata, quando tra la parte applicata e la terra si applica una tensione pari a 1,1 volte la più elevata tra le tensioni nominali di rete.
Massa dell’apparecchio: si intende l’involucro comprendente:
tutte le parti conduttrici accessibili
pomoli, maniglie, appigli, etc.
alberi accessibili
Sorgente elettrica interna: sorgente incorporata nell’apparecchio e destinata a fornire l’energia elettrica necessaria e sufficiente per far funzionare l’apparecchio stesso.
Entrata di segnale: parte dell’apparecchio, che non sia una parte applicata, destinata a ricevere tensioni o correnti di segnale in entrata (per esempio per visualizzare, elaborare, registrare dati).
Uscita di segnale: parte di un’apparecchiatura, che non sia una parte applicata, destinata a fornire tensioni o correnti di segnale in uscita.
Documentazione: documentazione annessa all’apparecchio o ad un accessorio che contiene
tutte le informazioni importanti per l’operatore, l’installatore o il montatore dell’apparecchio specie per quanto riguarda la sicurezza.
153
Sotto tensione: stato di una parte, in condizione usuale o di primo guasto, che può causare, quando la parte stessa viene toccata, una corrente superiore alla corrente di dispersione ammissibile in condizione normale tra la parte stessa e la terra, ovvero tra la parte stessa ed una parte accessibile dell’apparecchio.
Parte collegata alla rete: il complesso di tutte le parti dell’apparecchio (escluso il conduttore di protezione) destinate ad avere un collegamento conduttore con la rete di alimentazione.
13.4 - ISOLAMENTO
Isolamento fondamentale: isolamento di cui sono munite le parti sotto tensione per fornire la
protezione fondamentale da contatti diretti o indiretti.
Doppio isolamento: isolamento comprendente un isolamento fondamentale ed un isolamento
supplementare.
Isolamento funzionale: isolamento tra le parti sotto tensione non equipotenziali, necessario per il normale funzionamento dell’apparecchio.
Isolamento rinforzato: un sistema di isolamento unico delle parti sotto tensione, tale da fornire un grado di protezione contro i contatti diretti ed indiretti equivalente a quello di un doppio isolamento nelle condizioni specificate dalle presenti Norme
Impedenza di protezione: Componente o insieme di componenti la cui impedenza, per costruzione e
affidabilità, può essere collegato tra le parti sotto tensione, ovvero tra le
parti che possono andare sotto tensione in condizioni di primo guasto, e le
parti conduttrici accessibili o le parti applicate, limitando la corrente di
dispersione al valore ammesso.
Conduttore supplementare di protezione: conduttore da collegare tra un morsetto di terra supplementare di protezione ed un sistema di protezione esterno.
Morsetto di terra funzionale: morsetto collegato direttamente ad un punto di un circuito di misura o di controllo o ad uno schermo, destinato ad essere messo a terra per ragioni funzionali.
Conduttore equipotenziale: collegamento conduttore tra parti conduttrici estranee e/o l’apparecchio ed una sbarra equipotenziale.
154
Conduttore di protezione: conduttore di collegamento tra il morsetto di terra di protezione ed un sistema esterno di messa a terra di protezione.
Trasformatore di isolamento (per uso) medicale: trasformatore usato in campo medico destinato a fornire energia ad un
apparecchio elettromedicale, per ridurre al minimo la probabilità di
interruzione di energia a seguito di guasto verso terra nel circuito alimentato
o in un apparecchio ad esso collegato.
Trasformatore di sicurezza (per uso) niedicale: trasformatore con un avvolgimento secondario separato elettricamente dalla
terra e dalla massa del trasformatore stesso da un isolamento fondamentale
almeno, e separato elettricamente dall’avvolgimento primario mediante un
isolamento, equivalente almeno ad un doppio isolamento o ad un
isolamento rinforzato, destinato ad alimentare circuiti a bassissima tensione
di sicurezza medicale. 13.5. CORRENTI ELETTRICHE
Corrente di dispersione:
corrente non funzionale attraverso o lungo l’isolamento. Le parti sotto
tensione di ogni apparecchio producono, a seconda del tipo di isolamento,
verso gli elementi conduttori dello stesso, delle correnti di dispersione che
possono modificare il loro valore nel tempo. Si possono creare delle
correnti fra conduttori adiacenti, che si trovano a potenziale diverso
(corrente di tipo capacitivo), oppure fra conduttori o componenti la cui
protezione abbia perso in isolamento, condizione questa che può essere
favorita da umidità o polvere. Si definiscono le seguenti e più importanti
correnti di dispersione: corrente di dispersione verso terra, corrente di
dispersione sull’involucro e corrente di dispersione nel paziente.
Corrente di dispersione sull’involucro: corrente fluente dall’involucro o
da parte di esso verso terra o verso un’altra parte dell’involucro attraverso
un collegamento conduttore esterno diverso dal conduttore di protezione.
Una persona che venga in contatto con queste parti e con la terra sarà
attraversata da questa corrente.
Corrente di dispersione verso terra: corrente fluente dalla parte collegata
alla rete verso il conduttore di protezione attraverso o lungo l’isolamento.
Se il conduttore di protezione è difettoso o interrotto, la corrente attraversa
la persona che accidentalmente stabilisce un contatto fra l’apparecchio
difettoso e la terra.
Corrente di dispersione nel paziente: corrente fluente dalla parte applicata
al paziente verso terra o fluente dal paziente verso terra attraverso una parte
applicata isolata di tipo F, a causa della creazione non intenzionale sul
paziente di una tensione dovuta ad una sorgente esterna.
155
Corrente funzionale nel paziente: corrente fluente nel paziente
nell’impiego usuale tra elementi della parte applicata e destinata a produrre
effetti fisiologici; ad esempio correnti necessarie per la stimolazione
nervosa e muscolare, stimolazione cardiaca, defibrillazione, tecniche
chirurgiche ad alta frequenza.
Corrente ausiliaria nel paziente: corrente fluente nel paziente
nell’impiego usuale tra elementi della parte applicata e non destinata a
produrre un effetto fisiologico: ad esempio la corrente di polarizzazione di
amplificatori, correnti impiegate nella pletismografia.
Al fine di valutare le correnti di dispersione le Norme CEI prendono in
considerazione le seguenti due condizioni di funzionamento:
Condizione usuale di funzionamento (N.C.): è quella in cui l’apparecchio è correttamente alimentato dalla rete e correttamente collegato al conduttore di protezione (se di Classe I).
Condizione di primo guasto (S.F.C.): è una condizione anomala, relativamente frequente e potenzialmente pericolosa per la quale le Norme fissano condizioni di sicurezza meno rigide di quelle relative alle condizioni d’uso normale ma che rientrano ancora nell’ambito della sicurezza.
I guasti considerati sono i seguenti:
interruzione di uno dei conduttori di alimentazione;
interruzione del conduttore di protezione (terra);
corto circuito delle parti costituenti un doppio isolamento;
corto circuito dell’isolamento tra una parte applicata e le parti sotto
tensione di circuiti secondari.