La sfida della complessità nelle malattie croniche ... · a una bolla d’aria calda di staccarsi...

21
1 La sfida della complessità nelle malattie croniche degenerative: ruolo attuale dei sistemi artificiali adattivi. Enzo Grossi Fondazione Bracco, Milano Centro Ricerche Semeion, Roma Villa santa Maria, Tavernerio, Como «Chi è addetto alla costruzione delle scienze troverà la sua gioia e la sua felicità nell'aver indagato l'indagabile e osservato l'inosservabile». Max Plank

Transcript of La sfida della complessità nelle malattie croniche ... · a una bolla d’aria calda di staccarsi...

1

La sfida della complessità nelle malattie croniche

degenerative: ruolo attuale dei sistemi artificiali adattivi.

Enzo Grossi

Fondazione Bracco, Milano

Centro Ricerche Semeion, Roma

Villa santa Maria, Tavernerio, Como

«Chi è addetto alla costruzione

delle scienze troverà la sua gioia e la sua

felicità nell'aver indagato l'indagabile e

osservato l'inosservabile».

Max Plank

2

Introduzione

La medicina rappresenta la disciplina medica nella quale il concetto di complessità è all’ordine del

giorno. Molte delle malattie croniche degenerative che sono prevalenti nell’età avanzata presentano

caratteristiche particolari, tali da renderle definibili appunto “complesse”. Ma cosa vuole dire

complesso? E che implicazioni filosofiche questo concetto introduce?

Scopo di questa relazione è di mettere a fuoco il tema della complessità in campo medico cercando

di recuperare alcuni contributi recenti dei gruppi di ricerca che hanno fatto dello studio della

complessità la loro principale ragione di attività.

Un semplice modo di definire la complessità è mettere in luce le differenze tra un sistema

complesso e un sistema complicato.

I sistemi complicati, come un Boeing 747, consistono di un enorme numero di diversi componenti

elementari (nel caso circa 200.000). Il montaggio di questo Jumbo è chiaramente deterministico; c’è

solo un modo di assemblare questi componenti per assicurare che il Jumbo sia capace di volare.

Una vite usata nel montaggio rimane una vite sia si tratti di un modello per bambini, sia si tratti di

un vero aviogetto. La struttura originata da quel montaggio determina la relazione tra i vari

componenti e la matematica che ci sta sotto è spesso basata su funzioni lineari. Per sistemi come

questo il tempo che scorre durante il loro uso e la loro esistenza è proprio un “rumore” e non

rappresenta alcuna variabile privilegiata. In altre parole, da un sistema complicato non possiamo

aspettarci un miglior adattamento ad un ambiente dinamico.

Al contrario con i sistemi complessi le regole sono alquanto differenti. Questi ultimi possono

adattarsi ad un ambiente dinamico, e per loro il tempo non è “rumore”, ma è piuttosto un modo per

ridurre potenziali errori. La complessità è un processo adattivo, è influenzato dal tempo e, nel

tempo, i processi complessi possono evolvere o degenerare. La complessità è basata su piccole unità

elementari che lavorano insieme in piccole popolazioni di processi asincroni.

In un sistema complesso ciascun componente cambia, nel tempo, perdendo la sua identità al di fuori

del sistema. Consideriamo la sequenza: bruco, bozzolo, farfalla, uovo e di nuovo bruco e così via.

Se prese separatamente queste forme di vita potrebbero essere viste addirittura come animali

diversi. La considerazione che tutte fanno parte di un sistema (in questo caso di sviluppo) permette

di mantenere l’unità nonostante la perdita di identità.

Nella tabella 1, per facilitare la comprensione di questa definizione, data in maniera operativa,

riportiamo un compendio parallelo delle proprietà dei sistemi complicati e dei sistemi complessi

Tabella 1

Sistemi Complicati Sistemi Complessi

Funzioni lineari Funzioni non lineari

Adattamento ad un ambiente statico Interazione con un ambiente

dinamico

Causalità semplice Causalità reciproca

Deterministici Probabilistici

La struttura determina le relazioni Struttura e relazioni interagiscono

La media domina, i casi estremi

sono irrilevanti

I casi estremi sono i determinanti-

chiave

I componenti mantengono la loro

identità/essenza

I componenti cambiano la loro

identità/essenza

3

L’esperienza con questi concetti relativamente nuovi ci ha aiutato a comprendere che la “malattie

acute”, si comportano più come sistemi complicati, mentre le malattie croniche degenerative

rassomigliano maggiormente a sistemi complessi. La tabella 2 tenta di riassumerne i lineamenti

principali sotto questo rispetto. Per comprendere la potenza di tali concetti si noti l’analogia con la

tabella 1 dove i concetti erano del tutto generali e non facevano alcun riferimento a stati patologici.

La matematica della complessità è differente da quella dei sistemi lineari classici: prevalgono la

dinamica caotica, le soglie critiche, la geometria frattale e le funzioni non lineari. Da quando si è

ottenuta una più profonda comprensione delle caratteristiche dinamiche intrinseche dell’organismo

umano e con l’avvento dell’Intelligenza Artificiale, con i suoi paradigmi e strumenti (teorie del

caos, dell’incertezza e della complessità) è ora assolutamente chiaro che noi, come il resto del

mondo vivente, apparteniamo ai sistemi complessi piuttosto che a quelli complicati .

Tabella 2

Le Complicate Malattie Acute e le Complesse Malattie Croniche

Malattie acute (complicate) Malattie Croniche Complesse

Insorgenza improvvisa Insorgenza graduale nel tempo

Spesso tutte le cause possono essere

identificate e misurate

Cause multivariate, mutevoli nel tempo

Diagnosi e prognosi sono spesso accurate La diagnosi e prognosi sono spesso incerte

Spesso disponibile una specifica terapia o

trattamento

Terapia causale spesso non disponibile

La struttura determina le relazioni Struttura e relazioni interagiscono

Le tecnologie di intervento sono

usualmente efficaci: la cura comporta

verosimilmente il ritorno nel tempo alla

normale salute

La restituito ad integrum è impossibile; per

migliorare la salute sono necessari accurata

gestione, assistenza personale e auto cura

Negli ultimi anni in medicina c’è un concetto emergente di complessità, così come una crescente

consapevolezza di sensibilità per l’aspetto multidimensionale e di sistema a rete, sia della salute, sia

della malattia. E’ ormai chiaro che il corpo umano non è una macchina ed il suo malfunzionamento

non può essere adeguatamente analizzato solo scomponendo il sistema nei suoi componenti e

considerando ciascuno di essi isolatamente.

Un piccolo cambiamento in una parte di questa rete di sistemi interagenti, può portare ad un

cambiamento molto più grande in un’altra parte attraverso effetti di amplificazione. Per tutte queste

ragioni né la malattia né il comportamento umano può essere modellato su un semplice sistema a

causa ed effetto.

Come dice E.O. Wilson, conosciuto come il padre della biodiversità: “La più grande sfida oggi,

non solo in biologia cellulare e in ecologia, ma in tutta la scienza, è l’accurata e completa

descrizione dei sistemi complessi”. Gli scienziati hanno scomposto molti tipi di sistemi. Essi

pensano di conoscerne la maggior parte degli elementi e delle forze. Il prossimo compito è quindi

riassemblarli, almeno nei modelli matematici che catturano le proprietà chiave di interi insiemi,

vale a direi connessioni, nodi e hubs o nodi portanti.

(http://rainforests.mongabay.com/10complexity.htm

4

La teoria del caos deterministico

Una delle maggiori scoperte del ventesimo secolo, favorita dalla scienza informatica, è

rappresentata dal riconoscimento che semplici regole non sempre conducono ad un “ordine stabile”,

ma in molti casi determinano un apparente disordine caratterizzato da una evidente instabilità e da

variazioni imprevedibili per ragioni intrinseche alle regole stesse.

La teoria del Caos fornisce nuove intuizioni nella comprensione di processi che in precedenza si

riteneva fossero imprevedibili e randomici. Inoltre essa offre un nuovo insieme di strumenti che

possono essere utilizzati per analizzare i dati clinici e psicologici, come ad esempio i segnali

elettrici provenienti dal cuore o dal cervello. La teoria del Caos è nata nel ventesimo secolo

originariamente come una branca della scienza matematica grazie al lavoro di Edward Lorenz

nell’ambito della metereologia.

Edward Lorenz era un meteorologo che nel 1963 cercò di descrivere la dinamica di un flusso

idrodinamico con equazioni non lineari (differenziali ordinarie) e si pose la questione se fosse

possibile una previsione meteorologica a lungo termine. Lorenz calcolò numericamente una

soluzione e, poiché voleva studiare come si comportava in un periodo di tempo maggiore, il giorno

successivo utilizzò i risultati ottenuti a metà della prima simulazione come punti iniziali della

simulazione successiva. Avendo dovuto tuttavia semplificare i calcoli rinunciando alle cifre

decimali successive alla terza dopo la virgola, si accorse che la seconda soluzione era totalmente

diversa dalla seconda metà della soluzione iniziale, cosa che non si sarebbe mai aspettato!

Figura 1. Esperimento di Lorenz: il computer immagazzina i numeri approssimando alla sesta

cifra decimale. Per rispermiare carta Lorenz stampa i dati con soli tre decimali dopo la virgola.

Nella sequenza originale il numero era .506127, e lui stampò solo le prime 3 cifre: .506.

5

La possibilità che piccole differenze delle condizioni iniziali si riflettano in evoluzioni temporali

completamente diverse e irregolari risulterà in seguito essere la regola di molti sistemi:

-circuiti elettronici

-lasers

-fluidi turbolenti

-reazioni chimiche oscillanti

-ritmi biologici

La teoria del caos è interessata a trovare delle spiegazioni razionali per quei fenomeni come i

cambiamenti climatici inattesi, e tratta gli eventi e i processi che non possono essere modellizzati o

previsti utilizzando i teoremi e le leggi matematiche convenzionali, come quelli della teoria della

probabilità. La teoria parte dal concetto che piccole, localizzate perturbazioni in una parte del

sistema complesso possono avere profonde ripercussioni in tutto il sistema. Per i sistemi non lineari,

la proporzionalità semplice non regge. Piccoli cambiamenti possono avere conseguenze

drammatiche e inattese, alcune volte riferibili all’”effetto farfalla”. Questo affascinante esempio,

spesso utilizzato per descrivere questo concetto, si riferisce al fatto che ad una data combinazione

critica di cambiamenti pressorici nell’atmosfera, il battito d’ali di una farfalla in Cina può causare

un uragano in Brasile.

“Il piccolo vortice prodotto dal battere d’ali della farfalla, in un caldo pomeriggio, può consentire

a una bolla d’aria calda di staccarsi dal suolo surriscaldato, trasformarsi in una corrente calda

ascendente e poi in un grosso nuvolone. Il vortice d’aria che alimenta la cellula temporalesca può

avere abbastanza energia per deviare i venti alle quote superiori e provocare una perturbazione

che spinta dalle correnti d’alta quota fornisce all’atmosfera, in un luogo diametralmente opposto,

dopo alcuni giorni, quella energia in più per provocare il ciclone.”

Il famoso matematico inglese Alan Turing a cui si deve la nascita della teoria dell’informazione

esprime questo concetto della sensibilità alle condizioni iniziali in un modo affascinante:

"Lo spostamento di un singolo elettrone per un miliardesimo di centimetro, a un momento dato,

potrebbe significare la differenza tra due avvenimenti molto diversi, come l'uccisione di un uomo

un anno dopo, a causa di una valanga, o la sua salvezza".

(Alan Turing, 1950)

Un'altra intuizione interessante è quella di Mandell:

……...”Non può essere che la patologia matematica, cioè il caos, sia salute? E che la salute

matematica, che è la predicibilità e la differenziabilità di questo tipo di struttura sia malattia” ?

(Arndold Mandell: From Molecular biological simplification to more realistic Central Nervous

System dynamics: An opinion. 1985 ).

La parola chiave è “criticità” e la maggior parte dei tentativi degli scienziati impegnati nella teoria

del caos consiste nel cercare di modellizzare circostanze basate su specifiche condizioni

congiunturali. Eventi imprevedibili in medicina, come le aritmie ventricolari e le morti cardiache

improvvise negli atleti, il decorso di alcuni tipi di cancro e le oscillazioni nella frequenza di alcune

malattie, possono essere attribuibili alla teoria del caos.

6

La teoria del caos può essere considerata un paradigma delle cosiddette dinamiche non-lineari.

La tabella 3 sintetizza alcuni dei migliori esempi di dinamiche non lineari presenti nella fisiologia

umana.

Tabella 3: Esempi di Dinamiche Non Lineari nella Fisiologia Umana

Processi con comportamenti caotici Processi con fluttuazioni frattali complesse

Forma delle onde dell’elettroencefalogramma Frequenza cardiaca

Livelli di insulina nel sangue Respirazione

Cicli cellulari Pressione arteriosa sistemica

Potenziale dell’azione muscolare Controllo dell’equilibrio

Motilità esofagea Numero di globuli bianchi

Motilità intestinale Esempi di rigenerazione epatica

Pressione uterina

E’ stato dimostrato che nell’uomo l’intervallo tra un battito cardiaco e l’altro è caotico, e che il

battito regolare del cuore è un segnale della malattia ed un forte fattore predittivo di un imminente

arresto cardiaco.

Studi recenti hanno brillantemente evidenziato come le statistiche tradizionali possano essere

fuorvianti nella valutazione delle fasi cardiache in soggetti sani e malati. Ci sono infatti circostanze

in cui due insiemi di dati appartenenti a due soggetti possono avere medie e varianze quasi

identiche e tuttavia contenere un informazione drammaticamente diversa nella loro struttura

temporale. Questo concetto è ben espresso nelle figure sottostanti.

Figura 2:

Stime statistiche convenzionali della frequenza cardiaca lungo 15 minuti di due soggetti: uno è

sano e l’altro affetta da grave apnea ostruttiva; da Goldberger, 2006

7

Le frequenze cardiache del soggetto sano rivelano un modello complesso di fluttuazioni non-

stazionarie. Per contro, l’insieme dei dati relativi all’andamento cardiaco dei soggetti con apnea

notturna mostra un modello preminente maggiormente predittivo con una scala temporale definita

da una bassa frequenza di oscillazioni, di circa 0.03 Hz. Sia il comportamento complesso riscontrato

nei casi sani che le oscillazioni registrate nei casi patologici suggeriscono la presenza di

meccanismi non lineari .

L’importanza delle dinamiche caotiche e dei fenomeni non lineari ad esse correlate è stata

riconosciuta in medicina solo recentemente. E’ ora abbastanza chiaro che il caos non è un disordine

bizzarro; esso è una indefinibile forma di ordine, in cui i risultati approssimativi del trattamento

possono essere previsti.

Le dinamiche caotiche possono essere caratterizzate il più delle volte dal cosiddetto ‘attrattore

strano’. Questo vuol dire all’incirca che durante l’evoluzione caotica, le variabili caratterizzanti lo

stato del sistema rimangono entro un ristretto intervallo di valori. Ciò conduce alla possibilità di

caratterizzare l’evoluzione del sistema in termini di probabilità.

Soglie critiche

E’ ormai chiaro che interazioni multiple fra fattori con circuiti di retroazione positivi e

negativi e assoggettati a dinamiche non lineari determinano lo stato di salute e il comportamento di

individui, popolazioni e di interi ecosistemi.

Anche se il comportamento di un sistema complesso fluttua spesso attorno ad un valore

medio, oscillazioni esagerate o condizioni vicine ad una soglia critica possono creare una

vulnerabilità a piccole perturbazioni che possono proiettare il sistema in uno stato dinamico critico.

Figura 3 a: Propagazione di un incendio in una foresta con densità degli alberi pari al 60%

8

Figura 3 b: Propagazione di un incendio in una foresta con densità degli alberi pari al 61%

Un modello attraente per evidenziare il concetto di soglia critica è quello della propagazione di un

incendio boschivo in relazione alla densità degli alberi in una foresta.

Densità inferiori al 50% non producono particolari propagazioni di un incendio a partire da un

determinato focolaio.

Nella figura 3 a la densità degli alberi è del 60%. Un focolaio produce una propagazione piuttosto

estesa ma contenuta. Il sistema è ora vicino alla soglia critica. Nella figura 3 b è visibile cosa

succede con una densità del 61%: l’incendio divora in poco tempo tutta la foresta. Il sistema ha

cambiato il proprio stato di fase con un salto critico rispetto ad un incremento della densità degli

alberi dell’ 1 %.

Geometria Frattale

La geometria frattale è una recente branca della matematica che parte dall’osservazione che alcune

forme presenti in natura (coste, rami di un albero, fiocchi di neve, ecc…) sono ben lontane dalle

figure regolari della geometria euclidea, e richiedono l’uso di entità geometrici non convenzionali

per “leggere” e “descrivere” proprio le forme di irregolarità presenti in natura.

A più di tre secoli di distanza da Galileo Galilei, Benoit Mandelbrot, lo scienziato che descrisse per

primo la geometria frattale scrive:“La geometria euclidea è incapace di descrivere la natura nella

sua complessità, in quanto si limita a descrivere tutto ciò che è regolare. Eppure osservando la

natura vediamo che le montagne non sono dei coni, le nuvole non sono delle sfere, le coste non

sono dei cerchi, ma sono oggetti geometricamente molto complessi.” (da Les objects fractals

1975”)

Nascono i frattali, modelli atti ad imprigionare in formule matematiche quelle forme della natura

come fiori, alberi, fulmini, fiocchi di neve, cristalli, che fin’ora non erano state considerate

riproducibili con regole matematiche. La geometria frattale (dal latino frangere cioè spezzare) è lo

studio di forme ripetitive di base che ci consentono di trovare le regole per generare alcune strutture

presenti in natura.

In questo modo Mandelbrot introducendo la geometria frattale, inventa un nuovo linguaggio di

9

descrizione delle forme complesse della natura. Tuttavia, mentre gli elementi della geometria

(linee, cerchi,triangoli,…) si possono visualizzare facilmente, quelli del nuovo linguaggio non si

prestano all’osservazione diretta; essi sono algoritmi, processi che possono essere trasformati in

forme e strutture solo con l’aiuto di un computer.

Per usare le parole di Maldenbrot “un frattale è una Figura geometrica o oggetto naturale con una

parte della sua forma o struttura che si ripete a scala differente, con forma estremamente

irregolare interrotta e frammentata a qualsiasi scala e con elementi distinti di molte dimensioni

differenti”. (Benoit Mandelbrot -Les objects fractales,1975)

I frattali sono quindi figure geometriche caratterizzate dal ripetersi sino all'infinito di uno stesso

motivo su scala sempre più ridotta. Questa è la definizione più intuitiva che si possa dare di figure

che in natura si presentano con una frequenza impressionante ma che non hanno ancora una

definizione matematica precisa.

Nelle figure 4 ,5 e 6 vi sono alcune rappresentazioni di oggetto frattali paradigmatici, caratterizzati

da auto somiglianza spaziale o temporale.

Autosomiglianza

spaziale

Figura 4: broccolo romanesco

Figura 5. Fulmine

10

Autosomiglianza

spaziale

Struttura ramificata

autosomigliante del

sistema di conduzione

nervosa cardiaca

Struttura ramificata

autosomigliante del

sistema circolatorio

Struttura ramificata

autosomigliante del

sistema bronchiale

Figura 6: Esempi di geometria frattale in organi e apparati del corpo umano.

Le reti complesse

Albert-László Barabási è il fisico matematico che ci ha insegnato a pensare attraverso le reti. In un

famoso libro dal titolo Linked, propone una visione della natura, della società e delle attività

economiche fondata sulle reti, un nuovo quadro per capire questioni che vanno dalla democrazia in

rete alla vulnerabilità di Internet alla propagazione di virus mortali.

Le reti sono ovunque. Tutto ciò che occorre è un occhio per vederle. I legami deboli svolgono una

funzione cruciale nella nostra comunicazione con il mondo esterno. Spesso i nostri amici non

possono esserci di grande aiuto nella ricerca di un lavoro: si muovono all'interno dei nostri stessi

ambienti, e sono esposti alle stesse informazioni cui siamo esposti noi. Per ottenere informazioni

nuove dobbiamo attivare i nostri legami deboli. I manager apprendono più facilmente

dell'opportunità di un nuovo lavoro dai legami deboli (27,8 per cento dei casi) che da quelli forti

(16,7 per cento). I legami deboli, ossia i conoscenti, sono il nostro ponte verso il mondo esterno,

perché frequentano ambienti diversi dai nostri e ottengono le loro informazioni da fonti diverse.

In una rete casuale non potrebbero esistere cerchie di amici, perché i nostri contatti con gli altri

sarebbero del tutto casuali. Nell'universo sociale tradizionale la probabilità che i miei due più cari

amici siano amici fra loro è la stessa che ha un capo tribú africano di fare amicizia con un calzolaio

australiano. Ma la nostra società è fatta in un altro modo. Due amici intimi, per lo più, conoscono

ognuno gli amici dell'altro. Tendono a partecipare alle stesse feste, a frequentare gli stessi locali, a

vedere gli stessi film. Più è forte il legame fra i due, più i rispettivi amici si intrecciano.

L'argomentazione di Barabasi, benché all'apparenza controintuitiva e paradossale, afferma una

verità molto semplice sulla nostra organizzazione sociale. Il suo modello di società, una rete

frammentata di cluster molto fitti che comunicano fra loro attraverso dei legami deboli, è molto più

vicina alla nostra esperienza quotidiana del quadro perfettamente casuale propostoci da matematici

tradizionalisti. La scoperta che, sul Web, pochi hubs si annettono la maggior parte dei link,

inaugurò una ricerca frenetica in varie aree. I risultati furono stupefacenti: scoprimmo che

Hollywood, il Web e la società umana non sono casi isolati. Come ora sappiamo, gli hub sono

presenti anche nelle reti d'interazioni chimiche fra le molecole all'interno della cellula vivente.

11

Alcune molecole, come quella dell'acqua o l'adenosintrifosfato (ATP), sono i Rod Steiger della

cellula: partecipano a un numero enorme di reazioni chimiche. Su Internet, la rete che connette

materialmente i computer di tutto il mondo, pochi hub svolgono un ruolo cruciale nel garantire il

funzionamento della rete in caso di malfunzionamenti. Secondo uno studio condotto dalla AT&T,

una piccolissima parte dei numeri telefonici è responsabile di una frazione straordinariamente alta

di chiamate inviate o ricevute. Tre autorevoli biologi hanno di recente suggerito, sulla prestigiosa

rivista «Nature», che la natura iperconnessa di una certa molecola - la proteina p53 - è la chiave per

scoprire i processi alla base di varie forme di cancro a livello molecolare. Gli ecologisti sono

convinti che, nelle reti alimentari, gli hubs siano le specie guida di un ecosistema, particolarmente

importanti nel mantenerne la stabilità.

Le figure sottostanti esemplificano la presenza di reti ad invarianza di scala in vari contenti del

mondo vivente.

Figura 7: Esempi di reti complesse nel mondo vivente

Rete metabolica

Rete links internetRete alimentare

Rete sociale

12

L'attenzione ricevuta dagli hubs è ben meritata. Gli hubs sono speciali. Dominano la struttura di

tutte le reti in cui sono presenti rendendole simili i mondi piccoli. Infatti gli hubs, essendo collegati

a un numero insolitamente grande di nodi, accorciano tutte le distanze all'interno del sistema. Ciò

significa che, se il grado medio di separazione fra due persone sulla Terra è sei, spesso la distanza

media fra un individuo qualsiasi e un connettore è uno, al massimo due. Allo stesso modo, mentre

due pagine Web distano in media diciannove click l'una dall'altra, Yahoo.com - un hub gigantesco -

è raggiungibile da quasi tutte le pagine Web in non più di due o tre click. Osservato dalla

prospettiva degli hubs; il nostro è davvero un mondo molto piccolo.

Per un approfondimento sui concetti della complessità inerenti alla organizzazione dinamica delle

reti si rimanda al bellissimo libro “Linked” ( Einaudi editore, 2004) di Albert-László Barabàsi,

ricercatore ungherese, docente di Fisica teorica all’Università di Notre Dame, Indiana, e padre delle

più recenti ricerche sulle reti complesse.

Le reti neurali artificiali

Solo nell’ultimo decennio le nuove idee della matematica non lineare – teoria del caos e della

complessità – sono entrate lentamente nelle aree della medicina, salute e malattia.

La storia dell’elaborazione dei dati è storicamente partita con l’analisi lineare. Ma questa realtà, da

lungo tempo inadeguata, deve essere riveduta. Importanti scoperte fondamentali, teoriche e

applicative, che sono state fatte in matematica, fisica, economia e medicina, sono importanti per la

prevenzione, la diagnostica, il trattamento, la ricerca, le necessità di preparazione e in generale per

il mandato della medicina contemporanea.

Abbiamo sufficientemente dimostrato come i concetti intuitivi e quelli della statistica classica siano

inadeguati a trattare con problemi caratterizzati da complessità, che peraltro caratterizza la

costituzione del corpo umano, il suo stato di salute e di malattia. Poiché gli strumenti

dell’intelligenza artificiale, al contrario nascono con l’abilità a trattare con i concetti che

caratterizzano la complessità come la non linearità, le soglie critiche e la geometria frattale,

riteniamo che per poter dominare questo importantissimo aspetto della medicina l’intelligenza

artificiale sia necessaria.

Cosa sono le reti neurali? Non è facile spiegarlo in maniera semplice, tuttavia possiamo dire che

esse sono riconducibili a sistemi di equazioni matematiche interconnesse secondo un principio

inspirato ai processi altamente interattivi del cervello umano. Similmente al sistema nervoso

centrale, le reti neurali sono in grado di riconoscere schemi, utilizzare dati e, soprattutto,

apprenderne per esempi, così come fa il medico nella fase iniziale della propria attività. Le leggi di apprendimento delle reti neurali poggiano come detto su basi matematiche molto solide

e su teorie relativamente recenti , sviluppate negli ultimi 20 anni . Verso la fine degli anni 80 si è

avuta la dimostrazione inequivocabile della capacità delle reti neurali di interpolare qualsiasi

problema di funzione dato un numero sufficiente di unità nascoste o in termine tecnico “hidden

nodes”, in grado di integrare simultaneamente tutta l’informazione proveniente dal vettore di inputs

costituito da ogni stringa di informazioni relativa ad un singolo paziente, ad esempio.

Le reti neurali artificiali sono in grado sia di trovare da sole regole sfumate insite nel data base

ma non facilmente evidenti che di eliminare dati superflui o addirittura confondenti riducendo in

buona sostanza in modo molto il lavoro di routine del personale medico, permettendo più tempo per

la formazione, la ricerca e la cura del paziente.

In effetti la medicina è un campo in cui tale aiuto è criticamente necessario. Le nostre crescenti

aspettative sulla più elevata qualità della sanità e su una crescita rapida per acquisire una

conoscenza sempre più dettagliata dei problemi sanitari lasciano il medico senza una quantità di

tempo sufficiente per prendersi cura in profondità di ogni singolo caso.

13

Per mancanza di tempo, la maggior parte delle decisioni mediche devono essere basate su giudizi

veloci dei casi contando sulla sola intuizione e memoria.

Figura 8: architettura di una rete neurale Back Propagation

Soltanto in rare situazioni si possono intraprendere ricerche bibliografiche estese per assicurare

che la conoscenza più recente venga applicata ai vari specifici casi.

Questa è quindi la grande opportunità per i nuovi strumenti informatici : contribuire ad organizzare,

memorizzare e richiamare la conoscenza medica appropriata e necessaria per affrontare ogni caso

difficile e per suggerire appropriate diagnosi, prognosi, decisioni terapeutiche e tecniche di

risoluzione.

Le reti neurali rappresentano un modello particolarmente soddisfacente per risolvere i problemi non

lineari spesso associati a complessi sistemi biologici, specialmente quando non esiste una buona

comprensione dell'interazione sui fattori biologici, genetici e farmacologici.

Le Reti Neurali Artificiali sono quindi indicate per definire situazioni sfumate e incerte di

patologia, così come per rispondere a domande più importanti che si riferiscono agli aspetti non

ancora pienamente chiariti.

L'uso delle reti neurali è stato proposto in una varietà di applicazioni nel campo medico: per

studiare la sequenza nucleotidica del genoma umano o quella aminoacidica delle proteine, per

esempio, o per determinare il risultato a lungo termine delle patologie tumorali, per predire una

risposta a terapie particolari, o per valutare l’ utilità di determinati strumenti diagnostici (per

esempio ECG, SPECT cerebrale, scintigrafia del polmone, biopsia della prostata) in termini di

specificità diagnostica e sensibilità.

L’enorme differenza fra le reti neurali ed i sistemi tradizionali è insita nel fatto che le reti neurali

imparano dal esempi, senza esigenza di regole (in quanto stabiliscono le loro proprie regole alla

conclusione della fase di addestramento), mentre i sistemi tradizionali seguono i programmi rigidi

precedentemente preparati.

Quali sono i vantaggi delle reti neurali nella gestione dei problemi medici ?

HIDDEN

OUTPUT

INPUT (n)

. . . .

. 1 2 3 4 5 6 n 7 8

. . . .

. 1 2 3 4 5 n

. . . .

. 1 2 3 n

14

Da un punto di vista teorico i vantaggi sono molteplici:

-Le reti neurali sfruttano una nuova matematica, che meglio si adatta alla complessità inerente ai

sistemi biologici

-Riproducono l’interazione dinamica di fattori multipli permettendo lo studio della complessità

-Permettono di trarre delle conclusioni su base individuale e non come andamento medio.

Questo ultimo aspetto è veramente importante nella medicina clinica, dove il medico si trova

costantemente nella necessità di prendere delle decisioni nel paziente individuale dovendo

bilanciare rischi e vantaggi che ha imparato dalla statistica essere riferiti non a singoli casi bensì a

gruppi di individui.

Negli ultimi 13 dieci anni ho avuto l’opportunità di collaborare con un ente di ricerca pubblico

riconosciuto dal MIUR : il Centro Ricerche Semeion che già a partire dagli anni ’90 si è dedicato

alla ideazione e sviluppo di sistemi artificiali adattativi , basati su reti neurali e algoritmi evolutivi.

Mettendo a disposizione basi dati di buona qualità che diversi gruppi di ricerca hanno assemblato

nel corso degli anni in studi clinici ed epidemiologici, è stato così possibile saggiare la potenzialità

delle reti neurali su una ampia gamma di problematiche cliniche, ponendole a confronto con le

metodologie statistiche tradizionali.

Il bilancio di questa prima fase di attività è risultato estremamente positivo e ci spinge a proseguire

oltre questa partnership, auspicando il coinvolgimento di Centri di Ricerca pubblici e privati

interessati a questa innovazione e di Associazioni mediche che possano mettere a disposizione basi

dati di buona qualità da cui ricavare nuove e importanti analisi che permettano di comprendere

meglio malattie complesse.

Reti neurali e la statistica del singolo individuo

Un’ulteriore e inevitabile trappola della traslazione dei parametri statistici a livello individuale è

collegata al problema dell’ampio intervallo di confidenza delle classificazioni. Nell’ambito

dell’approccio statistico il soggetto è incluso all’interno di un determinato sottogruppo di individui

che mediamente presentano determinate probabilità che un evento si verifichi.

L’epidemiologia clinica e la statistica medica non sono particolarmente tagliate per rispondere a

domande specifiche a livello individuale. Esse, dopo tutto, sono state sviluppate primariamente per

focalizzarsi su gruppi di individui e non su individui. La statistica Fischeriana, nata intorno agli anni

30 del secolo scorso in campo agricolo e successivamente trasferita al campo medico, aveva

l’ambizione di poter giudicare la rilevanza statistica di eventuali differenze nella resa di un raccolto

in due diversi campi coltivati, senza necessariamente curarsi dello stato di salute di ogni singola

pianticella.

E’ abbastanza chiaro il concetto che l’individuo paziente-soggetto non è (e bisogna rendersene

conto), il rappresentante medio della popolazione. Piuttosto egli o ella è una persona con

caratteristiche genotipiche, fenotipiche e psicologiche uniche. Da qui il primo problema nel

trasferire i risultati ”medi” di un gruppo ottenuti in studi randomizzati a livello del singolo

individuo.

Noi sappiamo che la deduzione statistica è estremamente debole in assenza di un “campione”, che

per definizione richiede un numero > 1. Per questo motivo i modelli predittivi possono

drammaticamente fallire se applicati ai singoli individui.

Il grado di confidenza per un modello che ha mediamente un grado di attendibilità del 90% di

prevedere un evento a livello di gruppo, può fallire in modo sostanziale quando applicato al singolo

soggetto.

Supponiamo che sia stato sviluppato e validato un modello predittivo per la valutazione del rischio

in un set di dati in studio e che esso permetta un livello di attendibilità complessivo dello 0.9

Supponiamo che l’intervallo di confidenza di questo grado di previsione sia lo 0.06 (0.84-0.96).

Noi ora valuteremo un gruppo di nuovi soggetti con i nostri strumenti. Possiamo ragionevolmente

aspettarci di commettere degli errori nella classificazione dell’ordine del 4% - 16%. In alter parole

15

da 4 a 16 nuovi pazienti su 100 sarebbero valutati erroneamente rispetto al loro valore di rischio

assoluto. Se sono un nuovo paziente e sono stato classificato in un certo modo (elevato rischio di

subire un infarto miocardico), potrei pensare di avere il 90% delle possibilità di essere

correttamente classificato (l’84% nel peggiore dei casi e il 96% nel migliore).

Sfortunatamente il mio intervallo di confidenza in questa classificazione non sarebbe uguale

all’intervallo del gruppo poichè in caso di errori nella classificazione soffrirei per tutte le situazioni

o per nessuna (prognosi corretta verso una prognosi sbagliata). Questo significherebbe una

differenza del 100%.

In altre parole, a livello individuale l’intervallo di confidenza sarebbe più ampio di un valore

mediano a livello di gruppo. Qualche soluzione per questo problema? Poichè non è possible

trasformare l’individuo singolo in un gruppo di individui su cui riportare alcune statistiche, si

potrebbe fare l’opposto, cioè trattare un individuo singolo con un gruppo di dati statistici; in altre

parole questo significa utilizzare sullo stesso soggetto diversi modelli di classificazione

indipendenti l’uno dall’altro che fanno errori diversi al fine di ottenere una capacità predittiva media

simile. Le reti neurali artificiali lo consentono.

Le reti neurali possono introdurre contemporaneamente valori fattoriali multipli, combinandoli e

ricombinandoli diversamente secondo specifiche equazioni (generalmente non lineari). In aggiunta

alla loro accresciuta potenza come tecniche modellanti rispetto ai metodi statistici classici nella

valutazione del rischio cardiovascolare, con le reti neurali è possible costruire un elevato numero di

modelli indipendenti che, grazie a lievi differenze nella loro architettura, topologia e regole di

apprendimento, hanno capacità predittive diverse nella classificazione dei pazienti a seconda di

determinati target. In generale simili reti neurali appartenenti a setting specifici non forniscono

un’unica soluzione perchè la loro performance è determinata da molti fattori, come per esempio

l’incidenza iniziale randomizzata delle interconnessioni fra i nodi, l’ordine di presentazione dei casi

durante il ciclo di formazione, il numero dei cicli di formazione. Anche altre variabili appartenenti

ad attributi matematici di una rete neurale specifica influenzeranno lo stato finale di una rete neurale

addestrata dando un numero elevato di possibili combinazioni. In effetti sono stati proposti

algoritmi evolutivi per trovare il disegno più localizzabile delle reti neurali al fine di ottenere una

migliore previsione, dato l’elevato numero di possibili parametri e di combinazioni. (11). E’ inoltre

teoricamente possibile istruire diverse reti neurali con lo stesso set di dati, pervenendo ad un

insieme piuttosto ampio di reti neurali artificiali con una media simile di performance ma con

predisposizioni diverse nel compiere errori a livello individuale. In questo modo è possibile

produrre un ampio set di reti neurali con capacità di istruzione variabili per processare in modo

indipendente un set di nuovi pazienti al fine di prevedere le loro possibilità di sopravvivenza. Per

ciascun paziente sarebbero generate fino ad un migliaio di domande. Perciò quando un nuovo

paziente deve essere classificato, grazie a questo tipo di parlamento di giudici indipendenti in

azione simultaneamente potrebbe essere ottenuta una distribuzione parametrica specifica di valori

estratti con un esito statistico di tipo descrittivo (media, mediana, variazione, intervallo di

confidenza, ecc.). E’ interessante notare che la classificazione ricavata dalle reti neurali è

generalmente espressa secondo lo schema della logica fuzzy, lungo una scala continua di “grado di

appartenenza” alla classe di riferimento, compresa fra lo 0 (minimo grado di appartenenza) a 1

(massimo grado di appartenenza). In base a questi ragionamenti si potrebbe stabilire un grado di

confidenza per una specifica classificazione adatto ad un singolo paziente, superando il dogma per

il quale si esclude la possibilità di fare deduzioni statistiche quando il campione è composto da un

solo soggetto.

16

Reti neurali e imaging diagnostico

Senza alcun dubbio il campo della medicina che ha ricevuto il massimo contributo dall’introduzione

delle reti neurali è la radiologia.

I sistemi di rilevazione e diagnosi computerizzati (Computer Aided Detection and Diagnosis,

CAD), usano algoritmi proprietari, che sono spesso basati sulle reti neurali, per scansire, elaborare e

classificare immagini. E’ utile distinguere tra:

La rilevazione computerizzata che si applica a situazioni in cui il computer assiste lo

specialista clinico nell’individuare un’anormalità, come nel caso di screening della

mammografia.

Diagnosi computerizzata, che si applica a situazioni in cui il computer assiste lo specialista

clinico nel caratterizzare in una certa classe patologica un’anormalità già individuata, ad

esempio l’identificazione di una lesione come benigna o maligna.

I sistemi CAD attualmente hanno già applicazioni commerciali principalmente nella rilevazione e

diagnosi del cancro nella mammografia a raggi X, La mammografia è stata la prima applicazione

commerciale da quando i sistemi CAD hanno dimostrato la loro capacità di essere rivelatori

sensibili di masse e micro calcificazioni.

Differenti studi hanno dimostrato che i sistemi CAD superano le prestazioni dell’esame manuale

nella corretta classificazione di lesioni benigne, con una sensibilità alle lesioni maligne comparabile

con l’approccio manuale.

In complesso, i sistemi CAD migliorano la prestazione dei radiologi nella diagnosi.

La CAD è usato da un crescente numero di radiologi come “secondo paio di occhi” nel leggere il

mammogramma di una donna. Analogamente ad un correttore ortografico sul personal computer, la

tecnologia CAD ha il potenziale di rivelare anormalità che altrimenti potrebbero sfuggire durante

l’esame, aumentando così la possibilità di rilevazione del cancro. La tecnologia CAD è

specialmente efficace nell’identificare le calcificazioni, alcune delle quali possono essere cancerose.

La CAD per la mammografia rileva il 30% dei cancri che non vengono individuati nella valutazione

iniziale e sta funzionando come secondo lettore in molte istituzioni ospedaliere.

Questa tecnologia è al presente sotto studio o sviluppo anche per altri campi clinici (per esempio

cancro al polmone e al colon) e per altre tecnologie di diagnosi per immagini (per esempio

tomografia computerizzata, risonanza magnetica)

La CAD migliora la prestazione di un radiologo preso individualmente e riduce la variabilità che si

verifica dopo lunghi periodi di lavoro. Ci si aspetta che la CAD, col tempo, diventi più accurato e

copra un più vasto spettro di applicazioni. Diventeranno di routine applicazioni che siano capaci di

manipolare le varie componenti dell’immagine per mettere in luce caratteristiche sfuggenti in una

normale presentazione.

In sintesi, la CAD costituisce già adesso una realtà importante e già al presente fornisce una

apprezzabile rete di sicurezza permettendo ai radiologi di leggere immagini del torace e dei polmoni

più velocemente e più accuratamente.

Ci dovremmo aspettare che la funzionalità e l’accuratezza dei sistemi CAD migliorino

drammaticamente in pochi anni a venire e che diventino parte degli strumenti standard disponibili

a supporto dei radiologi su tutti i sistemi futuri. Appena questi sistemi si svilupperanno, si può

prevedere che il ruolo del radiologo cambierà e che il personale sanitario tecnico possa iniziare ad

essere coinvolto nella valutazione delle immagini

Alcune nuove scoperte matematiche realizzate nel Centro Ricerche Semeion promettono di

cambiare la comprensione di fenomeni complessi visuali del mondo che ci circonda attraverso una

nuova forma di computer vision e contemporaneamente permettono alla computer vision di

apprezzarle a pieno.

17

La teoria dei quanti ci dice che una buona parte delle grandezze fisiche possono assumere soltanto

valori multipli di quantità di base indivisibili, i quanti appunto. Per esempio l’energia della luce in

un certo colore deve essere un multiplo di una certa piccola quantità di energia, a cui corrisponde

l’energia di un singolo fotone con quel colore. Analogamente i livelli di energia di un atomo sono

disposti come pioli di una scala, con gli elettroni che possono occupare solo alcune orbite discrete,

corrispondenti ad un ben definito spettro di possibilità.

Inizialmente Plank non vide molto al di là della porta che egli stesso aveva sfondato con la sua

scoperta, considerata dapprima solo una trovata ingegnosa in grado di riprodurre fedelmente i

dati osservati. Anzi, per anni cercherà invano di recuperare l'ipotesi dei quanti dalla fisica classica,

dove l'energia e tutte le grandezze variano con continuità.

Il fatto che i fotoni, responsabili in ultima analisi dell’intensità della luce rappresentino se stessi per

pacchetti quantici non è irrilevante.

I sistemi adottati nel moderno imaging digitale per rappresentare gli effetti della luce si basano su

rappresentazioni dell’intensità luminosa che sono scalate su sistemi di numerazione del tutto

arbitrari es. 0-255 per sistemi a 8 bit ( 2 elevato alla ottava = 256) o 0-4095( due elevato alla

dodicesima= 4096) per sistemi a 12 bit. Non impressioniamoci dei numeri dispari 255 e 4095 ma

purtroppo gli informatici iniziano a contare da zero.

L’imaging analogico ( es. quello della semplice fotografia su film) potrebbe anch’esso soffrire dello

stesso problema e lo stesso potrebbe avvenire nell’occhio umano ma su questo è necessario ancora

riflettere.

E’ facile immaginare che dal momento il valore numerico del singolo quanto luminoso determinato

da Plank non è un intero, la scalatura utilizzata dai sistemi informatici vigenti non è in grado di

rappresentare fedelmente la realtà, portandosi dietro inevitabilmente il problema di “resti” di

divisioni in cui solo il quoziente è onorato. Ne deriva che il debito accumulato crea una sorta di

rumore di fondo che tende a mascherare la vera natura della luce.

Una delle grandi attrattive dei sistemi ACM è che agiscono in un modo strano, come se

svincolassero il valore della scala dei grigi di ogni singolo pixel dalla costrizione matematica a cui

è stato sottoposto da una becera omologazione internazionale, permettendogli di assumere valori

più vicini a quelli reali.

L’utilità della matematica è un tratto caratterizzante dell’indagine scientifica sul mondo; anzi si

identifica con essa. A partire da Galileo, attraverso Newton sino ad Einstein l’idea che le descrizioni

scientifiche del mondo non sono niente più e niente di meno che descrizioni matematiche era ormai

qualcosa di assolutamente presente nella coscienza scientifica mondiale.

Mentre le nostre indagini si allontanano sempre di più dall’ambito dell’esperienza umana diretta,

scopriamo che le descrizioni matematiche che ci servono diventano sempre più astratte ma anche

più precise, più astruse ma anche più accurate; se osserviamo da vicino il rapporto tra matematica e

una scienza esatta come la fisica scopriamo che si tratta di un rapporto di simbiosi. Esistono esempi

sorprendenti di come alcuni studiosi abbiano scoperto intricate strutture matematiche senza

prendere minimamente in considerazione la possibilità di applicarle praticamente nell’ambito di

altre scienze, per poi scoprire che le loro creazioni corrispondevano esattamente a quello che

serviva per spiegare qualche strano fenomeno che si verificava nel mondo e , in seguito, a predirne

di nuovi.

Ecco di seguito alcuni di altri esempi rappresentativi dell’uso di formule matematiche già pronte:

L’utilizzazione fatta da Keplero della teoria di Apollonio sulla geometria dell’ellisse per descrivere

il moto dei pianeti; l’uso degli spazi di Hilbert come base per la teoria dei quanti; l’uso della teoria

dei gruppi nella fisica delle particelle elementari; l’applicazione di alcuni inquietanti aspetti della

struttura delle “varietà complesse” allo studio delle superstringhe nell’ambito della fisica delle

particelle. Questi sono alcuni esempi di come la nuova fisica sia stata resa possibile dalla pre-

esistenza di una matematica appropriata. Gli esempi della tendenza opposta sono invece più rari.

18

Lo sviluppo da parte di Fourier della serie omonima per lo studio dell’ottica ondulatoria e l’idea di

un “attrattore strano” di tipo caotico a partire dal desiderio di comprendere la dinamica non lineare

del tempo meteorologico da parte di Lorenz sono indubbiamente rimasti nella storia.

Una delle grandi novità di questi sistemi ACM è il fatto che il loro inventore, Massimo Buscema è

stato “costretto” ad ideare equazioni originali per raggiungere lo scopo che si era prefissato: vedere

l’invisibile.

Figura 9: Angiografia a sottrazione digitale con mezzo di

contrasto

Al momento dell’intervento

chirurgico si riscontra una

altra stenosi che l’esame

angiografico non aveva

messo in evidenza;

ACM sarebbe stato in

grado di evidenziarla

Stenosi nota

Come esemplificazione della potenza introspettiva di questi sistemi viene qui riportato un caso

clinico paradigmatico: si tratta di una agiografia a raggi X con mezzo di contrasto della arteria

poplitea effettuata per pianificare un intervento chirurgico di dilatazione di un restringimento

responsabile di fenomeni ischemici dell’arto inferiore di un paziente maschio forte fumatore.

L’immagine originale è raffigurata nella figura 9.

Come è visibile dalla figura 10 La stessa immagine sottoposta al sistema ACM da origine ad una

informazione nuova e del tutto inattesa con la presenza di un secondo restringimento più a valle che

era invisibile con il metodo radiologico tradizionale.

19

Figura 10: Angiografia – ACM. Immagine rielaborata con ACM. La freccia indica la nuova stenosi evidenziata

Conclusioni

Sulla base delle considerazioni sopra esposte e sulla esperienza raccolta dalla applicazione delle reti

neurali in campo medico, ci sembra possibile confermare che le metodiche di intelligenza artificiale

rappresentano oggi una nuova potente metodologia di analisi dei dati clinici che trovano la loro

ragione d’essere in tutti i contesti, come la pediatria, nei quali:

le decisioni mediche devono tenere conto di una multifattorialità che può cambiare nel tempo

le decisioni devono modellarsi sul singolo caso

sia sensato sfruttare al massimo l’esperienza accumulata e l’informazione contenuta nelle Basi

Dati

l’evoluzione temporale delle patologie coinvolte segua un andamento lineare o sia spesso

irregolare.

L’uso delle reti neurali artificiali, degli algoritmi evolutivi e di altri sistemi di “intelligenza

artificiale” rappresenta una grande opportunità per il clinico e in particolare per il pediatra: dall’uso

estensivo di queste metodologie possiamo aspettarci di essere in grado di sfruttare pienamente tutta

l’informazione esistente nell’enorme quantità di dati raccolti in campo sanitario, per comprendere le

regole sfumate sottostanti a problemi clinici sempre più complessi. Vi è anche una concreta

possibilità di arrivare finalmente ad una statistica nuova che permetta di trarre conclusioni su base

individuale e non in termini di appartenenza ad un gruppo. Questo per la diagnosi ma soprattutto

per la prognosi, con evidenti enormi vantaggi sia per il clinico che per il paziente.

20

Letture consigliate

Horton R. The refiguration of medical thought. Commentary. The Lancet 2000; 356: 2- 4.

Kaplan D, Glass L. Understanding nonlinear dynamics. Springer-Verlag, New York 1995.

Philippe P, Mansi O. Nonlinearity in the epidemiology of complex health and disease processes.

Theor Med Bioeth 1998; 19:591-607.

Goldberger AL. Nonlinear dynamics for clinicians: chaos theory, fractals,

and complexity at the bedside. Lancet 1996;347:1312­4.

Glass L. Syncronization and rhythmic processes in physiology. Nature 2001; 410: 277-284

Kroll MH. Biological variation of glucose and insulin includes a deterministic chaotic component.

Biosystems 1999;50:189­201.

Sardar Z, Abrams I. Introducing chaos. Cambridge: Icon Books, 1998.

Baum M, Chaplain MAJ, Anderson ARA, Douek M, Vaidya JS. Does breast cancer exist in a state

of chaos? Point of view. Euro J Cancer 1999; 35: 886-91.

Goodwin J. Chaos and the limits of modern medicine. JAMA 1997; 278:1399-1400.

Firth WJ. Chaos, predicting the unpredictable. BMJ 1991; 303:1565-1568

Griffiths F, Byrne D. General practice and the new science emerging from the theories of “chaos”

and complexity. Discussion Paper. British J Gen Practice 1998; 48:1697-9.

Golberger AL, Amaral LAN, Hausdorff JM, Ivanov PC, Peng CK, Stanley HE. .Fractal Dynamics in physiology: alterations with disease and aging PNAS 2002; 99 2466-2472

Wilson T,Holt T. Complexity and clinical Care. Br. Med.J. 2001;323:685-8

Plsek P, Greenhalgh T. The challenge of complexity in health care. BMJ

2001;323:0­0.

Hopkins CB, Suleman J, Cook C. An artificial neural network for the electrocardiographic

diagnosis of left ventricular hypertrophy. Crit Rev Biomed Eng 2000; 28: 435-8.

Page MP, Howard RJ, O’Brien JT, Buxton-Thomas MS, Pickering AD. Use of neural networks in

brain SPECT to diagnose Alzheimer’s disease. J Nucl Med 1996; 37: 195-200.

Finne P, Finne R, Auvinen A, Juusela H, Maattanen L, Hakama M, Rannikko S, Tammela TL,

Stenman U. Predicting the outcome of prostate biopsy in screen-positive men by a multiplayer

perception network. Urology 2000; 56: 418-22.

21

Mecocci P, Grossi E, Buscema M, Intraligi M, Savare R, Rinaldi P, Cherubini A, Senin U.

Use of Artificial Networks in Clinical Trials: A Pilot Study to Predict Responsiveness to Donepezil

in Alzheimer's Disease. J Am Geriatr Soc 2002 Nov;50(11):1857-1860

Andriulli A, Grossi E, Buscema M,Festa V, Intraligi M, Dominici P, Cerutti R, Perri F

Contribution of artificial neural networks to the classification and treatment of patients with

uninvestigated dyspepsia Digestive and Liver Diseases 35: 222-231 ( 2003)

T. W. Vomweg M. Buscema H. U. Kauczor,A. Teifke M. Intraligi, S. Terzi C. P. Heussel, T.

Achenbach, O. Rieker, D. Mayer,M. Thelen

Improved artificial neural networks in prediction of malignancy of lesions in contrast-enhanced

MR-mammography Med. Phys. 30 (9) , September 2003: 2350-2359

Steimann F On the use and usefulness of fuzzy sets in medical Artificial Intelligence. Artificial

intelligence in medicine 2001; 21: 131-137

Zadeh KS The fuzzy revolution: Goodbye to the Aristotelian Weltanschauung. Artificial

intelligence in medicine 2001; 21: 1-25

Greenhalgh T, Hurwitz B.Narrative based medicine: why study narrative? BMJ. 1999 Jan

2;318(7175):48-50.

“Siamo ignoranti eppure

dobbiamo agire. Per agire non abbiamo

il tempo sufficiente a dissipare la nostra

ignoranza. D'altro canto, una simile

ricerca richiederebbe un tempo infinito.

Dobbiamo dunque deciderci senza

sapere”

Jules Henri Poincarè (1854-1912)

(da "La scienza e l'ipotesi")