S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini...
Transcript of S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini...
UNIVERSITÀ DEGLI STUDI DI NAPOLI
“PARTHENOPE”
FACOLTÀ DI SCIENZE E TECNOLOGIE
Corso di laurea in
SCIENZE NAUTICHE
TESI DI LAUREA
ESTRAZIONE AUTOMATICA DI ELEMENTI PER
L’AGGIORNAMENTO CARTOGRAFICO DA IMMAGINI TELERILEVATE
Relatori Candidato Chiar. Prof. Raffaele Santamaria Sebastiano Ackermann Matr. SN/599 Chiar. Prof. Salvatore Troisi
Anno Accademico 2005/2006
Indice
INTRODUZIONE 1 CAPITOLO 1 TELERILEVAMENTO: PRINCIPI BASE
1.1 - CENNI STORICI 3
1.2 - PRINCIPI FISICI 5 1.2.1 - GRANDEZZE RADIOMETRICHE 5
1.2.2 - LO SPETTRO ELETTROMAGNETICO 8
1.2.3 - FIRMA SPETTRALE 9
1.3 - SATELLITI PER IL TELERILEVAMENTO, SENSORI E DATI 12 1.3.1 - MEMORIZZAZIONE E VISUALIZZAZIONE DI IMMAGINI DIGITALI 12
1.3.2 - TELERILEVAMENTO SATELLITARE: IL SISTEMA DI OSSERVAZIONE DELLA TERRA 19
1.3.2.1 - IL BUS 19
1.3.2.2 - IL PAYLOAD 20
1.3.2.3 - SEGMENTO TERRESTRE 23
1.3.3 - CLASSIFICAZIONE TECNOLOGICA DEI SENSORI 25
1.3.3.1 - SENSORI OTTICI D’IMMAGINE 26
1.3.4 - PRINCIPALI PIATTAFORME IN USO PER IL TELERILEVAMENTO 32
1.3.4.1 - MISSIONI LANDSAT 32
1.3.4.2 - MISSIONI SPOT 35
1.3.4.3 - MISSIONI IKONOS 37
1.3.4.4 - MISSIONI QUICKBIRD 37
1.3.4.5 - MISSIONI EROS 38
CAPITOLO 2 ELABORAZIONE ED INTERPRETAZIONE DELLE IMMAGINI
2.1 - INTRODUZIONE 39
2.2 - L’IMMAGINE RASTER (IL DATO) 39
2.3 - PROCEDURE POST-ACQUISIZIONE 41
2.3.1 - CORREZIONI RADIOMETRICHE 42
2.3.2 - CORREZIONI GEOMETRICHE 48
I
Indice
2.3.2.1 - MODELLO GEOMETRICO ORBITALE 51
2.3.2.2 - GEOREFERENZIAZIONE 52
2.3.2.3 - ORTORETTIFICA DI UN’IMMAGINE DIGITALE 53
2.4 - IL RICAMPIONAMENTO 56
2.5 - ELABORAZIONE ED INTERPRETAZIONE DELLE IMMAGINI 58
2.5.1 - POSSIBILI VISUALIZZAZIONI DELL’IMMAGINE SU SCHERMO 59
2.5.2 - MIGLIORAMENTO DEI CONTRASTI MEDIANTE ELABORAZIONI SULLE BANDE 61
2.5.2.1 - IL CONCETTO DI CONTRASTO 61
2.5.2.2 - CONTRAST STRETCHING 61
2.5.2.3 - I FILTRI MEDIANTE FINESTRE MOBILI 63
2.5.2.4 - OPERAZIONI ALGEBRICHE TRA BANDE 66
2.5.2.5 - ANALISI DELLE COMPONENTI PRINCIPALI 67
CAPITOLO 3 SEGMENTAZIONE OBJECT-ORIENTED: IL SOFTWARE ECOGNITION®
3.1 - INTRODUZIONE 72
3.2 - LA SEGMENTAZIONE 73
3.3 - IL SOFTWARE ECOGNITION® 75
3.3.1 - PRINCIPI BASE DI FUNZIONAMENTO 75
3.3.2 - CARICAMENTO DELLE IMMAGINI 77
3.3.3 - MULTIRESOLUTION SEGMENTATION 79
3.3.3.1 - LIVELLI DI SEGMENTAZIONE CORRELATI 81
3.3.4 - CLASSIFICAZIONE 83
3.3.4.1 - NEAREST NEIGHBOR E STANDARD NEAREST NEIGHBOR 84
3.3.4.2 - LA LOGICA FUZZY 85
3.3.4.3 - CREAZIONE DELLE CLASSI 88
3.3.5 - LA VETTORIALIZZAZIONE DEGLI OGGETTI IMMAGINE 91
CAPITOLO 4 APPLICAZIONE DI ECOGNITION
® PER AGGIORNAMENTO CARTOGRAFICO: METODOLOGIE A CONFRONTO
4.1 - INTRODUZIONE 94
II
Indice
4.2 - DATI UTILIZZATI 94
4.3 - APPLICAZIONE DI ECOGNITION® 96
4.3.1 - 1a FASE: SEGMENTAZIONE 96
4.3.2 - 2a FASE: SCELTA DELLE FEATURES E CLASSIFICAZIONE 97
4.3.3 - 3a FASE: CONFRONTO CON CARTOGRAFIE PRECEDENTI E SEGNALA-ZIONE AUTOMATICA DI “MAN-MADE OBJECTS” 103
4.4 - UN METODO ALTERNATIVO DI CHANGE DETECTION MEDIANTE CONFRONTO TRA IMMAGINI DI EPOCHE DIFFERENTI 110
4.5 - CONCLUSIONI FINALI ED IPOTESI DI MIGLIORAMENTO 111
BIBLIOGRAFIA 113
RINGRAZIAMENTI 117
III
Introduzione Nel telerilevamento si fa uso di strumenti, o sensori, in grado di “catturare” le relazioni
spaziali e spettrali di elementi osservabili tipicamente dall’alto. Tutti noi siamo abituati a
guardare e ad esplorare il nostro pianeta, o meglio ciò che ci circonda, da un punto di vista
più o meno orizzontale vivendo sulla superficie del pianeta stesso: la limitazione dovuta alla
linea dell’orizzonte e ancor di più alla presenza di oggetti “ostacoli” quali edifici, alberi e la
stessa morfologia variabile del pianeta, fa si che la nostra vista sia ristretta a piccole aree. Ta-
le limite tende a diminuire nel momento in cui il punto di vista di un osservatore si eleva in
quota: osservando a 360° dalla cima di un grattacielo o di una montagna, la nostra visuale
aumenta si ampia notevolmente. Ma se prima il telerilevamento veniva inteso come un insie-
me di tecniche capaci di estendere e migliorare le capacità percettive dell’occhio umano, oggi
tale definizione sarebbe quasi inaccettabile: le moderne tecniche di tale disciplina, grazie an-
che all’immissione graduale nello spazio di satelliti artificiali orbitanti attorno alla Terra, avu-
tasi a partire dalla seconda metà del secolo scorso (fu l’avvento dello Sputnik nel 1957 difatti
a rendere possibile il montaggio delle prime macchine da presa su navicelle spaziali), hanno
ampliato il campo di indagine ben oltre le informazioni legate allo spettro elettromagnetico.
Oggi il telerilevamento, grazie all’esistenza di una grande quantità di strumenti, che si diffe-
renziano a seconda del loro utilizzo, ha rivoluzionato tutte quelle discipline che fanno parte
delle scienze della Terra, comprendendo tecniche di analisi della radiazione elettromagnetica
e dei campi di forze finalizzate ad acquisire ed interpretare dati geospaziali presenti sulla su-
perficie terrestre, negli oceani e nell’atmosfera [www.geotecnologie.unisi.it].
L’applicazione del satellite al telerilevamento del territorio in particolare, e il progresso
che ha portato al perfezionamento di sensori a più alte risoluzioni e di diverse tipologie, sta
trovando spazio anche per alcune applicazioni di competenza della fotogrammetria dei lonta-
ni, fino ad ora limitate all’utilizzo di riprese con sensori aerotrasportati. Così anche il campo
della cartografia, e di tutte quelle discipline atte alla rappresentazione del territorio, sta a-
prendo i propri orizzonti al telerilevamento satellitare, tecnica che sta profondamente cam-
biando i metodi di acquisizione di informazioni metriche e tematiche sull’ambiente e sul ter-
ritorio rendendo possibile l’utilizzo di tali informazioni anche per rappresentazioni cartogra-
fiche a media e grande scala.
1
Introduzione
Lo scopo di questo lavoro è quello di sperimentare una tecnica di estrazione semi-
automatica di oggetti (fondamentalmente strutture ad opera dell’uomo), tramite una nuova
metodologia di segmentazione ad oggetti (detta anche object-oriented o object-based), e suc-
cessiva classificazione, applicata ad un’immagine telerilevata ed ortorettificata, al fine di po-
ter ottenere un aggiornamento di una cartografia a scala nominale 1:5000.
A tal proposito, si è fatto uso di una particolare tecnica di classificazione, la logica fuzzy
(o logica sfumata), un’estensione della logica booleana che si basa sul concetto di “grado di
appartenenza”: secondo tale logica, non si ha più a che fare con proprietà assolutamente vere
(= al valore 1) o assolutamente false (= al valore 0) come nella logica classica appunto, ma si
vanno a considerare anche valori intermedi di appartenenza, che quindi vanno ad identificare
in che percentuale una proprietà possa o meno essere vera.
Il software Ecognition®, realizzato dalla DEFINIENS-IMAGING®, utilizzato per questa
sperimentazione, mette a disposizione dell’utente numerosi strumenti, oltre alla già citata lo-
gica Fuzzy, che verranno via via descritti: l’algoritmo base che si cela dietro questo software
pone le sue fondamenta sull’idea che l’informazione semantica, necessaria all’interpretazione
dell’immagine, non venga più data dal singolo pixel che compone l’immagine bensì da ogget-
ti che compongono l’immagine e dalla loro mutua connessione. Ciò è possibile grazie al fatto
che Ecognition® non classifica mediante la teoria del pixel-based, ma piuttosto, come già ac-
cennato prima, classifica oggetti basandosi anche sulla loro omogeneità.
Dopo una breve trattazione sui principi base del telerilevamento e della fotogrammetria,
ed una esplicativa sezione riguardante la logica fuzzy ed il funzionamento del software, si
presenterà un’applicazione effettuata con l’ausilio di tale software che consentirà di verificare
i risultati, i pro e i contro delle procedure utilizzate e di fare un quadro delle situazioni ottima-
li che possano in qualche modo rendere più efficiente tale tecnica.
2
Capitolo 1 TELERILEVAMENTO: PRINCIPI BASE
1.1 - CENNI STORICI
Il termine telerilevamento deriva dall’unione della parola greca têle, ovvero “da lontano”,
e dal termine rilevamento, che di norma indica un processo di acquisizione di informazioni
[Dermanis et al., 2002]. Da un punto di vista puramente etimologico, tale definizione, che
appare abbastanza generica, porta ad una naturale associazione del telerilevamento ad una
qualsivoglia metodologia di indagine scientifica; nella sua accezione più usuale però, il ter-
mine viene usato per indicare tutti i metodi che riguardano l’osservazione della Terra, metodi
che si rendono attuabili grazie alla radiazione elettromagnetica, principio fisico basilare gra-
zie al quale viaggiano le informazioni dall’oggetto di indagine al sensore.
Figura 1.1.1 - Immagine d’epoca di una mongolfiera equipaggiata con una camera fotografica
Si può dire che il telerilevamento ha inizio nel 1840, quando le mongolfiere acquisirono le
prime immagini del territorio con la camera fotografica appena inventata, primo sensore nella
3
Capitolo 1 Telerilevamento: principi base
storia ad avere la capacità di “raccogliere” su di un supporto sensibile le informazioni sulle
caratteristiche del terreno per mezzo della radiazione elettromagnetica (nella parte visibile
dello spettro elettromagnetico). Probabilmente alla fine dell’ultimo secolo la piattaforma più
nuova era la rinomata flotta di piccioni che operava come novità in Europa (vedi Figura
1.1.2).
Figura 1.1.2 - Piccioni adoperati per riprese aeree con camere fotografiche
La fotografia aerea diventò uno strumento riconosciuto durante la Prima Guerra Mondiale
e lo fu a pieno durante la Seconda: allo scopo di facilitare la produzione di carte tematiche,
furono introdotte, negli anni a seguire, le pellicole sensibili all’infrarosso (la Kodak commer-
cializzò questo tipo di pellicola a partire dal 1953) oppure si applicavano filtri davanti
all’obiettivo della camera da presa per poter osservare le singole bande dello spettro visibile.
L’entrata ufficiale dei sensori nello spazio cominciò con l’inclusione di una macchina fo-
tografica automatica a bordo dei missili tedeschi V-2 lanciati dalle White Sands (New Mexi-
co). Il 4 Ottobre 1957 e il 12 Aprile 1961 due eventi nella storia della conquista dello spazio
hanno indirettamente rivoluzionato anche il telerilevamento: il lancio dello SPUTNIK, il pri-
mo satellite nello spazio, e di Jurij Gagarin, il primo uomo nello spazio; gli esiti positivi di
queste due missioni resero successivamente possibile il montaggio di macchine da ripresa su
navicelle in orbita, ma furono proprio i primi cosmonauti ed astronauti a documentare con ri-
4
Capitolo 1 Telerilevamento: principi base
prese dallo spazio la circumnavigazione del globo. I sensori che acquisivano immagini in
bianco e nero sulla Terra furono montati su satelliti meteorologici a partire dal 1960. Altri
sensori sugli stessi satelliti potevano poi eseguire sondaggi o misure atmosferiche su una ca-
tena di rilievi.
Ma fu il lancio del primo dei sette satelliti LANDSAT (LAND SATellite) di proprietà della
statunitense NASA (National Aeronautic and Space Administration) che segnò la nascita del tele-
rilevamento moderno così come oggi lo intendiamo: lanciato il 23 Luglio 1972, fu il primo
satellite espressamente dedicato al monitoraggio di terre e oceani allo scopo di mappare risor-
se culturali e naturali. Dal 1986 anche la Francia, con la famiglia di satelliti SPOT (Satellite
Probatoire d’Observation de la Terre), entra appieno nel telerilevamento satellitare, ed oggi,
come una fitta ragnatela invisibile, circa un centinaio di satelliti orbitano intorno alla Terra,
parte dei quali espressamente dedicati al rilievo ed allo studio del nostro pianeta, ovvero al
telerilevamento.
Per “osservazione della Terra”, in questo contesto andremo ad indicare l’osservazione e
l’interpretazione delle diverse coperture della superficie terrestre; tale osservazione contiene
intrinsecamente due tipi di informazione: una di tipo qualitativa, che riguarda la tipologia di
copertura, ed una di tipo geometrica, che riguarda la posizione, la forma e i contorni delle di-
verse entità della copertura. L’analisi di quest’ultima informazione è propria della disciplina
della Fotogrammetria.
1.2 - PRINCIPI FISICI
1.2.1 - GRANDEZZE RADIOMETRICHE
In telerilevamento le informazioni riguardanti oggetti distanti vengono ricostruite median-
te la misura della radiazione elettromagnetica, riflessa o emessa dagli oggetti stessi, per mez-
zo di appropriati sensori, i quali registrano l’energia incidente convertendola in un segnale
elettrico: i sensori possono trovarsi ad una distanza che va da pochi metri dall’oggetto osser-
vato (Proximal Sensing) fino a migliaia di chilometri (Remote Sensing), come nel caso di os-
servazioni effettuate da satelliti geostazionari (circa 36˙000 Km di quota).
Nell’esempio esplicativo di figura 1.2.1, si nota come qualcosa di fisico (la luce) viene
emesso dallo schermo (che in tal caso è una “sorgente di radiazioni”), e attraversa lo spazio
fino a quando non incontra un sensore (gli occhi) che cattura tale radiazione da una certa di-
5
Capitolo 1 Telerilevamento: principi base
stanza e successivamente invia un segnale ad un processore (il cervello) che lo elabora e lo
interpreta.
In effetti, tutte le sensazioni che non sono indotte da contatto diretto (non solo la vista
quindi) sono frutto di un rilevamento a distanza (telerilevamento appunto).
Figura 1.2.1 - L’occhio umano che osserva uno schermo di un computer o di una televisione è un esempio molto comune di telerilevamento [www.planetek.it].
INSERIRE FIGURA RADIAZIONE EM
Figura 1.2.2 - Propagazione della radiazione elettromagnetica
6
Capitolo 1 Telerilevamento: principi base
La radiazione EM è un fenomeno ondulatorio dovuto alla contemporanea propagazione di
un campo elettrico e di un campo magnetico, oscillanti in piani mutuamente ortogonali, che si
propagano attraverso lo spazio con velocità pari alla velocità della luce c
( 8 m = 299,73 10 sc ⋅ ) (vedi Figura 1.2.2).
Definire un’onda significa definire i parametri caratteristici della stessa, che sono:
• ν = frequenza [Hz]: numero di oscillazioni dell’onda effettuate in un secondo;
• λ = Lunghezza d’onda [m]: distanza percorsa dall’onda durante un tempo di oscilla-
zione, che corrisponde alla distanza tra due massimi o due minimi dell’onda;
• T = Periodo [s]: tempo necessario affinché un ciclo completo di oscillazione venga
completato.
La lunghezza d’onda è legata alla frequenza dalla relazione:
λc λνT
= =
In ultimo vengono proposte, in breve, quelle che vengono chiamate grandezze radiome-
triche, cioè grandezze base che servono a ben definire la radiazione elettromagnetica (EM):
• Q = Energia radiante (radiant energy) [Joule]: è l’energia trasportata da un qualun-
que campo di radiazione elettromagnetica;
• P = Flusso radiante (radiant flux) [Watt]: è l'energia radiante nell'unità di tempo; è
considerata la grandezza radiometrica fondamentale, sulla base della quale sono defi-
nite tutte le grandezze successive;
• M = Emettenza radiante (radiant exitance) [Watt/m2]: è il flusso radiante emesso da
una sorgente estesa per unità di area;
• E = Irradianza (irradiance) [Watt/m2]: è il flusso radiante incidente su una superficie
per unità di area;
• I = Intensità radiante (radiant intensity) [Watt/sr] (1): è il flusso radiante emesso da
una sorgente puntiforme in una certa direzione per unità di angolo solido;
(1) - La sigla sr sta per “steradiante”. Tale unità di misura sta ad indicare l’“angolo solido”, cioè l’angolo tridimensionale.
L’angolo solido è definito come la porzione di spazio compresa tra tre o più piani che convergono in un punto. Se si hanno infiniti piani si crea un cono, un altro semplice esempio è fornito dal vertice della piramide. L’area della superficie della sfera compresa tra i piani è l’angolo solido. Lo steradiante in definitiva rappresenta un’area.
7
Capitolo 1 Telerilevamento: principi base
• L = Radianza (radiance) [(Watt/m2)/sr]: è il flusso radiante emesso da una sorgente
estesa per unità di angolo solido e per unità di area proiettata su un piano normale al-
la direzione considerata.
1.2.2 - LO SPETTRO ELETTROMAGNETICO
L’insieme di tutte le possibili lunghezze d’onda costituisce lo spettro della radiazione e-
lettromagnetica o spettro elettromagnetico: come si può notare dalla figura 1.2.3 tale spettro
viene suddiviso in più regioni spettrali distinte, il cui nome deriva da ragioni fisiche o da ra-
gioni legate alla percezione umana.
Figura 1.2.3 - Spettro elettromagnetico [http://kingfish.coastal.edu]
È interessante notare come la regione dello spettro visibile (VIS), limitata tra 0,35 μm e
0,75 μm, sia una zona relativamente piccola rispetto a tutto lo spettro elettromagnetico, ed an-
che l’unica regione percepibile dall’occhio umano senza ausilio di strumenti specifici: sulla
base di tale considerazione viene naturale pensare che ciò che ci appare sia relativamente po-
co rispetto a ciò che esiste ed è invisibile al nostro occhio; i sensori in uso nel telerilevamento
permettono invece di ampliare le nostre capacità percettive, estendendole a quello che viene
8
Capitolo 1 Telerilevamento: principi base
detto “campo dell’invisibile”. Le singole parti dello spettro visibile sono percepite dall’uomo
in termini dei diversi colori dell’arcobaleno, che variano dalle lunghezze d’onda più piccole
(violetto), alle lunghezze d’onda maggiori (rosso).
In tabella 1.2.1 sono riportate le diverse bande in cui è suddivisa la regione del visibile.
NOME BANDA Limiti banda [μm] VIOLETTO 350 - 455 BLU 455 - 492 VERDE 492 - 577 GIALLO 577 - 597 ARANCIO 597 - 622 ROSSO 622 - 750
Tabella 1.2.1 - Suddivisione dello spettro visibile
La regione di lunghezza d’onda inferiore al violetto, compresa tra 0,01 μm e 0,35 μm, è
chiamata ultravioletto (UV), quella a lunghezza d’onda superiore al rosso, compresa tra
0,75 μm e 1000 μm, è chiamata infrarosso (IR): la componente dell’infrarosso a maggior lun-
ghezza d’onda utilizzata in telerilevamento, che varia tra 7 μm e 15 μm, è dovuta
all’emissione termica di corpi “caldi” (2) ed appartiene a quello che si chiama all’infrarosso
termico. Procedendo nel senso crescente della lunghezza d’onda abbiamo quindi in sequenza:
raggi gamma, raggi X, ultravioletto, visibile (violetto, blu, verde, giallo, arancio, rosso), in-
frarosso (vicino, medio, lontano), microonde, onde radio.
1.2.3 - FIRMA SPETTRALE
Prima di definire questo nuovo concetto, di rilevante importanza nel campo del telerile-
vamento, è bene fare una premessa sulle interazioni tra una superficie S e le radiazioni elet-
tromagnetiche su di essa incidenti.
Siano quindi:
• Ei = Energia incidente sulla superficie S
• Er = Energia riflessa dalla superficie S
• Ea = Energia assorbita dalla superficie S
(2) - Per corpi “caldi” si intendono tutti quei corpi che abbiano una temperatura superiore allo zero assoluto
( ): un tale corpo emette radiazioni elettromagnetiche proprie che dipendono dalla temperatura del corpo stesso, seguendo la legge di “Stefan - Boltzmann”.
0 K 273,14 C° = − °
9
Capitolo 1 Telerilevamento: principi base
• Et = Energia trasmessa dalla superficie S
Figura 1.2.4 - Composizione dell’energia
L’energia incidente Ei sarà quindi in parte riflessa, in parte assorbita e in parte trasmessa
secondo lo schema in figura 1.2.4 e in funzione di tre coefficienti (o parametri) che dipendo-
no strettamente dalla natura fisica delle superfici e dal loro grado di rugosità o di lucidatura:
1. Coefficiente di riflessione (riflettività): r
i
Eρ E= 0 1ρ≤ ≤
2. Coefficiente di trasmissione (trasmittività): t
i
Eτ E= 0 1τ≤ ≤
3. Coefficiente di assorbimento (assorbività): a
i
Eα E= 0 1α≤ ≤
Si tenga presente che per la conservazione dell’energia in condizioni di equilibrio, si ha
i r aE E E Et= + +
e di conseguenza
1ρ α τ+ + =
Una generica superficie può riflettere, ad esempio, molto nella luce verde e poco nella
10
Capitolo 1 Telerilevamento: principi base
luce rossa e blu: in questo caso la superficie illuminata con luce bianca, apparirà come essen-
zialmente verde.
Dalla composizione delle varie percentuali con cui una superficie riflette le luci blu, verde,
rossa nasce il cosiddetto colore della medesima: una superficie bianca rifletterà bene sia il
rosso che il verde e blu. Per ogni superficie si può perciò costruire un grafico bidimensionale
che da informazioni sulle sue capacità di riflessione in funzione della lunghezza d’onda della
radiazione incidente: questo grafico, caratteristico di ogni superficie, viene chiamato firma
spettrale (o curva spettrale).
Figura 1.2.5 - Firma spettrale di alcuni materiali determinata medianti analisi in laboratorio
Questa importante proprietà della materia consente l’identificazione e la separazione di
diverse sostanze o classi proprio attraverso le loro firme spettrali (curve spettrali) come mo-
strato in figura 1.2.5: per esempio la sabbia rossa riflette meglio alle lunghezze d’onda del vi-
sibile rispetto alle lunghezze che occupano l’infrarosso, mentre un terreno erboso riflette mol-
to di più alle lunghezze d’onda dell’infrarosso.
È bene tener presente comunque, che una firma spettrale non può essere determinata in
termini “assoluti”, e questo è dovuto a due ragioni:
1. Una tipologia di copertura del terreno (ad esempio una classe “foresta”) non può es-
sere univocamente definita da una firma spettrale: a sua volta difatti tale classe inclu-
11
Capitolo 1 Telerilevamento: principi base
derà sicuramente tipologie differenti di materiali (nel caso della foresta diverse tipo-
logie di alberi) che a loro volta saranno differenziati in base al loro stadio e stato (al-
beri più giovani o più vecchi, alberi incendiati, presenza di malattie, ecc.) nonché in
base alla situazione del terreno (per esempio presenza di terreno umido); questo si-
gnifica che saranno caratterizzati da firma spettrale simile ma non identica. In ogni
caso una classificazione assoluta, ovvero basata sul confronto tra le funzioni di riflet-
tività osservate e una libreria nota a priori di firme spettrali, eventualmente molto
ampia, potrebbe essere un obiettivo realizzabile solo su un pianeta senza atmosfera.
Nel caso della Terra si devono considerare gli effetti atmosferici sulla propagazione
del segnale elettromagnetico: questi, differenti e mutevoli da luogo a luogo e da epo-
ca ad epoca, mascherano le osservazioni di riflettività, e di conseguenza la funzione
di riflettività non può essere ricavata dalle osservazioni del sensore neppure per mez-
zo di ipotetiche correzioni ideali (correzioni radiometriche).
2. Si deve considerare che della funzione ρ(λ) può essere osservata solo una parte in
quanto il sensore preposto a catturare le radiazioni elettromagnetiche a quella banda
di lunghezze d’onda registrerà un dato medio della riflettività in quella banda. A tale
scopo sono stati sviluppati strumenti atti a compiere misure in porzioni molto strette e
contigue dello spettro magnetico (sensori iperspettrali di cui si parlerà in seguito).
L’aumento del numero delle bande comporta un conseguente aumento dei dati da re-
gistrare e del tempo di elaborazione, con inevitabile aumento dei costi, senza dimen-
ticare che il rapporto segnale/rumore diminuisce proporzionalmente con l’ampiezza
della banda: si deve quindi trovare un compromesso opportuno tra larghezza di ban-
da, numero di bande, costo dello strumento e risultati desiderati [Caprioli, 2005].
La classificazione assoluta quindi risulta estremamente difficile, perciò viene in genere
adottata una strategia di classificazione relativa: i pixel caratterizzati da valori osservati di
ρ(λ) simili per le diverse bande dei sensori, vengono raggruppati nella stessa classe.
1.3 - SATELLITI PER IL TELERILEVAMENTO, SENSORI E DATI
1.3.1 - MEMORIZZAZIONE E VISUALIZZAZIONE DI IMMAGINI DIGITALI
Le immagini della superficie terrestre costituiscono il dato fondamentale utilizzato in tele-
rilevamento: esse vengono registrate in formato digitale in modo da poterle memorizzare ed
12
Capitolo 1 Telerilevamento: principi base
analizzare mediante calcolatori. Un’immagine così registrata è in effetti un insieme di numeri
che rappresentano una registrazione rettangolare: la registrazione avviene dividendo la scena
rappresentata in piccoli elementi quadrati di area uguale, chiamati pixel (contrazione di Pictu-
re Element), disposti per righe e colonne.
Figura 1.3.1 - Matrice Immagine
Il modello matematico che descrive un’immagine digitale è una matrice di R righe e C co-
lonne, contenente N R C= × elementi, esattamente quanti sono i pixel (vedi Figura 1.3.1). Il
generico elemento xij della i-esima riga e j-esima colonna contiene il valore del pixel corri-
spondente ed esprime un livello di intensità luminosa o tono di grigio per mezzo di un nume-
ro reale (chiamato Digital Number, o più semplicemente DN) appartenente ad un intervallo
predefinito: il valore più piccolo corrisponde ad assenza di luce, o colore nero, mentre il valo-
re massimo corrisponde a intensità piena o colore bianco.
Per garantire un risparmio di memoria del calcolatore, che adotta il sistema binario, ven-
gono utilizzati solo valori interi: disponendo di k bit per ciascun pixel i valori ammissibili so-
no 2k, dunque l’intervallo di definizione è compreso fra 0 e ( 2 1k − ). Per esempio nel caso di
una memorizzazione a 8 bit, la più comune, i valori interi possibili sono e vanno da
0 (nero) a 255 (bianco), memorizzati rispettivamente come 00000000 (0) e 11111111 (255).
82 256=
13
Capitolo 1 Telerilevamento: principi base
Figura 1.3.2 - Immagine a 8 bit con un ingrandimento che ne mostra la struttura in celle quadrate (pixel) e relativi DN
14
Capitolo 1 Telerilevamento: principi base
Per ogni immagine in formato digitale si può estrapolare un istogramma che rappresenta la
distribuzione dei valori DN per l’intera immagine: per ogni valore di intensità dell’intera
banda, sono riportate delle barrette verticali che rappresentano la frequenza, ovvero il numero
di pixel dell’intera immagine che hanno quel valore di intensità (vedi Figura 1.3.3).
L’istogramma di un’immagine sarà ripreso in seguito quando si parlerà di elaborazione di
immagini, e più precisamente di enhancement.
Figura 1.3.3 - Istogramma dell’immagine in Figura 1.3.2
Un file per la memorizzazione di un’immagine digitale contiene tutti i valori dei pixel che
compongono l’immagine, ma a seconda dell’estensione (la maggior parte di quelle usate in
quest’ambito), può avere alcune informazioni addizionali (metadati) memorizzate in una se-
zione iniziale del file detta intestazione (o header). L’intestazione riporta tutte le in-
formazioni necessarie per ricostruire l’immagine dal file, come il numero di bit utilizzati per
ciascun valore, l’ordine di memorizzazione dei valori, il numero di colonne presenti e talvolta
i parametri orbitali del satellite; essa può inoltre contenere altre informazioni utili per inter-
pretare il contenuto dell’immagine.
15
Capitolo 1 Telerilevamento: principi base
Un’immagine digitale è sempre monocromatica; difatti anche le usuali immagini a colori
(ad esempio in colore RGB), sono ottenute mediante combinazione di tre immagini della stes-
sa scena. In ciascuna di esse è registrata l’intensità luminosa corrispondente a uno dei colori
fondamentali (rosso, verde e blu), i quali possono essere combinati per riprodurre tutti gli altri
colori.
A tale riguardo si noti che, poiché rosso, verde e blu corrispondono a differenti regioni
dello spettro elettromagnetico, in senso lato un’immagine a colori è già un’immagine multi-
spettrale (o multibanda).
Figura 1.3.4 - Struttura di un’immagine multispettrale
Con tale termine si indica un insieme di immagini riferite tutte alla stessa scena e con la
medesima ripartizione in pixel (vedi Figura 1.3.4): ciascuna di esse registra l’intensità della
radiazione solo entro una specifica regione dello spettro o banda spettrale, non necessaria-
mente appartenente a una regione del visibile. Se con B indichiamo il numero totale di bande
che il sensore può percepire, la matrice che identifica l’immagine con tutte le sue bande avrà
dimensioni N R C B= × × con N numero totale di pixel dell’immagine. Nel telerilevamento,
nella maggior parte dei casi, vengono utilizzante le bande nel visibile e nell’infrarosso.
16
Capitolo 1 Telerilevamento: principi base
1 2
3 4
Figura 1.3.5 - Le quattro bande di una scena multispettrale IKONOS (1 = Blu; 2 = Verde; 3 = Rosso; 4 = Infrarosso) e la composizione delle prime 3 bande che danno un’immagine a colori naturali con la sequenza 3,2,1. [Der-manis et al., 2002]
RGB
Il file di un’immagine multispettrale contiene quindi valori kijx per tutte le righe i, per tutte
le colonne j e per tutte le bande k. A seconda dell’ordine di memorizzazione dei pixel si di-
stinguono tre formati:
17
Capitolo 1 Telerilevamento: principi base
1. Band Sequential (BSQ): le bande sono memorizzate in sequenza nel loro ordine natu-
rale (lunghezza d’onda crescente) ed ogni banda è memorizzata riga per riga da sini-
stra a destra con lo stesso ordine di lettura di una pagina (vedi Figura 1.3.6a).
Figura 1.3.6a - Ordine di memorizzazione Band Sequential (BSQ)
2. Band Interleaved by Pixel (BIP): per ciascun pixel sono memorizzati in sequenza i
valori corrispondenti a tutte le bande; anche per questo formato, l’ordinamento dei
pixel segue l’ordine di lettura di una pagina (vedi Figura 1.3.6b).
Figura 1.3.6b - Ordine di memorizzazione Band Interleaved by Pixel (BIP)
18
Capitolo 1 Telerilevamento: principi base
3. Band Interleaved by Line (BIL): è simile al formato BSQ ma la priorità di sequenza è
data alle righe, che sono memorizzate banda per banda; una volta terminata la memo-
rizzazione di una riga, segue la riga successiva (vedi Figura 1.3.6c)
Figura 1.3.6c - Ordine di memorizzazione Band Interleaved by Line (BIL)
1.3.2 - TELERILEVAMENTO SATELLITARE: IL SISTEMA DI OSSERVAZIONE DELLA TERRA
Un sistema di telerilevamento può essere scomposto schematicamente come segue:
1. Segmento Spaziale
1.1 Bus (o piattaforma)
1.2 Payload (o sensore)
2. Segmento Terrestre (stazione per ricevimento, elaborazione ed archiviazione dati).
1.3.2.1 - IL BUS
È la parte principale del satellite: tutti i satelliti necessitano di una piattaforma per soprav-
vivere e svolgere con efficienza le missioni per le quali sono stati progettati. Una piattaforma
è normalmente composta da una serie di sottosistemi che svolgono diverse funzioni e suppor-
tano il carico specifico.
I principali sottosistemi sono:
- TTC (Telecommunication, Tracking and Control Subsystem): fornisce il collegamen-
to radio tra il satellite e la stazione a terra. Questa componente è vitale per scaricare i
dati acquisiti dal satellite, trasmettere i comandi alle altre componenti del satellite e
controllare parametri come temperature, tensione, carburante, stato del carico, ecc.
- OBDH (On Board Data Handling): è l'unità di calcolo di bordo principale.
L’importanza del sottosistema dipende dai requisiti di design del sistema e dalla stra-
19
Capitolo 1 Telerilevamento: principi base
tegia di missione e può essere semplicemente ridotta ad un sottosistema TTC con
funzioni sofisticate come navigazione autonoma ed elaborazione a bordo dei dati
- AOCS (Attitude Overall Control System): è l’insieme di dispositivi che assicurano
stabilità e puntamento al satellite. È composto da componenti per la messa in moto,
ossia ruote inerziali, e sensori, come sensori stellari (Star Tracker) e GPS. Questo
sottosistema è critico per la missione poiché il corretto puntamento determina una
corretta geometria dei dati.
- POWER ASSEMBLY: fornisce l’energia elettrica alla piattaforma e al carico (pa-
yload): in genere, è costituito da un set di pannelli solari, supportati da batterie che
forniscono energia elettrica durante il lato in ombra dell’orbita.
1.3.2.2 - IL PAYLOAD
Letteralmente tradotto payload significa “carico pagante”: in effetti, questo termine è u-
sato ogni qualvolta si vuole indicare l’utilizzo finale di un certo mezzo di trasporto. Così co-
me una nave da crociera, ad esempio, ha come carico pagante i passeggeri, così un satellite
ha i suoi sensori, costruiti con caratteristiche tali da adempiere alla missione per la quale il
satellite è stato progettato e messo in orbita.
Il sensore è uno strumento capace di trasformare le onde elettromagnetiche, riflesse o e-
messe da una superficie, in un segnale elettrico, sia che costruisca delle immagini (immagini
aeree o terrestri, scene satellitari, ecc.), sia che compia solo delle misure (fotometri, laser ae-
rei o terrestri, ecc.). Tali sensori possono quindi essere divisi in due classi a seconda del pro-
dotto finale che forniranno: sensori d’immagine e sensori misuratori.
Così come abbiamo suddiviso i sensori in base al prodotto finale, possiamo fare un’altra
suddivisione, questa volta data dalla sorgente di energia, che permette di distinguere:
• Sensori attivi: la sorgente è emessa dal sensore stesso e viene rilevata una volta che
l’energia ha colpito l’oggetto da rilevare;
• Sensori passivi: la sorgente è esterna al sensore (energia solare riflessa dal corpo o
energia emessa direttamente dal corpo).
Scegliere il sensore più adatto all’osservazione di un determinato fenomeno significa i-
dentificare i suoi requisiti operativi e funzionali in modo ottimizzato nei confronti degli og-
getti da rilevare. I parametri che stabiliscono tali requisiti per un sensore sono notevoli, ma
tra essi assumono rilievo particolare i seguenti:
20
Capitolo 1 Telerilevamento: principi base
• Risoluzione geometrica (o spaziale): è la distanza minima entro la quale il sensore
riesce a distinguere due oggetti. Trattandosi di un sensore d’immagine, tale risoluzio-
ne è rappresentata dall’area minima vista dal sensore ad una data quota e corrisponde
alle dimensioni dell’elemento di superficie minima riconoscibile nell’immagine (os-
sia il pixel). In realtà parlare di risoluzione in termini di “area minima” non è del tutto
corretto, proprio perché tale valore può variare in funzione della quota relativa del
sensore dall’oggetto osservato e in funzione della distanza angolare di osservazione
dalla direzione della verticale del sensore: è bene allora definire la risoluzione me-
diante un parametro che sia indipendente dalla quota relativa del satellite.
b
Figura 1.3.7 - Schema del sistema di acquisizione dati da satellite. La cella di risoluzione a terra, determinata dall’IFOV, inquadra una piccola zona riportata nel riquadro a: le radiazioni emesse o riflesse vengono catturate dal sensore producendo il dato finale che è una media delle risposte provenienti da tale area e che si traduce in un pixel dell’immagine finale riportato nel riquadro b
a
21
Capitolo 1 Telerilevamento: principi base
Definiamo allora l’IFOV (Instantaneous Field of View - Campo di Vista Istantaneo):
rappresenta l’angolo diedro di visibilità del sensore al di sotto del quale il rivelatore
del sensore (3) non riesce a distinguere due oggetti distinti e separati. Quest’angolo,
come si può notare dalla figura 1.3.7, dipende esclusivamente da come è costruito il
sensore, ragion per cui è indipendente dalla quota alla quale esso è posto. La zona di
copertura sottesa dall’IFOV viene chiamata GSD (Ground Simple Distance - area
campionata) o anche cella di risoluzione ed è pari al prodotto tra IFOV e quota relati-
va al suolo. L’utilità di definire l’IFOV piuttosto che parlare di “area minima” può
essere notata più facilmente quando si parla di sensori posti su aerei o elicotteri in cui
la quota relativa al suolo varia sensibilmente e di continuo. Un oggetto che sia più
piccolo della cella di risoluzione quindi non potrà essere identificato (vedi Figura
1.3.7). La larghezza al suolo dell’immagine, nella dimensione trasversale alla dire-
zione di volo, viene detta swath: anche per definire questa grandezza si preferisce u-
sare una dimensione angolare indipendente dalla quota di volo, che si chiama FOV
(Field of View - Campo di Vista) (4). Per quanto detto, viene naturale pensare che
diminuendo l’IFOV si aumenta la risoluzione geometrica, il che è vero, ma ci sono
comunque dei limiti a questa tendenza: un IFOV troppo piccolo comporta un’energia,
raccolta dal sensore, troppo bassa, che induce ad una diminuzione del rapporto segna-
le/rumore.
• Risoluzione radiometrica: esprime la minima differenza di intensità che un sensore è
capace di rilevare e misurare tra due valori di energia raggiante: migliore è tale riso-
luzione, più è sensibile nel registrare piccole differenze nell’energia riflessa o emes-
sa. Un qualsivoglia oggetto radiometricamente uniforme presente su un’immagine ri-
presa con supporto tradizionale (pellicola) appare a toni continui, mentre la stessa ri-
presa, fatta con un sensore digitale, essendo composta da pixel, presenta discontinui-
tà: l’aumento di tale risoluzione riduce notevolmente (ma non elimina) tale disconti-
nuità. Per immagini digitali, tale risoluzione è definita attraverso i bit dell’immagine
stessa: maggiori sono i bit di una banda, maggiori saranno i valori di intensità lumi-
nosa che un pixel può assumere.
(3) - Si tenga presente che il sensore è tutto l’apparato che permette la raccolta e la registrazione dell’energia elettromagnetica
incidente, ma ciò che realmente “registra” l’energia incidente, cioè l’elemento sensibile, è il rivelatore. Un sensore può a-vere uno o più rivelatori al suo interno a seconda della tecnica di ripresa che lo caratterizza.
(4) - In alcuni testi e/o pubblicazione è d’uso trovare sia FOV sia AFOV (Angular Field Of View).
22
Capitolo 1 Telerilevamento: principi base
• Risoluzione spettrale: è data dalla larghezza della banda (intervallo di lunghezza
d’onda) dei canali impiegati. Un’alta risoluzione spettrale significa, quindi, una con-
figurazione strumentale a bande molto strette. Avere bande troppo strette però com-
porta anche una quantità di energia raccolta inferiore, cioè un rapporto segna-
le/rumore generalmente basso, ragion per cui si riduce la risoluzione radiometrica. Al
contrario, i sensori che operano con larga banda hanno una buona risoluzione radio-
metrica e, per quanto detto in precedenza, anche una buona risoluzione geometrica. È
questa, infatti, la ragione per cui si predilige una ripresa con un sensore pancromatico
piuttosto che con uno multispettrale quando si richiedono elevate qualità metriche di
un’immagine, ad esempio per usi attinenti la fotogrammetria.
• Risoluzione temporale: questa caratteristica riguarda i sensori montati su piattaforme
satellitari, e sta ad indicare il tempo intercorso tra due riprese successive della stessa
area. Questo parametro essenzialmente è dovuto ai parametri orbitali del satellite.
1.3.2.3 - SEGMENTO TERRESTRE
I dati ottenuti durante una missione spaziale devono essere trasmessi alla Terra dal mo-
mento che il satellite continua a stare in orbita e ad acquisire dati.
Figura 1.3.8 - Possibili sistemi di trasmissione dati satellite-Terra
23
Capitolo 1 Telerilevamento: principi base
Figura 1.3.9 - Struttura del Segmento Terrestre
Ci sono fondamentalmente tre maniere per trasmettere i dati acquisiti dal satellite a terra
(vedi Figura 1.3.8):
A. I dati possono essere trasmessi direttamente alla Terra se esiste una stazione ricevente
(GRS - Ground Receiving Station) all’interno del footprint visivo del satellite.
24
Capitolo 1 Telerilevamento: principi base
B. Se A non è verificato, i dati possono essere registrati a bordo del satellite e trasmessi
alla GRS in un momento successivo.
C. I dati possono essere trasmessi alla GRS attraverso i Tracking and Data Relay Satelli-
te System (TDRSS) che consistono in una serie di satelliti per le telecomunicazioni in
orbita geosincrona. I dati sono trasmessi da un satellite ad un altro fino a che non rag-
giungono la giusta GRS.
I dati sono inviati alla stazione ricevente (GRS) in formato digitale grezzo, non elaborato.
Su richiesta, possono essere poi processati per correggere tutte le distorsioni sistematiche, ge-
ometriche ed atmosferiche e convertiti in un formato standard.
Tipicamente i dati sono archiviati nelle stazioni di ricezione e processamento: gli archivi
completi di dati sono gestiti dalle agenzie governative, ma anche dalle compagnie commer-
ciali responsabili degli archivi dei diversi sensori.
Immagini “quick-look” a bassa risoluzione sono usate per visionare le immagini archiviate
prima che vengano acquistate. La qualità spaziale e radiometrica di questi tipi di dati è degra-
data, ma risultano comunque molto utili per verificare se la qualità dell'immagine e l’even-
tuale copertura nuvolosa è appropriata ai fini della applicazione.
Il segmento Terrestre provvede inoltre al monitoraggio di tutti i parametri di funzionamen-
to del satellite (controllo dell’orbita, eventuali correzioni da apportare all’assetto del satellite,
controllo guasti, ecc.).
1.3.3 - CLASSIFICAZIONE TECNOLOGICA DEI SENSORI
Il tipo di radiazione che un sensore può rilevare dà modo di discriminare due grosse classi
di sensori:
• Sensori ottici (d’immagine e misuratori), che operano nel campo del visibile (VIS) e
dell’infrarosso (IR) sfruttando, come sistema di messa a fuoco, un’ottica a rifrazione
o a riflessione che convoglia l’energia verso l’elemento sensibile. Si suddividono in
tre categorie:
- Pancromatico, costituito da un solo rivelatore che fornisce un segnale elettrico
proporzionale alla radiazione complessiva, in un intervallo dello spettro elettro-
magnetico comprendente tutto o una parte del visibile; in alcuni casi comprende
anche parte dell’infrarosso fotografico;
25
Capitolo 1 Telerilevamento: principi base
- Multispettrale, costituito da un numero limitato di rivelatori, ognuno dei quali
fornisce un segnale elettrico proporzionale all’energia elettromagnetica relativa
ad una porzione relativamente ampia del visibile (VIS) e dell’infrarosso (IR). La
risoluzione spettrale è normalmente bassa (0,1 - 0,2 μm);
- Iperspettrale, costituito da un elevato numero di rivelatori che raccolgono la ra-
diazione in un gran numero di canali spettrali di piccolissima larghezza di banda.
La risoluzione spettrale è generalmente alta (0,01 - 0,001 μm) e permette di iden-
tificare direttamente le componenti delle coperture superficiali della Terra (vedi
paragrafo 1.2.3 sulla firma spettrale)
• Sensori a microonde, che operano a lunghezze d’onda dell’ordine del millimetro
(normalmente da 1 a 10 mm): sono prevalentemente usati per l’individuazione di so-
stanze inquinanti, per l’analisi della composizione dell’atmosfera e per lo studio delle
caratteristiche della superficie terrestre.
In questo contesto focalizzeremo l’attenzione prevalentemente sui sensori ottici
d’immagine.
1.3.3.1 - SENSORI OTTICI D’IMMAGINE
Tali sensori sono in grado di generare un insieme di dati bidimensionali (l’immagine) cor-
rispondente alla porzione di superficie terrestre osservata, suddivisa idealmente in celle ele-
mentari (pixel). Le direzioni di riferimento dell’immagine sono generalmente costituite dalla
direzione del moto del satellite e dalla direzione ortogonale ad essa. L’immagine, essendo in
formato numerico, ha il vantaggio di poter essere elaborata da un calcolatore, migliorandone
la qualità visiva ed eliminando le imperfezioni, consentendo anche confronti quantitativi e
qualitativi con immagini precedenti della stessa zona.
- SENSORI FOTOGRAFICI
Sono sensori ottico-meccanici o digitali che forniscono rispettivamente fotografie o im-
magini in cui le variazioni di energia elettromagnetica riflessa (nel visibile e nell'infraros-
so fotografico) vengono tradotte in variazioni di densità fotografica o di livelli radiometri-
ci.
26
Capitolo 1 Telerilevamento: principi base
Figura 1.3.10 - Schema dimostrativo di una camera fotografica
I sensori fotografici ottico-meccanici, detti anche camere, sono utilizzati tanto per scopi
cartografici quanto per osservazioni di natura tematica e vengono indifferentemente posi-
zionati su piattaforme terrestri, aeree e spaziali. In questi sensori il sistema di raccolta e
messa a fuoco dell’energia è un obiettivo a rifrazione che convoglia la radiazione su
un’emulsione fotografica stesa su un supporto semirigido che è la pellicola. In tal caso la
pellicola funge sia da trasduttore che da sistema di registrazione.
I risultati forniti da questi sensori dipendono, oltre che dalle caratteristiche del soggetto,
dalla posizione del sole, dalle condizioni dell’atmosfera e dal tipo di pellicola: questa può
essere in bianco e nero (b/n), detta anche pancromatica, e a colori, detta anche ortocroma-
tica. In entrambi i casi l’immagine viene restituita con densità fotografica proporzionale
all’energia incidente. Nel caso della pellicola pancromatica la restituzione avviene attra-
verso una scala dei grigi che varia in modo continuo dal bianco al nero; nel caso della pel-
licola ortocromatica, invece, le variazioni dell’energia riflessa sono fissate con un codice
di colori a vario cromatismo e saturazione. La risoluzione geometrica di questi sistemi è
molto alta essendo limitata soltanto dalla qualità dell’ottica e dalla grana della pellicola.
Altri vantaggi di tali camere sono:
• facilità di analisi delle fotografie;
27
Capitolo 1 Telerilevamento: principi base
• costi contenuti;
• potenze impegnate relativamente basse.
La camera di gran lunga più usata nel telerilevamento terrestre è certamente la macchina a
fotogrammi, detta anche camera metrica, utilizzata per il rilievo aereo. Ricorda una nor-
male macchina fotografica ma se ne differenzia per le distorsioni delle ottiche (molto più
ridotte per la camera metrica) e per l’aggiunta di alcune parti necessarie alla sua funzione
quali:
• speciali supporti antivibrazione e antirollio;
• sistema di orientazione nella direzione voluta, tenendo presente che un asse
dell’apparato deve mantenersi quanto più possibile parallelo alla linea di volo;
• contenitore della pellicola di maggiore dimensioni;
• meccanismo automatico di chiusura ed apertura dell’otturatore che deve essere
tarato in funzione dei parametri di volo.
Figura 1.3.11 - Schema esemplificativo di una camera metrica analogica
28
Capitolo 1 Telerilevamento: principi base
La maggior parte di queste camere montano obiettivi con focale 150 mm (in alcune riprese
in zone urbane si fa uso anche del 300 mm per ridurre l’effetto prospettico), con un angolo
FOV che varia da 90° a 120°, fornendo fotogrammi quadrati di misura standard 23 cm.
Da un decennio circa è in atto una propensione all’utilizzo, nel telerilevamento, di camere
metriche digitali che non fanno più uso di una pellicola sensibile alla luce (o all'infraros-
so) bensì di particolari rivelatori detti CCD (Charge-Coupled Device). Realizzando una
matrice di questi elementi rivelatori, la scena ripresa dal sistema ottico del sensore può es-
sere letta elettronicamente (praticamente tutti i rivelatori vengono letti nello stesso istante)
e registrata pixel per pixel, ognuno corrispondente al singolo elemento rivelatore. I van-
taggi sono notevoli in quanto, con il dato che nasce digitale, si evitano le fasi di sviluppo e
scansione. Per quanto le tecniche analogiche e digitali in tale campo al momento coesisto-
no, la continua espansione ed evoluzione del digitale lascia ipotizzare che in un prossimo
futuro le ditte produttrici di pellicole possano cessarne la produzione, comportando quindi
un totale passaggio degli addetti al settore al digitale, rendendo così definitivamente “su-
perata” la tecnica analogica almeno per quanto riguarda il settore delle riprese.
Figura 1.3.12 - Due moderne camere fotogrammetriche digitali: a sinistra una LEICA ADS40, a destra una Z/I (ZEISS/INTERGRAPH) DMC
29
Capitolo 1 Telerilevamento: principi base
- SENSORI A SCANSIONE
Sono sensori d’immagine di tipo ottico. La modalità di scansione può essere di due
tipi:
• whiskbroom (detti anche across-track o sensori a scansione meccanica)
• pushbroom (detti anche along-track)
Relativamente semplici dal punto di vista costruttivo ed operativo, i sensori whiskbroom
sono sistemi passivi, sensibili alla radiazione visibile e/o infrarossa e vengono utilizzati a
bordo di aerei o di satelliti per acquisire immagini di zone della superficie terrestre anche
molto ampie. Questi scanner sono normalmente a scansione lineare, riprendendo migliaia
di pixel di una striscia di terreno ortogonale alla direzione de1volo; tale risultato si ottiene
effettuando una scansione del terreno mediante uno specchietto piano oscillante o rotante
attorno ad un asse parallelo al moto del veicolo. Il moto della piattaforma genera l’altro
asse dell’immagine.
Figura 1.3.13 - Sistema di scansione multispettrale whiskbroom a specchietto rotante
30
Capitolo 1 Telerilevamento: principi base
La radiazione intercettata viene inviata ad un sistema ottico che la focalizza su rivelatori
sensibili a prestabilite bande spettrali che trasformano l’energia elettromagnetica in un se-
gnale elettrico. L’IFOV determina l’estensione dell’area di campionamento dello scanner
nell’unità di tempo. C’è una differenza importante da sottolineare distinguendo “specchio
rotante” e specchio oscillante”: nel primo si ha un unico rivelatore sul quale si focalizza la
radianza elettromagnetica riflessa dallo specchio, mentre nel secondo si possono avere più
rivelatori per banda che acquisiscono contemporaneamente diverse linee di scansione
(come sul Multi Spectral Scanner); la seconda opzione è utile per aumentare il tempo di
permanenza su ogni singolo rivelatore e quindi avere anche risoluzioni migliori. Guardan-
do le figure 1.3.14a e 1.3.14b si può notare come la differenza di funzionamento si traduca
in due tracce differenti.
Figura 1.3.14a - Traccia di un sensore whiskbroom a specchietto oscillante
Figura 1.3.14b - Traccia di un sensore whiskbroom a specchietto rotante
I sensori pushbroom, invece, impiegano array lineari di elementi CCD. La configura-
zione per questi sistemi prevede generalmente un array lineare per ciascuna banda spettra-
le in cui opera lo strumento, disposti perpendicolarmente alla direzione del moto della
piattaforma. Un singolo elemento rivelatore corrisponde ad una cella di risoluzione al suo-
lo. Ciascun array è collocato nel piano focale delle ottiche dello strumento: in tal modo
un’intera striscia al suolo perpendicolare alla direzione della traccia viene messa a fuoco
sugli elementi rivelatori CCD in un determinato istante. Il movimento progressivo della
piattaforma, infine, consente agli array di rivelare le successive strisce della scena: una ve-
locità opportuna di campionamento elettronico garantisce così un corretto rilievo delle li-
nee contigue dell’immagine.
31
Capitolo 1 Telerilevamento: principi base
Figura 1.3.15 - Sistema di scansione multispettrale pushbroom
1.3.4 - PRINCIPALI PIATTAFORME IN USO PER IL TELERILEVAMENTO
1.3.4.1 - MISSIONI LANDSAT
Satellite in orbita dal al sensori Landsat 1 23 luglio1972 6 gennaio 1978 MSS, RBV
Landsat 2 22 gennaio 1975 25 febbraio 1982 MSS, RBV
Landsat 3 5 marzo 1978 31 marzo 1983 MSS, RBV(×2)
Landsat 4 16 luglio1982 luglio 1995 MSS, TM
Landsat 5 1 marzo 1984 Operativo MSS, TM
Landsat 6 lanciato 5 ottobre 1993: perso in lancio ETM
15 aprile 1999 Operativo ETM+ Landsat 7
Tabella 1.3.1 - Missioni Landsat e rispettivi sensori
32
Capitolo 1 Telerilevamento: principi base
MSS (MultiSpectral Scanner) Landsat 1, 2, 3, 4, 5 Risoluzione spettrale
Banda Lunghezza d’onda(μm) Landsat 1, 2, 3 Landsat 4, 5
4 1 0,5 - 0,6 verde 5 2 0,6 - 0,7 rosso 6 3 0,7 - 0,8 infrarosso vicino 7 4 0,8 - 1,1 infrarosso vicino 8 (Landsat 3) 10,4 - 12,6 infrarosso termico
Risoluzione geometrica Landsat 1, 2, 3 79 × 79 m Landsat 4 81,5 × 81,5 m Landsat 5 82,5 × 82,5 m Banda 8 (Lansat 3) 237 × 237 m
5 185 km Swath ( ) Risoluzione radiometrica
7 bit (Banda 8: 6 bit) Risoluzione temporale
18 giorni Landsat 1, 2, 3 16 giorni Landsat 4, 5
RBV (Return Beam Vidicon) Landsat 1, 2, 3 Risoluzione spettrale
Banda lunghezza d'onda (μm) 1 (Landsat 1, 2) 0,475 - 0,575 blu 2 (Landsat 1, 2) 0,580 - 0,680 rosso 3 (Landsat 1, 2) 0,689 - 0,830 infrarosso vicino Pan (Landsat 3) 0,505 - 0,750 pancromatico
Risoluzione geometrica Landsat 1, 2 79 × 79 m Landsat 3 40 × 40 m (Pan)
185 km Landsat 1, 2Swath
98 km Landsat 3 Risoluzione temporale
18 giorni
Tabella 1.3.2 - Caratteristiche del sensore Multispectral Scanner
Tabella 1.3.3 - Caratteristiche del sensore Return Beam Vidicon
(5) - Lo swath è riferito al singolo sensore. Quando sono presenti due sensori identici (come nel caso del Landsat 3), questi ven-
gono utilizzati, nella maggior parte dei casi, in coppia durante una scansione, per cui lo swath totale, in genere, è quasi il doppio (non è proprio il doppio perché c’è sempre una lieve sovrapposizione tra i due swath, per evitare di lasciare zone scoperte).
33
Capitolo 1 Telerilevamento: principi base
TM (Thematic Mapper) Landsat 4, 5 Risoluzione spettrale
Banda lunghezza d'onda (μm) 1 0,45 - 0,52 blu 2 0,52 - 0,60 verde 3 0,63 - 0,69 rosso 4 0,76 - 0,90 infrarosso vicino 5 1,55 - 1,75 infrarosso medio 7 2,08 - 2,35 infrarosso medio 6 10,4 - 12,5 infrarosso termico
Risoluzione geometrica Banda 1, 2, 3, 4, 5, 7 30 × 30 m Banda 6 120 × 120 m
185 km Swath Risoluzione radiometrica
8 bit Risoluzione temporale
16 giorni
Tabella 1.3.4 - Caratteristiche del sensore Thematic Mapper
ETM+ (Enhanced Thematic Mapper) Landsat 7 Risoluzione spettrale
Banda lunghezza d’onda (μm) 1 0,45 - 0,515 blu 2 0,525 - 0,605 verde 3 0,63 - 0,690 rosso 4 0,75 - 0,90 infrarosso vicino 5 1,55 - 1,75 infrarosso medio 7 2,09 - 2,35 infrarosso medio 6 10,40 - 12,50 infrarosso termico
Pan 0,52 - 0,90 pancromatico Risoluzione geometrica
Banda 1, 2, 3, 4, 5, 7 30 × 30 mBanda 6 60 × 60 m Pan 15 × 15 m
185 km Swath Risoluzione radiometrica
8 bit Risoluzione temporale
16 giorni
Tabella 1.3.5 - Caratteristiche del sensore Enhanced Thematic Mapper
34
Capitolo 1 Telerilevamento: principi base
1.3.4.2 - MISSIONI SPOT
Satellite in orbita dal al sensori 22 febbraio1986 31 dicembre 1990 SPOT 1 HRV (× 2) 22 gennaio 1990 Operativo SPOT 2 HRV (× 2)
26 settembre 1993 14 novembre 1997 SPOT 3 HRV (× 2) 24 marzo 1998 Operativo SPOT 4 HRVIR (× 2), VGT 4 maggio 2002 Operativo SPOT 5a HRG (× 2), VGT
previsto nel 2007 --- SPOT 5b HRG (× 3)
Tabella 1.3.6 - Missioni SPOT e rispettivi sensori
HRV (High Resolution Visible) ( ) SPOT 1, 2, 3 S
Risoluzione spettrale Banda lunghezza d’onda (μm)
1 0,50 - 0,59 verde 2 0,61 - 0,68 rosso 3 0,79 - 0,89 infrarosso vicino
Pan 0,51 - 0,73 pancromatico Risoluzione geometrica
Banda 1, 2, 3 20 × 20 m Pan 10 × 10 m
60 km Swath Risoluzione radiometrica
8 bit Risoluzione temporale
26 giorni
Tabella 1.3.7 - Caratteristiche del sensore High Resolution Visible
VGT (Vegetation) SPOT 4, 5 Risoluzione spettrale
Banda lunghezza d'onda (μm) 1 0,43 - 0,47 blu 2 0,61 - 0,68 rosso 3 0,79 - 0,89 infrarosso vicino 4 1,58 - 1,75 infrarosso medio
Risoluzione geometrica 1 × 1 km 2250 km Swath
Risoluzione radiometrica 8 bit
Risoluzione temporale 1 giorno
Tabella 1.3.8 - Caratteristiche del sensore Vegetation
(S) - Possibilità di effettuare riprese stereoscopiche
35
Capitolo 1 Telerilevamento: principi base
HRVIR (High Risoluzione Visible Infrared) (S) SPOT 4 Risoluzione spettrale
Banda lunghezza d'onda (μm) 1 0,50 - 0,59 verde 2 0,61 - 0,68 rosso 3 0,79 - 0,89 infrarosso vicino 4 1,58 - 1,75 infrarosso medio
Pan 0,51 - 0,68 pancromatico Risoluzione geometrica
Banda 1, 2, 3 20 × 20 m (Banda 2 anche 10 × 10 m) Pan 10 × 10 m
60 km Swath
Risoluzione radiometrica 8 bit
Risoluzione temporale 26 giorni
HRG (High Resolution Geometric) ( ) SPOT 5 S
Risoluzione spettrale Banda lunghezza d'onda (μm)
1 0,50 - 0,59 verde 2 0,61 - 0,68 rosso 3 0,79 - 0,89 infrarosso vicino 4 1,58 - 1,75 infrarosso medio
Pan 0,51 - 0,73 pancromatico Risoluzione geometrica
Banda 1, 2, 3 10 × 10 m Banda 4 20 × 20 m Pan 5 × 5 m (Supermode Panchromatic: 2,5 × 2,5 m)
60 km Swath Risoluzione radiometrica
8 bit Risoluzione temporale
26 giorni
Tabella 1.3.9 - Caratteristiche del sensore High Resolution Visible Infrared
Tabella 1.3.10 - Caratteristiche del sensore High Resolution Geometric
(S) - Possibilità di effettuare riprese stereoscopiche
36
Capitolo 1 Telerilevamento: principi base
1.3.4.3 - MISSIONI IKONOS
Satellite in orbita dal al sensori --- pianificato 1999: lancio fallito IKONOS-1
IKONOS-2 (IKONOS) 24 settembre 1999 Operativo ) IKONOS (S
Risoluzione spettrale Banda lunghezza d'onda (μm)
1 0,445 - 0,516 blu 2 0,506 - 0,595 verde 3 0,632 - 0,698 rosso 4 0,757 - 0,853 infrarosso vicino
Pan 0,526 - 0,929 pancromatico Risoluzione geometrica
Banda 1, 2, 3, 4 3,2 × 3,2 m (Nadir); 4 × 4 m (26° Off-Nadir) Pan 0,82 × 0,82 m (Nadir); 1 × 1 m (26° Off-Nadir)
11,3 km (Nadir); 13,8 km (26° Off-Nadir) Swath Risoluzione radiometrica
8 bit / 11 bit Risoluzione temporale
Risoluzione geometrica 4 × 4 m: 1,5 giorni Risoluzione geometrica 1 × 1 m: 2,9 giorni
Tabella 1.3.11 - Caratteristiche del sensore Ikonos
1.3.4.4 - MISSIONI QUICKBIRD
Satellite in orbita dal al sensori pianificato Novembre 2000: lancio fallito --- QUICKBIRD-1 18 Ottobre 2001 Operativo QUICKBIRD (S) QUICKBIRD-2
Risoluzione spettrale Banda lunghezza d'onda (μm)
1 0,450 - 0,520 blu 2 0,520 - 0,600 verde 3 0,630 - 0,690 rosso 4 0,760 - 0,900 infrarosso vicino
Pan 0,445 - 0,900 pancromatico Risoluzione geometrica
Banda 1, 2, 3, 4 2,4 × 2,4 m (Nadir) Pan 0,60 × 0,60 m (Nadir)
16,5 km (Nadir) Swath Risoluzione radiometrica
11 bit Risoluzione temporale
3-7 giorni (dipendente dalla latitudine)
Tabella 1.3.12 - Caratteristiche del sensore Quickbird
(S) - Possibilità di effettuare riprese stereoscopiche
37
Capitolo 1 Telerilevamento: principi base
1.3.4.5 - MISSIONI EROS
Satellite in orbita dal al sensori S5 Dicembre 2000 Operativo EROS-A1 EROS-A ( )
EROS-A (S) Missione cancellata EROS-A2 EROS-B (S) 25 Aprile 2006 Operativo EROS-B1
Risoluzione spettrale Banda lunghezza d’onda (μm)
1 (EROS-B) 0,480 - 0,520 blu 2 (EROS-B) 0,540 - 0,580 verde 3 (EROS-B) 0,640 - 0,680 rosso 4 (EROS-B) 0,820 - 0,900 infrarosso vicino Pan (EROS-A, B) 0,450 - 0,900 pancromatico
Risoluzione geometrica Banda EROS-A EROS-B
1, 2, 3, 4 --- 3,5 × 3,5 m 1,8 × 1,8 m (Standard mode) Pan 0,87 × 0,87 m 1 × 1 m (Hypersampled mode)12.5 km (Standard mode) 13 km Swath 6,25 km (Hypersampled mode)Risoluzione radiometrica
11 bit 10 bit Risoluzione temporale
2 giorni ??
Tabella 1.3.13 - Caratteristiche dei sensori EROS
(S) - Possibilità di effettuare riprese stereoscopiche
38
Capitolo 2 ELABORAZIONE ED INTERPRETAZIONE DELLE IMMAGINI
2.1 - INTRODUZIONE
Se è vero che le tecniche di acquisizione d’immagini si sono evolute negli anni, sia per
quanto riguarda le piattaforme, sia per i sensori, è altrettanto vero che si sono evolute anche le
tecniche inerenti le applicazioni successive all’acquisizione dell’immagine, questo grazie a
calcolatori sempre più moderni e veloci che si sono diffusi parallelamente alle nuove conqui-
ste spaziali.
Le immagini in formato numerico, la loro visualizzazione su uno schermo che sostituisce il
supporto cartaceo, e l’implementazione di software con algoritmi sempre più sofisticati e
computazionalmente sempre più rapidi, rendono oggi possibile l’uso di numerose applicazio-
ni utili al trattamento ed al miglioramento delle immagini. Il solo modo di avere un’immagine
quanto migliore possibile, prima che fossero rese attuabili le procedure digitali, ammesso di
avere ottiche a bassissime distorsioni e pellicole ad alta risoluzione e di alta qualità cromati-
ca, si basava su una buona selezione dei tempi di esposizione e dei diaframmi relativi al sin-
golo scatto della camera, nonché sull’ottimizzazione delle procedure di sviluppo delle pelli-
cole. Quanto si propone in questo capitolo riguarda le tecniche di filtraggio e di miglioramen-
to delle immagini, al fine di implementarne i dettagli e rendere più accurata l’interpretazione
delle coperture del suolo da parte dell’operatore e, come vedremo, anche da parte di software.
2.2 - L’IMMAGINE RASTER (IL DATO)
I sensori a scansione montati a bordo delle piattaforme, aeree o satellitari che siano, ese-
guono una scansione della superficie sottostante campionando per linee, trasversalmente al
moto del vettore: tali linee, riordinate nella loro sequenza di presa, permettono la ricostruzio-
ne dell’immagine, o meglio della scena. Sostanzialmente il funzionamento del sistema di
scansione in sé è identico passando da aereo a satellite, ma ci sono differenze per quanto ri-
guarda il tracciamento della posizione del velivolo e del satellite, oltre che nelle procedure e
nei materiali utilizzati per la costruzione del satellite che però qui non tratteremo.
Riesaminiamo per un momento i sensori ottici: un’immagine data da un fotogramma, sen-
za intervenire con alcuna correzione post-acquisizione, fornisce già informazioni qualitative
del territorio: si potrebbe per esempio, su un’immagine a colori naturali, operare una fotoin-
39
Capitolo 2 Elaborazione ed interpretazione delle immagini
terpretazione di tipo agrario identificando anche su un singolo fotogramma, che rappresenta
una realtà inconfutabile, i tipi di coltura, ma non si possono avere informazioni metrico-
geografiche di alcun tipo (non si sa né dove si trovano quei terreni coltivati né la loro esten-
sione) se prima non si interviene tramite delle operazioni ben specifiche.
In fotogrammetria l’operazione immediatamente successiva alla ripresa è l’appoggio dei
fotogrammi, si misurano cioè le coordinate immagine di un certo numero di punti ben ricono-
scibili sull’immagine (detti punti fotografici di appoggio), punti le cui coordinate geografiche
sono note, per poi poter effettuare l’orientamento esterno (6) dei singoli fotogrammi, oppure
l’orientamento relativo ed assoluto dei fotogrammi e poter effettuare o una restituzione (otte-
nendo una carta topografica come prodotto finale) oppure un’ortorettifica (ottenendo
un’ortofoto o un’ortofotocarta) grazie alle quali è possibile prendere misure. Tutto ciò è pos-
sibile sia su sistemi ottico-meccanici che su ottico-digitali, ma è immaginabile che alcune
tecniche siano cambiate: in effetti oggi, grazie al sistema di posizionamento GPS (Global
Position System) ed al sistema di navigazione inerziale IMU (Inertial Measurement Unit) (7)
che affiancano l’equipaggiamento base per le riprese, “teoricamente” non sarebbe più neces-
sario l’uso di punti fotografici d’appoggio. In pratica però si rendono comunque necessari tali
punti, dato che il GPS potrebbe portare errori dovuti ad interferenze di segnali, o a brevi pe-
riodi di “buio” del segnale, e comunque si tratta di un utilizzo in modalità cinematica del
GPS, meno preciso della modalità statica. Tale sistema si rende molto utile laddove si ripren-
dano zone in cui è difficile, o talvolta impossibile, l’accesso da terra per motivi logistici o mi-
litari ad esempio, o laddove non ci siano punti distintamente individuabili sul fotogramma:
ecco che il GPS/IMU diventa fondamentale.
Se quindi per le immagini ottenute con sensore ottico-fotografico si può lavorare sfruttan-
do le tecniche topografiche classiche, ciò non può accadere con i sensori scanner, per i quali
si rendono strettamente necessari i sistemi GPS/IMU, se si tratta di sensori aerotrasportati,
oppure mediante il sistema di controllo a terra, se si tratta di sensori su satellite, che rende
(6) - L’orientamento esterno è un’operazione mediante la quale si individuano sei parametri fondamentali: le tre coordinate del
centro di presa, e i tre angoli di assetto della camera secondo un sistema di riferimento geodetico globale, che permettono di risalire all’esatta condizione spaziale della camera al momento della presa del fotogramma.
(7) - Il sistema GPS permette di trovare le coordinate (Xo, Yo, Zo) del centro di presa (si deve conoscere l’offset tra il centro di fase dell’antenna montata sul lato superiore della fusoliera del velivolo e il centro di presa della camera); il sistema IMU è costituito da tre accelerometri e tre giroscopi che valutano i parametri (φ, ω, κ) dell’assetto del velivolo, rispettivamente beccheggio, rollio ed imbardata, e di conseguenza permettono di trovare i parametri di orientamento della camera all’istante della presa del fotogramma.
40
Capitolo 2 Elaborazione ed interpretazione delle immagini
possibile la conoscenza dei parametri orbitali e di assetto dello stesso, istante per istante: la
differenza di cui si accennava prima è proprio questa.
Figura 2.2.1 - Distorsioni dovute alle variazioni degli angoli di assetto delvelivolo [University of Wisconsin Madison]
Per le riprese con sensori scanner aerotrasportati, la mancanza di dati GPS potrebbe, non
senza molte difficoltà, rendere comunque utilizzabile il dato finale: sarebbero necessari un
numero molto elevato di punti a terra presi con metodologie topografiche (GPS o, in mancan-
za di segnale, con Total Station) sempre ammesso però che le immagini non siano distorte al
punto tale da non poter riconoscere sulla scena (vedi Figura 2.2.1). Tutto ciò però ha un limi-
te, prevalentemente economico, superato il quale si ritiene più utile effettuare nuovamente un
volo: ecco quindi l’importanza di tali strumentazioni di bordo quando si fa uso di sensori
scanner. Immagini ottenute con tali sensori vanno quindi sempre trattate per correggere tali
errori geometrici sviluppatisi durante l’acquisizione dei dati.
2.3 - PROCEDURE POST-ACQUISIZIONE
Il dato appena acquisito dal satellite non è certamente un dato finito, è anzi un dato “grez-
zo”: come descritto nel paragrafo 1.3.2, è il segmento terrestre, e quindi l’ente stesso che ge-
stisce la piattaforma, che si occupa dell’archiviazione e di un trattamento primario dei dati,
41
Capitolo 2 Elaborazione ed interpretazione delle immagini
trattamento che precede sempre la cessione dell’immagine all’acquirente o all’ente che ne fa
richiesta.
Soffermandoci sulle riprese satellitari, si devono distinguere due tipologie di correzioni
che vengono inserite in quello che si chiama Image Preprocessing (8): le correzioni radiome-
triche e geometriche.
Durante tali fasi di correzione, il dato acquisito dal sensore, che rappresenta la radianza
incidente registrata in forma digitale come DN ad un certo numero di bit, viene trasformato in
una informazione relativa alla superficie indagata. In pratica, con le correzioni si passa da un
segnale registrato al sensore ad una caratteristica della superficie reale [Valentini et al., 2006].
2.3.1 - CORREZIONI RADIOMETRICHE
Tali correzioni servono a calibrare i sensori, ridurre o eliminare gli errori dovuti al loro
cattivo funzionamento e ridurre l’influenza dello strato di atmosfera interposto tra sensore e
oggetto osservato (la Terra). Essi includono [http://tlclab.unipv.it]:
a. Ripristino di linee e pixel saltati
b. Equalizzazione del sensore
c. Calibrazione del sensore
d. Correzione degli effetti di terreno
e. Correzione atmosferica
Analizziamo brevemente queste singole correzioni.
a. Ripristino di linee e pixel saltati
Può accadere che durante la scansione di una scena o la memorizzazione dei dati, per mal-
funzionamenti temporanei o errori di trasmissione dovuti ad esempio a cadute di tensione
o a perdite di segnale, possa verificarsi un’alterazione o perdita di un singolo dato o di una
sequenza di dati che si traducono in pixel con valori anomali o in righe di pixel nere o uni-
formemente grigie (dette anche Drop Line): tali dati ovviamente non hanno nulla a che fa-
(8) - Non sempre si sottolinea la differenza tra pre-elaborazione dell’immagine (Image Preprocessing) ed elaborazione
dell’immagine (Image Processing), poiché tale differenza è molto sfumata: in realtà è rilevante poiché identifica due tipo-logie di trattamento del dato, una che viene effettuata comunque dalla ditta gestore della piattaforma una volta acquisito il dato e che permette all’utente di utilizzare in maniera proficua i dati [http://tlclab.unipv.it], e l’altra che viene effettuata dalla stessa ditta (su richiesta del committente) o dal committente stesso, ma che comunque non rappresenta una procedu-ra strettamente essenziale e che dipende dal fine ultimo per il quale si è richiesta la scena satellitare.
42
Capitolo 2 Elaborazione ed interpretazione delle immagini
re con il valore effettivo della grandezza acquisita in quella posizione (o posizioni se si
tratta di una riga).
Figura 2.3.1 - Immagine pancromatica in cui sono presenti tre Drop Line.
Per correggere tale errore si applicano tecniche fondamentalmente semplici; nel caso di un
pixel saltato si può:
- sostituire il pixel con il valore del pixel precedente o successivo della riga
, , 1 , , 1(precedente) (successivo)i j i j i j i jDN DN DN DN− += =
- sostituire il pixel con la media dei vicini della stessa riga
, 1 , 1, 2
i j i ji j
DN DNDN − ++
=
- sostituire il pixel mediante la stima basata sulla media dei vicini e sulla correlazione
tra bande qualora la ripresa fosse multispettrale;
- sostituire il pixel ricavando un valore medio tra i valori dei pixel vicini, utilizzando
finestre mobili (normalmente chiamate finestre) di dimensioni 3 × 3 o 5 × 5;
nel caso di una linea si può:
43
Capitolo 2 Elaborazione ed interpretazione delle immagini
- sostituire l’intera linea con quella precedente o con quella successiva;
- sostituire l’intera linea con la media della precedente e della successiva;
- operare con metodi più complessi che si basano, similmente al singolo pixel, alla cor-
relazione tra bande nel caso di ripresa multispettrale.
b. Equalizzazione del sensore
Nei sistemi a scansione ottico-meccanica, ad ogni oscillazione dello specchio il singolo
rivelatore registra una linea di pixel. Per varie cause, può accadere che le funzioni di tra-
sferimento dei dati dal sensore al registratore non siano identiche per tutti i rivelatori, o
che uno dei rivelatori non sia ben calibrato rispetto agli altri. Ciò comporta un effetto di
striatura regolare nell’immagine (striping) visibile soprattutto sulle superfici omogenee
quali ad esempio la neve e l’acqua [http://tlclab.unipv.it]. In figura 2.3.2 si ha un esempio
di una scansione fatta con un sensore a 17 rivelatori, ed una riga corrispondente ad uno di
essi è più chiara di circa 4-5 DN in una banda ad 8 bit.
Figura 2.3.2 - Immagine pancromatica affetta da effetto striping [http://earth.esa.int]
44
Capitolo 2 Elaborazione ed interpretazione delle immagini
L’effetto può essere ridotto rielaborando a posteriori i dati acquisiti in modo da conforma-
re le risposte apparenti dei diversi rivelatori. A tal proposito sono possibili più tecniche:
- Tecnica lineare: si basa sull’assunzione che mediamente tutti i rivelatori “vedono”
una distribuzione simile di coperture del suolo all’istante di acquisizione t e quindi
una distribuzione simile di DN, e che i rivelatori siano lineari;
- Tecnica basata sulla conformazione degli istogrammi: rimuove l’ipotesi di compor-
tamento lineare dei sensori;
- Altre tecniche basate ad esempio sul filtraggio spaziale.
Figura 2.3.3 - Sulla sinistra l’immagine prima che venga trattata per l’effetto striping, sulla destra la stessa immagine dopo essere stata corretta [http://tlclab.unipv.it]
c. Calibrazione del sensore
Con questa operazione si fa riferimento alle procedure che permettono di convertire i DN
rilevati in valori fisici di radianza (Lλ) secondo l’equazione
λ λ λL rumore DN guadagnoλ= + ×
In figura 2.3.4 è rappresentata la retta funzione di calibrazione: per conoscerne
l’andamento si devono quindi ricavarne i parametri (il coefficiente angolare m e il termine
noto q). Tale operazione non è semplice poiché, se pur noti dalla casa costruttrice che li ci-
45
Capitolo 2 Elaborazione ed interpretazione delle immagini
9ta nei parametri di pre-lancio, tali valori variano col tempo ( ): il calcolo si effettua in ge-
nere con algoritmi che ne stimano l’entità, permettendo una valutazione accurata della ra-
dianza L al rilevatore.
Figura 2.3.4 - Funzione di calibrazione
La calibrazione radiometrica è particolarmente importante quando si intende confrontare
tra di loro i dati acquisiti da sensori differenti.
d. Correzione degli effetti del terreno
Sappiamo che la stima della riflettanza del bersaglio si fa sulla base della radiazione che
colpisce il sensore: tale radiazione è però influenzata dalle condizioni di illuminazione del
bersaglio e dalla sua posizione. L’allontanamento dalla situazione ideale è causato da:
• Riflessione non lambertiana;
• Superficie terrestre non piatta.
Per quanto esistano vari modi per correggere tale problema, il più accreditato rimane la
conoscenza di un modello numerico del terreno, ovvero di un DEM (Digital Elevation
Model), che migliora la correzione in funzione della sua risoluzione.
(9) - In fase di test a terra si fa il calcolo della curva di calibrazione mediante quelle che vengono chiamate sfere di calibrazione:
si definiscono quantitativamente la risposta del radiometro ad un segnale di ingresso noto mediante diverse coppie (Lλ, DNλ), utilizzando poi la regione lineare di tale curva
46
Capitolo 2 Elaborazione ed interpretazione delle immagini
e. Correzione atmosferica
La radianza viene attribuita in prima approssimazione integralmente all’oggetto osservato:
ciò non è propriamente vero, poiché la radiazione elettromagnetica che viaggia
dall’oggetto al sensore non attraversa il vuoto ma viaggia attraverso l’atmosfera che ne va
a modificare il valore effettivo. I gas atmosferici, gli aerosol ed i vapori contribuiscono ad
assorbire, diffondere e rifrangere la radiazione solare diretta e riflessa dalla superficie ter-
restre.
Una delle approssimazioni più utilizzate per mettere in relazione radianza al sensore e ri-
flettanza al bersaglio è:
S totL H pρ T L= ⋅ ⋅ +
dove: - Ls è la radianza al sensore;
- Htot è la radianza incidente totale;
- ρ è la riflettanza del bersaglio (rapporto radianza riflessa/radianza incidente);
- T è la trasmittanza dell’atmosfera;
- Lp è la così detta “radianza del percorso”.
Tali valori sono stimati mediante modelli atmosferici o mediante una tecnica detta del
“pixel nero”, in cui sostanzialmente si suppone che i pixel cui si associa il valore minimo
di riflettanza abbiano in effetti riflettanza zero [Caprioli, 2005].
Figura 2.3.5 - Sulla sinistra l’immagine originale prima di essere trattata; sulla destra la stessa scena una volta applicata la correzione atmosferica [http://tlclab.unipv.it]
47
Capitolo 2 Elaborazione ed interpretazione delle immagini
2.3.2 - CORREZIONI GEOMETRICHE
I dati acquisiti sono affetti anche da errori geometrici. La posizione di ogni pixel osservato
deve teoricamente essere individuata con esattezza geograficamente: ciò non accade, pro-
prio per la presenza di tali errori.
Gli errori geometrici, così come quelli radiometrici, vengono trattati dalla stazione rice-
vente per ridurne quanto più possibile gli effetti, utilizzando opportuni programmi che ef-
fettuano la compensazione di tali errori. Malgrado ciò restano degli errori residui che do-
vranno poi essere eliminati o ridotti a cura dell’utente in fase di processamento
dell’immagine.
Le cause di questo tipo di errori si possono riassumere come segue:
a. Errori strumentali;
b. Distorsione prospettica;
c. Rotazione della Terra e simultaneo spostamento della traccia a terra durante un ci-
clo di osservazione;
d. Variazioni di assetto del satellite.
a. Errori strumentali
Sono errori insiti nello strumento, prevalentemente distorsioni della parte ottica, velocità
di campionamento non uniforme e non linearità del sistema di scansione: non si può certo
pretendere che strumenti del genere siano esenti da tali errori, come tutti gli strumenti di
precisione in genere, ma si può pretendere che la ditta costruttrice dello strumento si pon-
ga delle tolleranze molto ristrette perché il prodotto sia efficiente e soprattutto sia preciso.
b. Distorsione prospettica
Geometricamente è un fenomeno dovuto al punto di vista (sensore) a distanza finita, che
comporta un effetto irreale sull’immagine specie quando si ha a che fare con strutture mol-
to elevate dal terreno o con rilievi particolarmente irregolari. Le classiche linee che con-
vergono verso il punto di fuga, e che non consentono misure dirette sulla scena, nel caso
di sensori a scansione possono essere individuate lungo la direzione ortogonale al moto
del satellite (quindi lungo lo swath), ma anche, sebbene in forma molto più contenuta,
lungo la direzione dell’orbita. Ciò vale soprattutto se operiamo con sensori ottico-
48
Capitolo 2 Elaborazione ed interpretazione delle immagini
meccanici a specchio oscillante che possono presentare più rilevatori per singola banda
che effettuano il campionamento trasversalmente al moto del satellite.
Figura 2.3.6 - La ripercussione dell’effetto prospettiva sul piano del sensore
In figura 2.3.6 è riportato un esempio grafico: in verde un edificio che capita all’interno
dello swath del satellite, la linea rossa verticale tra a e b rappresenta la facciata
dell’edificio, ed il tratto rosso sul piano della scansione across-track, delimitato dai punti
A e B, rappresenta il tratto ab proiettato sull’immagine. L’effetto prospettico comporterà,
sulla scena finale, la presenza dell’edificio distorto nella direzione che va da B ad A. Come
si può dedurre sempre dalla figura 2.3.6, tale effetto aumenta con l’allontanarsi dal nadir
del sensore, e quindi maggiore sarà il FOV (Field Of View) più evidente sarà l’effetto della
prospettiva ai margini dell’immagine.
c. Rotazione terrestre
Durante la scansione dell’immagine telerilevata da satellite, la Terra ruota verso Est, ra-
gion per cui l’inizio della riga successiva si trova leggermente più ad Ovest rispetto a
quanto previsto per prolungamento dalla posizione della riga scandita precedente.
49
Capitolo 2 Elaborazione ed interpretazione delle immagini
Figura 2.3.7 - In alto una scena satellitare corretta dall’effetto della rotazione terrestre: le croci rosse indicano le nuove posizioni di tre punti (il satellite in questo caso percor-re la fase discendente dell’orbita mentre effettua la ripresa; in fase ascendente l’immagine sarebbe stata distorta verso sinistra)
d. Variazioni di assetto del satellite
Il moto dei satelliti non è mai stabile e costante: il monitoraggio da terra permette di con-
trollare di quanto si sta spostando il satellite dalla sua orbita e in caso di necessità si pos-
sono eseguire delle manovre correttive che consistono nel dare degli impulsi, con i motori
della piattaforma, in determinate direzioni per modificare l’assetto e l’orbita del satellite.
Accade quindi che durante una scansione si verificano delle variazioni dell’assetto del sa-
tellite (angoli di beccheggio, rollio ed imbardata) (vedi Figura 2.2.1)
Esistono vari metodi per correggere geometricamente l’immagine, qui ne proponiamo tre
tra i più accreditati:
• Metodo basato sulla conoscenza dei parametri orbitali;
• Georeferenziazione;
• Ortorettifica.
50
Capitolo 2 Elaborazione ed interpretazione delle immagini
2.3.2.1 - MODELLO GEOMETRICO ORBITALE
Figura 2.3.8b - Angoli di assetto Figura 2.3.8a - Principali parametri orbitali
Senza addentrarci troppo nel campo prettamente spaziale, vediamo in breve quali sono i
parametri orbitali fondamentali che permettono di descrivere l’orbita (vedi Figura 2.3.8a):
- Semiasse maggiore dell’orbita a
- Eccentricità dell’orbita e
- Inclinazione dell’orbita i sul piano dell’equatore
- Ascensione retta del nodo ascendente Ω
- Argomento del perigeo ω
- Anomalia vera τ
- Angoli di assetto del satellite (φ, ω, κ) (vedi Figura 2.3.8b).
Con la conoscenza di questi parametri è possibile ricostruire la configurazione geometrica
presente all’acquisizione del dato, per ogni istante t, utilizzandola per assegnare le coordinate
ai pixel acquisiti. Questo metodo può essere considerato valido se i parametri sono noti con
una buona precisione, ma non è sempre così: per esempio tale metodo non considera alcuni
fattori come le variazioni del puntamento della piattaforma, fattori che provocano distorsioni
geometriche.
51
Capitolo 2 Elaborazione ed interpretazione delle immagini
Sui satelliti di nuova generazione si utilizzano equipaggiamenti con sensori di “puntamen-
to” che rendono più accurata la conoscenza della situazione geometrica del satellite. Uno di
questi sensori è lo Star Tracker Stellar Compass (STSC), strumento che ha la capacità di ri-
conoscere costellazioni mediante un’operazione di “matching” con un database di costella-
zioni presenti nel software dello strumento. Mediante un sensore CCD e delle risoluzioni an-
golari elevate (nell’ordine dei 150 micro-radianti [www.llnl.gov]) questo strumento è in grado
di aumentare la precisione nella conoscenza dei parametri orbitali del satellite.
2.3.2.2 - GEOREFERENZIAZIONE
Il secondo metodo consiste nell’operazione di georeferenziazione dell’immagine, cioè
l’associazione dell’immagine ad un sistema globale, o locale, di coordinate cartografiche.
La procedura consiste nell’individuare punti ben visibili (strade, incroci, spartitraffico,
ecc.) e ben distribuiti sull’immagine da correggere geometricamente, ed allo stesso tempo
trovare i corrispondenti punti su un immagine o su una carta di riferimento, ottenendo quindi
dei punti doppi (punti le cui coordinate sono note in entrambi i sistemi): tali punti vengono
chiamati Punti di Controllo a terra (GCP - Ground Control Point) (10). Un numero elevato di
GCP permette di impostare un sistema di equazioni sovrabbondante, e quindi di operare con i
minimi quadrati per ricavare i residui sui vari punti di controllo: la quantità di GCP varia in
funzione dell’ordine della trasformazione che si intende utilizzare e della precisione che si
vuole ottenere. Ad esempio una trasformazione conforme, le cui equazioni sono
cos sinsin cos
x
y
x' ax by c xλ ρ yλ ρ ty' bx ay d xλ ρ yλ ρ t
= + + = + +
= − + + = − + +
dove
tx = traslazione rigida dell’immagine secondo l’asse x
ty = traslazione rigida dell’immagine secondo l’asse y
ρ = rotazione rigida dell’immagine
λ = fattore di scala secondo gli assi x ed y
necessita di almeno 2 punti doppi, mentre una trasformazione affine, le cui equazioni sono
(10) - Le coordinate dei GCP possono essere ottenute anche da altre fonti, quali misure GPS, cartografie vettoriali, mappe topo-
grafiche, monografie di punti fiduciali, ecc.
52
Capitolo 2 Elaborazione ed interpretazione delle immagini
( )( )
cos sin
sin cosx x
y y
x' ax by c xλ ρ yλ ρ γ t
y' dx ey f xλ ρ yλ ρ γ t
= + + = + + +
= + + = − + − +x
y
dove
tx = traslazione rigida dell’immagine secondo l’asse x
ty = traslazione rigida dell’immagine secondo l’asse y
ρ = rotazione rigida dell’immagine
λx = fattore di scala secondo l’asse x
λy = fattore di scala secondo l’asse y
γ = angolo di scorrimento
necessita di almeno 3 punti doppi.
La determinazione dei GCP consente la creazione di un grid, una “rete” a maglie quadrate
regolari di cui si conoscono le coordinate planimetriche o planoaltimetriche e che rappresen-
tano le coordinate che dovranno assumere i pixel dell’immagine secondo le funzioni di tra-
sformazione determinate con i GCP.
Per la georeferenziazione è d’uso fare anche dei controlli sul risultato finale: non inseren-
do nelle equazioni tutti i GCP, ma lasciandone alcuni inutilizzati, alla fine della correzione
dell’immagine si potranno verificare i residui sui punti inutilizzati, che in tal caso prendono il
nome di Punti di Verifica (CP - Check Point).
Quando si effettua una georeferenziazione mediante una carta o un’immagine preesistente,
si parla più di frequente di registrazione (o coregistrazione) “immagine su mappa” e di regi-
strazione (o coregistrazione) “immagine su immagine”.
2.3.2.3 - ORTORETTIFICA DI UN’IMMAGINE DIGITALE
Affinché si possano utilizzare le immagini a scopi metrici è necessario che la scena ritrag-
ga una zona piana o quantomeno ritenibile come tale. Le protuberanze della Terra creano
un’inevitabile variazione di quota relativa del satellite rispetto al terreno, comportando di
conseguenza una scala che differisce da zona a zona nella scena. Zone pianeggianti non sono
però in maggioranza sul nostro pianeta, e sul nostro paese ancora meno, si rende quindi ne-
cessaria un’ulteriore correzione dell’immagine: l’ortorettifica; tale procedura consiste nel tra-
sformare la proiezione centrale in una visione ortogonale, uniformando la scala dell’intera
scena [Tao, et al., 2004].
53
Capitolo 2 Elaborazione ed interpretazione delle immagini
In fotogrammetria classica si procede per ortofotoproiezione: l’intero fotogramma viene
proiettato su di un modello digitale del terreno (vedi Figura 2.3.9) seguendo le equazioni di
collinearità che si riportano qui di seguito [A.Selvini, F.Guzzetti, 2000]:
( )
( )
11 12 130 0
31 32 33
21 22 230 0
31 32 33
r x r y r cX X Z Zr x r y r cr x r y r cY Y Z Zr x r y r c
+ −− = −
+ −+ −
− = −+ −
in cui:
X,Y,Z = coordinate spaziali dell’oggetto
X0,Y0,Z0 = coordinate spaziali del centro di proiezione.
x, y = coordinate immagine dell’oggetto riferite al punto fiduciale sul fotogramma
c = distanza principale
ri,j = elementi della matrice di rotazione che legano gli assi del sistema di coordi-
nate immagine con gli assi del sistema di coordinate oggetto.
Figura 2.3.9 - Schema del processo di ortorettifica
Come si può notare in tali equazioni è presente la coordinata Z dell’oggetto, il che spiega
perché l’utilizzo di un modello digitale del terreno, per l’esattezza un DEM (Digital Elevation
Model). Il DEM è uno dei possibili modelli digitali del terreno con cui si ha a che fare
54
Capitolo 2 Elaborazione ed interpretazione delle immagini
nell’ambito della fotogrammetria e più in generale della rappresentazione del territorio: esi-
stono quindi anche altre superfici che si differenziano dal DEM, seppur di poco, e che vengo-
no scelte in base all’utilizzo che si richiede, ma tutte sono accomunate dal poter fornire in-
formazioni spaziali di superfici relativamente ad un sistema di riferimento arbitrario.
Alcuni esempi di modelli digitali del terreno sono:
- DEM - Digital Elevation Model: il modello si riferisce all’elevazione di punti rispetto
ad un determinato datum; viene in genere prodotto in formato raster associando a
ciascun pixel l’attributo relativo alla quota assoluta;
- DTM - Digital Terrain Model: è l’insieme di punti appartenenti al terreno nudo, (tra-
lascia quindi alberi, edifici, costruzioni, ecc.);
- DSM - Digital Surface Model: è una superficie che include tutto ciò che è non è pre-
sente nel DTM, quindi è la rappresentazione più prossima alla realtà geografica.
Le modalità di generazione di un modello digitale sono varie:
- Rilievo Laser: si sfruttano le coordinate dei punti ottenuti con il rilevo una volta che
la nuvola di punti è stata georifierita;
- Rilievo Topografico: generalmente si effettuano misure GPS in modalità cinematica
con punti registrati ad una frequenza di pochi secondi, in modo da poter ottenere un
discreto numero di punti;
- Rilievo Fotogrammetrico: si può eseguire con tecniche manuali mediante restitutori,
o automatiche mediante autocorrelazioni di immagini;
- Vettorializzando cartografie raster: si vettorializzano carte topografiche in formato
raster georifierite. Si vettorializzano principalmente punti quotati o curve di livello;
- Da cartografie vettoriali 3D: si utilizzano le coordinate planoaltimetriche delle entità
geometriche presenti nella cartografia.
Non si pensi soltanto ad un utilizzo dei modelli del terreno per correzioni geometriche di
immagini, ma anche per analisi spaziali per calcoli di vario genere (visibilità, volumetrie,
pendenze, ecc.)
La procedura di ortorettifica citata non è però applicabile quando parliamo di sensori
scanner: non siamo più in presenza di fotogrammi e quindi il concetto di coordinate immagi-
ne riferite al singolo fotogramma svanisce. Per effettuare un’ortorettifica con scene satellitari
si devono considerare i parametri orbitali di cui abbiamo parlato nei paragrafi precedenti, ma
le equazioni che mettono in relazione coordinate oggetto con coordinate immagine sulla sce-
55
Capitolo 2 Elaborazione ed interpretazione delle immagini
na satellitare sono più complesse delle equazioni di collinearità utilizzate con immagini “fra-
me”. Anche in tali equazioni però è necessario introdurre le quote dei punti oggetto ben indi-
viduati sull’immagine (GCP) che andremo ad utilizzare per l’ortorettifica, e di un grid per il
ricampionamento le cui coordinate sono note sia planimetricamente che in quota (si sfrutta il
DEM per ricavare le quote).
Perché l’immagine ortorettificata sia accurata, si devono tener in debito conto due requisi-
ti: la buona distribuzione dei GCP e l’accuratezza del DEM; qualora uno di questi due requi-
siti venisse meno si otterrebbe un’immagine ortorettificata affetta da errori non di poco conto.
2.4 - IL RICAMPIONAMENTO
La correzione geometrica appena descritta comporta inevitabilmente una distorsione ra-
diometrica dell’immagine: il guadagno geometrico è quindi a discapito della radiometria
dell’immagine. Per ogni punto sul grid di output (ogni punto rappresenterà il nuovo pixel) si
va allora a cercare l’intensità del pixel nell’immagine di input, determinandola mediante la
tecnica del ricampionamento (o resampling): i più comuni algoritmi di ricampionamento so-
no tre:
- Nearest Neighbor (prossimo più vicino)
È il metodo più semplice di ricampionamento, un’approssimazione al primo ordine, ma
anche quello meno accurato: il valore DN assegnato al singolo pixel della nuova matrice
di output è pari a quello del pixel della matrice di input che è posto alla minima distanza.
Vantaggi: valori DN inalterati, algoritmo semplice da implementare, tempi di calcolo
contenuti;
Svantaggi: effetti di discontinuità, shift fino a ½ pixel.
Figura 2.4.1 - Ricampionamento Nearest Neighbor: A = Ma-trice dei pixel in ingresso, B = Matrice dei pixel in uscita
56
Capitolo 2 Elaborazione ed interpretazione delle immagini
- Bilinear
Il valore DN assegnato al nuovo pixel viene calcolato mediante interpolazione che coin-
volge i 4 pixel più vicini;
Vantaggi: accuratezza geometrica migliorata rispetto al Nearest Neighbor, immagine
dai contrasti più attenuati (smooth);
Svantaggi: valori DN alterati, tempo di calcolo stimato pari a 10 volte quello impie-
gato dal Nearest Neighbor.
Figura 2.4.2 - Ricampionamento Bilinear: A = Matrice dei pixel in ingresso, B = Matrice dei pixel in uscita
- Cubic convolution
Questo tipo di interpolazione calcola il valore DN del nuovo pixel sfruttando ben 16 pixel
più prossimi. Tale approssimazione risulta certamente la più performante in termini di ac-
curatezza rispetto alle due precedenti.
Vantaggi: accuratezza geometrica migliorata rispetto al Nearest Neighbor e al Bili-
near, più semplice riconoscere le piccole variazioni dei dettagli
sull’immagine;
Svantaggi: valori DN alterati, algoritmo complesso da implementare, tempo di calco-
lo stimato pari a 20 volte quello impiegato dal Nearest Neighbor.
57
Capitolo 2 Elaborazione ed interpretazione delle immagini
Figura 2.4.2 - Ricampionamento Cubic Convolution: A = Ma-trice dei pixel in ingresso, B = Matrice dei pixel in uscita
2.5 - ELABORAZIONE ED INTERPRETAZIONE DELLE IMMAGINI
Terminate le operazioni di competenza del centro di elaborazione del segmento terrestre,
sono terminati i trattamenti a cui il dato iniziale grezzo (raw data) è sottoposto: sono quindi
concluse le procedure che fanno parte dell’Image Preprocessing (vedi nota (8)). Ma perché i
dati telerilevati siano utili, dobbiamo essere in grado di estrarre informazioni significative
dalle immagini. L’interpretazione e l’analisi delle immagini telerilevate implicano
l’identificazione e quindi l’estrazione di utili informazioni sui diversi elementi presenti sulle
stesse [www.planetek.it].
Molte delle interpretazioni e identificazioni di elementi presenti nelle immagini sono ef-
fettuate manualmente o visivamente da un interprete umano, e in certi casi ciò viene messo in
atto usando immagini visualizzate in un formato fotografico, specie se si analizzano immagi-
ni provenienti da riprese aeree in formato analogico.
Le immagini telerilevate possono essere visualizzate su uno schermo di un elaboratore
come una griglia di pixel, con ciascun pixel corrispondente ad un numero digitale che rappre-
senta il livello di luminosità del pixel dell’immagine. In questo caso i dati sono in formato di-
gitale.
È a questo punto che l’utente interviene sulle immagini con metodi di Image Processing
per cercare di migliorarne la qualità e consentire quindi una migliore interpretazione, manuale
o automatica che sia, ed in questo contesto analizzeremo proprio un automatismo per
58
Capitolo 2 Elaborazione ed interpretazione delle immagini
l’interpretazione dei dati. L’attuazione di tali procedure è possibile grazie al digitale che, co-
me vedremo in seguito, mostra numerosi altri vantaggi.
Quando si parla di migliorare visivamente un’immagine si introduce il concetto di enfatiz-
zazione (o enhancement) dell’immagine, cioè un insieme di tecniche volte al miglioramento
dell’aspetto delle immagini al solo scopo di facilitarne l’interpretazione visiva, aumentando le
differenze di tono tra vari oggetti di una scena, esaltando i contorni degli oggetti o combinan-
do diverse bande tra loro [Dermanis et al., 2002].
Queste tecniche possono essere divise in due gruppi: quelle che non modificano i valori
dei pixel nell’immagine originale e quelle che invece agiscono sui DN, modificandone i valo-
ri e inficiandone quindi il significato radiometrico.
2.5.1 - POSSIBILI VISUALIZZAZIONI DELL’IMMAGINE SU SCHERMO
Tra le tecniche di enfatizzazione delle immagini si introducono anche le possibili differen-
ti visualizzazioni di un’immagine su schermo, tanto più numerose quanto più bande si hanno
a disposizione per quella scena. Su di uno schermo è possibile visualizzare immagini in due
modalità: o in toni di grigio o come immagini a colori combinando differenti bande usando i
tre colori primari (RGB) dello schermo, rappresentando i dati di ciascuna banda come uno dei
tre colori; in funzione della luminosità (DN) di ciascun pixel di ogni banda, i colori primari si
combinano in proporzioni diverse per formare nuovi colori (si parla in tal caso di sintesi addi-
tiva, cioè della possibilità di sovrapporre i tre colori primari). Se tale metodo si usa per visua-
lizzare una singola banda, quest’ultima viene visualizzata attraverso tutti e tre colori primari,
ma i livelli di luminosità dei tre colori variano parallelamente, ottenendo così un’immagine in
toni di grigio.
Quando si assegnano ai tre colori RGB dello schermo rispettivamente le bande rosso, ver-
de e blu di un’immagine multispettrale, si ottiene quella che si chiama rappresentazione in
colori reali o naturali. Si parla di colori reali proprio perché questa è l’unica composizione di
bande che permette di ottenere la stessa visualizzazione che si avrebbe osservando diretta-
mente l’oggetto: siamo infatti nel campo del visibile, quindi percepibile dall’occhio umano.
Se invece si assegnano ai tre colori primari altre composizioni di bande, o anche le stesse
bande di prima ma in ordine differente, si ottengono tante possibili visualizzazioni che ven-
gono dette rappresentazioni in falso colore: le applicazioni di questa modalità di visualizza-
zione sono molteplici specialmente in campo ambientale, laddove si vuole indagare il territo-
59
Capitolo 2 Elaborazione ed interpretazione delle immagini
rio alla ricerca per esempio di sostanze o di scarichi sottomarini abusivi, altrimenti impossibi-
li da vedersi. Una delle più frequenti composizioni di bande è quella con le seguenti associa-
zioni di colore:
Rosso: Near Infrared (NIR) Verde: Rosso Blu: Verde
Tutte le tecniche di visualizzazione descritte rientrano nel primo gruppo delle tecniche di
enfatizzazione, poiché non modificano i valori DN delle immagini.
321 134
341 413
Figura 2.5.1 - Alcuni esempi di assegnazioni delle quattro bande IKONOS (1 = Blu; 2 = Verde; 3 = Rosso; 4 = Infrarosso) ai colori principali RGB di uno schermo: la prima a sinistra è una rappresen-tazioni in colori naturali, le rimanenti sono rappresentazioni in falso colore. [Dermanis et al., 2002]
60
Capitolo 2 Elaborazione ed interpretazione delle immagini
2.5.2 - MIGLIORAMENTO DEI CONTRASTI MEDIANTE ELABORAZIONI SULLE BANDE
2.5.2.1 - IL CONCETTO DI CONTRASTO
Nel primo capitolo abbiamo visto come ogni immagine, o meglio ogni banda di
un’immagine, ha un suo istogramma che rappresenta la distribuzione dei pixel nell’intera
banda dei valori DN (vedi Figura 1.3.3). Si vedrà ora come migliorare l’immagine interve-
nendo proprio sugli istogrammi delle sue bande.
Il concetto di contrasto (o contrast) di un’immagine è associato numericamente alla varia-
bilità dei toni di grigio presenti nell’immagine stessa ed è collegato percettivamente alla leg-
gibilità dell’immagine ed alla sua nitidezza [Dermanis et al., 2002].
Un’immagine caratterizzata da un intervallo limitato di toni di grigio ha scarso contrasto:
gli oggetti rappresentati non sono ben separati e l’immagine risulta come oscurata e scarsa-
mente comprensibile. Un'immagine è ad altissimo contrasto quando solo due toni di grigio, il
primo prossimo al bianco e il secondo prossimo al nero, dominano la scena: essa risulta molto
nitida ma solo le entità dominanti sono ben distinguibili, mentre si perdono i dettagli inter-
medi. L’immagine più equilibrata è quella caratterizzata da contrasto medio o regolare, ove
tutti i toni di grigio sono presenti e tutti i dettagli della scena sono rappresentati con sufficien-
te chiarezza.
Ricordando che i toni di grigio di una rappresentazione grafica sono in relazione lineare
con i valori numerici memorizzati nel corrispondente file, dove il nero è associato al valore 0
e il bianco al valore massimo della banda, possiamo affermare che una situazione di buon
contrasto è dunque quella in cui tutti i possibili valori DN sono presenti in modo numerica-
mente uniforme.
2.5.2.2 - CONTRAST STRETCHING
In molte scene può succedere che i valori dei pixel occupino solo una piccola porzione
dell’intervallo dei valori possibili. Se queste venissero visualizzate nella forma originale, si
otterrebbero delle immagini molto poco contrastate, dove oggetti simili radiometricamente
risulterebbero non distinguibili: l’immagine sarebbe quindi di difficile interpretazione. Con-
siderando un’immagine con risoluzione a 8 bit (quindi con 256 valori di intensità possibili dei
pixel) succede che i primi e gli ultimi 60 ÷ 80 valori DN non vengono sfruttati: ci si rende
benissimo conto che è un’importante risorsa sprecata.
61
Capitolo 2 Elaborazione ed interpretazione delle immagini
62
Figura 2.5.2 - Applicazione del contrast stretching ad un immagine e relativi istogrammi. In alto l’immagine originale, al centro l’immagine modificata applicando un contrast stretching lineare, in basso l’immagine modificata applicando un contrast stretching non lineare [http://tlclab.unipv.it]
Capitolo 2 Elaborazione ed interpretazione delle immagini
La tecnica del contrast stretching utilizzata per il miglioramento del contrasto consiste
nell’applicazione di un algoritmo di trasformazione che permette di espandere l’intervallo dei
livelli di grigio registrati nell’immagine originale fino a coprire tutto l’intervallo dei valori
possibili. In questo modo sfruttiamo al meglio la banda di valori DN possibili, ottenendo un
netto miglioramento dell’immagine che ne accentua i contrasti e i particolari.
Gli algoritmi possibili sono tanti, ma sostanzialmente si dividono in trasformazioni lineari
e trasformazioni non lineari.
In figura 2.5.2 sono riportate due applicazioni di contrast stretching, la prima lineare e la
seconda non lineare.
Si tenga sempre presente che le modifiche dell’immagine a seguito di modifica
dell’istogramma differiscono dalle modifiche effettuate tramite il ricampionamento: nella
modifica degli istogrammi, per ciascun pixel il nuovo valore viene calcolato statisticamente
(e non tramite analisi spaziale) sfruttando tutti i restanti pixel dell’immagine originale.
2.5.2.3 - I FILTRI MEDIANTE FINESTRE MOBILI
Esaminiamo ora i metodi di trasformazione di immagini nei quali il valore di ciascun nuo-
vo pixel viene calcolato in funzione del valore del corrispondente pixel e della sua posizione
nell’immagine originale. Sia dunque fij il valore originale del pixel localizzato nella riga i e
nella colonna j; sia gij il nuovo valore per il medesimo pixel. Le trasformazioni più semplici
sono quelle di tipo lineare, ovvero
, ; ,ij i k j m kmk m
g h f= ∑∑
dove i coefficienti hi,k;j,m sono noti e caratteristici appunto della trasformazione. La trasforma-
zione può essere semplificata limitando l’influenza dei valori originali fkm solo ai pixel (k, m)
che si trovano vicino al punto di calcolo (i, j). Si ottiene dunque una trasformazione localizza-
ta: ciascun pixel della nuova immagine rappresenta il comportamento locale dei pixel
dell’immagine originale.
Figura 2.5.3 - Principali formati delle finestre mobili
63
Capitolo 2 Elaborazione ed interpretazione delle immagini
Il metodo più semplice per effettuare la trasformazione è quello di utilizzare i pixel (k, m)
posti nelle p righe e p colonne precedenti e seguenti il pixel (i, j) (vedi Figura 2.5.3): vengono
quindi considerati solo i valori compresi in una finestra di (2p + 1) × (2p + 1) elementi e la
trasformazione prende la forma
, ; ,
i p j p
ij i k j m kmk i p m j p
g h f+ +
= − = −
= ∑ ∑
Quando il calcolo deve essere effettuato per il pixel (i', j') = (i + r, j + c) la finestra viene
corrispondentemente traslata nella nuova posizione: si tratta cioè di una finestra mobile (mo-
ving window) [Dermanis et al., 2002].
Figura 2.5.4 - Schema della finestra mobile
Di seguito sono elencati due frequenti filtri mediante finestre mobili, con la forma numeri-
ca della matrice e degli esempi grafici.
64
Capitolo 2 Elaborazione ed interpretazione delle immagini
- Passa-alto
I filtri passa-alto vengono utilizzati per l’identificazione delle discontinuità mettendo in
evidenza le zone dove si verificano bruschi cambiamenti di intensità, poiché assegnano valori
elevati in modulo ai pixel in cui si presentano tali fenomeni, mentre vengono attribuiti valori
piccoli ai pixel appartenenti ad aree lisce. L’immagine prodotta, in genere, non ricorda
nell’aspetto quella originale; serve però per l’identificazione delle entità caratteristiche pre-
senti in essa: tale aspetto è di grande rilevanza per esempio nella fotogrammetria digitale
[Dermanis et al., 2002].
- Passa-basso
Hanno come effetto la riduzione del contrasto, attenuando le variazioni di valore tra pixel
contigui [Dell’Acqua, 2005]. Il più comune filtro passa-basso è quello della media viaggiante
−1 −1 −1
−1 8 −1
−1 −1 −1
Figura 2.5.5a - Filtro passa-alto 3 × 3
Figura 2.5.5b - Applicazione del filtro passa-alto [Dermanis et al., 2002]
1/9 1/9 1/9
1/9 1/9 1/9
1/9 1/9 1/9
Figura 2.5.6a - Filtro passa-basso 3 × 3
65
Capitolo 2 Elaborazione ed interpretazione delle immagini
Figura 2.5.6b - Applicazione del filtro passa-basso [Dermanis et al., 2002]
2.5.2.4 - OPERAZIONI ALGEBRICHE TRA BANDE
Vengono effettuate tra bande della stessa immagine o di immagini riprese in date diverse
ma riguardanti la stessa area: servono ad enfatizzare o ridurre alcuni effetti propri
dell’immagine e delle caratteristiche spettrali degli oggetti in essa contenuti. Applicare opera-
zioni aritmetiche ad una immagine è equivalente all’applicazione di tali operazioni ai valori
dei suoi pixel in posizioni corrispondenti, per questo è bene operare su immagini ben georife-
rite o, meglio ancora, ortorettificate.
Le operazioni base che si effettuano tra bande sono:
- Somma
- Sottrazione
- Moltiplicazione
- Divisione
Naturalmente sono possibili infinite operazioni più complesse tra bande combinando op-
portunamente le operazioni base.
- Somma
In termini pratici la somma di immagini corrisponde il più delle volte ad una operazione di
media e in quanto tale, può essere utilizzata per ridurre il rumore dell’immagine. È raro
trovare tale operazione usata direttamente, meno raro è trovarla applicata con calcoli più
complessi.
- Sottrazione
Questa operazione trova più spesso uso in applicazioni che non implicano l’analisi di più
bande della medesima immagine, bensì immagini nella stessa banda di acquisizione ma
66
Capitolo 2 Elaborazione ed interpretazione delle immagini
riguardanti due epoche differenti, per poter mettere in evidenza i cambiamenti del suolo da
un’epoca all’altra: tale operazione viene chiamata change detection. L’immagine risultan-
te si visualizza spesso in pseudocolore in maniera da distinguere i pixel con valori intorno
allo zero (assenza di cambiamento o cambiamento minimo) dai pixel con valori significa-
tivamente diversi dallo zero (cambiamento significativo) [http://tlclab.unipv.it].
- Moltiplicazione
È un’operazione applicata di rado come pixel × pixel, in genere si moltiplica un’immagine
per un’altra immagine binaria che funge da maschera: in tal modo si isolano zone di inte-
resse (parte dell’immagine moltiplicata per la costante 1) e si eliminano di conseguenza le
zone non interessate allo studio dell’immagine (parte dell’immagine moltiplicata per la
costante 0), senza modificare i valori di radianza della zona isolata.
Più di frequente tale operazione si applica come costante × pixel: in tal modo si possono
enfatizzare i pixel che hanno alti valori di riflettanza.
- Divisione
A differenza della moltiplicazione, la divisione di immagini pixel a pixel è largamente uti-
lizzata: frequente è l’impiego per ridurre gli effetti della variazione indesiderata
dell’illuminazione (dovuti ad esempio alle differenti pendenze del terreno).
2.5.2.5 - ANALISI DELLE COMPONENTI PRINCIPALI
Le tecniche di acquisizione dati multispettrali forniscono diverse immagini della stessa
scena dove ognuna rappresenta la distribuzione spaziale dell’energia riflessa o emessa a di-
verse lunghezza d’onda visualizzabile tramite gli istogrammi.
Spesso però si osserva che esiste un alto grado di correlazione tra diverse immagini di uno
stesso bersaglio e ciò dipende dalla natura fisica dell’oggetto, dalla larghezza della banda e
dal rumore presente nei dati: si dice allora che i dati hanno una certa ridondanza
d’informazioni [Dermanis et al., 2002]. Questo può essere superato o scegliendo le bande
meno correlate, oppure costruendo mediante certe combinazioni di dati originali, delle bande
sintetiche che siano tra loro meno correlate di quelle originali e che possano contenere la
maggior parte delle informazioni in un set ridotto di dati.
67
Capitolo 2 Elaborazione ed interpretazione delle immagini
La trasformazione per componenti principali (o principal component transformation) è
una trasformazione sulle bande di un’immagine finalizzata a creare altrettante pseudobande
nelle quali la distanza dei pixel rimanga inalterata (11).
Questa trasformazione va concepita come uno spostamento della “nuvola” dei pixel dalla
posizione originale nello spazio multispettrale ad una nuova, in modo tale che la forma della
nuvola rimanga inalterata. Lo spostamento viene in generale ottenuto mediante una rototra-
slazione dello spazio multispettrale ma, qualora si vincoli l’origine del sistema di riferimento
nello spazio multispettrale, la trasformazione è costituita unicamente da una rotazione.
A questo punto ci si chiede quale sia la migliore trasformazione da attuare per fare si che
si ottengano pseudobande che presentino vantaggi rispetto alle bande originali. L’idea di base
soggiacente al metodo di trasformazione per componenti principali è la seguente: il primo as-
se del nuovo sistema di riferimento dello spazio multispettrale viene collocato (fra le infinite
possibili) lungo la direzione di maggior dispersione dei pixel (a tal proposito si ricorda che
una misura della dispersione lungo una direzione è fornita dalla varianza delle proiezioni dei
pixel sulla direzione stessa). Il secondo asse, fra le direzioni possibili e ortogonali al primo,
viene nuovamente scelto in modo da massimizzare la dispersione dei pixel lungo l’asse stes-
so. La medesima procedura di massimizzazione della dispersione viene applicata al terzo asse
e così via, costringendo sempre ciascun asse i-esimo ad essere ortogonale ai precedenti.
L’ultimo asse dello spazio risulta viceversa univocamente definito dal requisito di ortogonali-
tà rispetto agli assi precedenti. Al termine della trasformazione gli assi risultano ordinati per
dispersione (varianza) dei valori dei pixel decrescente: le coordinate di ciascun pixel rispetto
ad ogni asse rappresentano dunque i valori del pixel nelle nuove pseudobande.
Per capire la trasformazione per componenti principali consideriamo il semplice caso di
due bande, in cui si deve scegliere unicamente la nuova posizione di un asse: essa è determi-
nata dal suo angolo θ rispetto alla posizione originale. Se x1 ed x2 sono gli assi originali, men-
tre x'1 ed x'2 quelli ottenuti dalla trasformazione, la relazione fra coordinate originali e nuove
di ciascun pixel nello spazio multispettrale è data dalla
( )1 1
2 2
cos sinsin cos
x' xθ θθ θx' x
⎡ ⎤ ⎡ ⎤⎡ ⎤= =⎢ ⎥ ⎢ ⎥⎢ ⎥−⎣ ⎦⎣ ⎦ ⎣ ⎦
X = R X' θ
(11) - Attenzione perché in questo caso si parla di distanza nello spazio multispettrale ad n dimensioni quante sono le bande
dell’immagine e non di distanza nello spazio
68
Capitolo 2 Elaborazione ed interpretazione delle immagini
La matrice R(θ) di rotazione, viene chiamata matrice di correlazione.
Figura 2.5.7 - Rototraslazione mutlispettrale [Dermanis et al., 2002]
Osservando la situazione esemplificata in figura 2.5.7, è ovvio che un posizionamento
dell’asse x'1 nella direzione di massima dispersione lascerà le coordinate x'2 dei pixel molto
vicine l’una all’altra, con dispersione praticamente nulla: ciò implica che le coordinate x'2
possono essere ignorate in un successivo processo di classificazione ed interpretazione
dell’immagine, poiché non contengono “informazioni di distanza” utili per la classificazione.
Quest’operazione è equivalente a proiettare ciascun pixel sull’asse x'1 (ovvero porre le sue
coordinate x'2 a zero) (vedi Figure 2.5.8a e 2.5.8b).
Figura 2.5.8b - Situazione di “perfetta correlazione” tra le due bande x'1 e x'1
Figura 2.5.8a - Situazione di “quasicorrelazione” tra le due bande x'1 e x'1
Le nuove posizioni proiettate dei pixel differiscono lievemente da quelle originali e pos-
sono essere utilizzate altrettanto bene per scopi di classificazione, con il vantaggio però di la-
vorare su un’unica banda anziché due: si sono quindi ottenuti una compressione dei dati e un
significativo risparmio nel calcolo numerico necessario per la classificazione. Naturalmente
ciò è possibile quando i valori dei pixel nelle due bande originali sono molto correlati, ovvero
giacciono sostanzialmente su una retta (vedi Figure 2.5.8a e 2.5.8b).
69
Capitolo 2 Elaborazione ed interpretazione delle immagini
Attraverso questa trasformazione, l’informazione dell’immagine multispettrale viene ridi-
stribuita in modo da essere contenuta per la maggior parte nelle prime componenti principali
e la parte contenuta nelle successive può essere interpretata come solo rumore.
1 2
3 4
Banda 1 Banda 2 Banda 3 Banda 4
85.83 36.15 35.13 26.22 σ =
σ2 = 7367.52 1306.52 1234.44 687.65
( )
1 0.70 0.81 0.920.70 1 0.97 0.660.81 0.97 1 0.750.92 0.66 0.75 1
⎡ ⎤ ⎢ ⎥
⎢ ⎥= ⎢ ⎥⎢ ⎥⎣ ⎦
R θ
Figura 2.5.9 - Le bande originali di un’immagine SPOT4, le rispettive devia-zioni standard e varianze, e la matrice di correlazione [Dermanis et al., 2002]
70
Capitolo 2 Elaborazione ed interpretazione delle immagini
PC2
PC1
PC4
PC3
Banda PC1 Banda PC2 Banda PC3 Banda PC4
97.94 29.79 9.79 4.51 σ =
σ2 = 9592.71 887.23 95.90 20.30
Figura 2.5.10 - Le bande risultanti dalla trasformazione per componenti principali delle bande SPOT4 in figura 2.5.9, e le rispettive deviazioni standard e varianze [Dermanis et al., 2002]
In figura 2.5.10 è riportato un esempio pratico di calcolo delle componenti principali di
una ripresa SPOT4 (vedi bande originali in Figura 2.5.9) con i valori della varianza per le va-
rie componenti principali. Com’è prevedibile l’immagine relativa alla componente principale
con la varianza più alta presenta migliore nitidezza, dettaglio e contrasto, quella invece a mi-
nor varianza si presenta molto disturbata. Ciò porta alla conclusione che, in tale trasforma-
zione, la componente principale con varianza più bassa rappresenta un “deposito” del rumore
dell’immagine di partenza.
71
Capitolo 3 SEGMENTAZIONE OBJECT-ORIENTED: IL SOFTWARE ECOGNITION
®
3.1 - INTRODUZIONE
La ricerca e lo sviluppo tecnologico in ogni settore della vita quotidiana, da sempre hanno
cercato di portare giovamenti, sia da un punto di vista di rivoluzionamento delle tecniche,
rendendole più rapide ed efficienti, sia dal punto di vista economico. Nel campo della carto-
grafia, numerosi sono stati i cambiamenti che si sono susseguiti negli anni: dai primitivi si-
stemi di ripresa di cui abbiamo accennato nel primo capitolo, alle attuali tecniche di tratta-
mento di dati, al passaggio al digitale, all’utilizzo delle piattaforme satellitari, alle tecniche di
stampa di una carta, agli standard della cartografia numerica.
Uno degli argomenti di cui sempre più spesso si legge nelle riviste scientifiche del ramo
geotopocartografico sono le tante e diversificate metodologie di trattamento, filtraggio e in-
terpretazione di dati, e di sviluppo di algoritmi automatici, o semiautomatici, in grado di ef-
fettuare tali procedure snellendo il lavoro manuale. Non sono pochi i problemi in questo set-
tore: molti sono gli esempi di studi riportati ma, nella maggior parte dei test, vengono trattati
casi reali ma non molto generici, il che fa capire che si è ancora in fase sperimentale. È altresì
vero che dovendo operare sul territorio geografico, ci si trova dinnanzi ad una variabilità tale
da non poter definire uno standard di interpretazione dei dati da un’immagine o da un rilievo
laser ad esempio, il che rende sempre necessario interventi manuali e algoritmi “personalizza-
ti”.
Uno dei rami in cui negli ultimi anni si sta sviluppando la ricerca è l’estrazione automati-
ca/semiautomatica di oggetti semanticamente significativi da immagini telerilevate ad alta ri-
soluzione, con l’idea di una successiva classificazione e un successivo inquadramento dei dati
estratti direttamente in un sistema cartografico (o comunque di riferimento). Le operazioni da
compiere per giungere ad un risultato soddisfacente non sono poche, e soprattutto non sono
semplici poiché sono molteplici le situazioni e le concause che possono rendere un ricono-
scimento automatico di oggetti da parte di un software più o meno efficiente.
In questo contesto analizzeremo un software commerciale preposto proprio al riconosci-
mento oggetti: Ecognition® della Definiens-Imaging®; questo software presenta interessanti
peculiarità che in questo capitolo, e nel prossimo, cercheremo di focalizzare, analizzandone,
anche con spirito critico, le potenzialità, i pro e i contro.
72
Capitolo 3 Segmentazione object-oriented: il software Ecognition®
3.2 - LA SEGMENTAZIONE
Quando si guarda un’immagine telerilevata, si tende ad osservare l’immagine nel suo in-
sieme ed istintivamente si cerca di distinguere i singoli oggetti, facendo una sorta di classifi-
cazione: si tenta di identificare all’istante gli oggetti che appaiono più visibili e più grandi,
fino ad esplorare i singoli dettagli che l’immagine offre, confrontando il tutto con quello che
è il nostro “database” di conoscenze del mondo che ci circonda, il che consente di dare un
nome o una categoria di appartenenza agli oggetti.
Quando si deve fare un’analisi interpretativa di un’immagine, si applica grossomodo que-
sto principio: si circoscrive una zona, si esaminano gli oggetti che siamo in grado di distin-
guere nell’immagine (si rende necessaria una buona risoluzione geometrica e radiometrica
perché si possano distinguere più facilmente), e li si classifica assegnando un codice che i-
dentifica univocamente l’oggetto come appartenente ad una certa categoria di oggetti.
La segmentazione è un processo mediante il quale si suddivide l’immagine in diverse re-
gioni sulla base di un certo criterio di appartenenza dei pixel ad una regione o ad un’altra, con
l’obbiettivo finale di riconoscere gli oggetti che compongono l’intera scena, discernendo gli
oggetti di “interesse” (foreground), dal resto della scena che comprende regioni di interesse
nullo (background). Ad oggi non esiste una vera e propria procedura universale per la seg-
mentazione (come invece può essere un’operazione di restituzione), dovuto al fatto che non è
un metodo consolidato ma è in continua evoluzione, e che si rendono necessari opportuni a-
dattamenti a seconda dei campi di applicazione.
Nonostante siano presenti, ormai da qualche anno, software che integrano dei tools per la
segmentazione, centri di studi e di ricerca di ogni parte del mondo immettono ogni anno nel
circuito scientifico internazionale test sperimentali con differenti strategie di segmentazione,
a volte creando algoritmi ex-novo, altre volte integrando algoritmi preesistenti per il tratta-
mento delle immagini.
Tuttavia esistono delle tecniche di base sulle quali il processo di segmentazione si fonda
[Gonzales et al., 2004]:
- Thresholding: ogni pixel di un’immagine a toni di grigio è caratterizzato da un valore
DN; l’algoritmo di base, fissa una soglia di intensità, allo scopo di poter fare una di-
stinzione tra due regioni, ad esempio lo sfondo e gli oggetti dell’immagine. La soglia
può essere fissata arbitrariamente, o in maniera automatica in base ad un certo criterio,
usualmente statistico, applicato all’istogramma dell’immagine. Siccome i risultati di
73
Capitolo 3 Segmentazione object-oriented: il software Ecognition®
un tale algoritmo sono grezzi, è possibile migliorare la tecnica considerando varie so-
glie. È inoltre facile estendere questa tecnica ad immagini multispettrali, sfruttando le
singole bande che le compongono.
- Region growing: consiste nel raggruppare più pixel in regioni, basandosi su determi-
nati criteri di “crescita” (growing) delle stesse. All’inizio viene scelto un insieme di
pixel, detti “semi”: ogni regione è inizialmente costituita da uno di tali semi, e in se-
guito si cerca di ingrandirla unendo ad essa i pixel vicini, a condizione che soddisfino
un certo criterio di somiglianza. Se il pixel non viene associato alla regione, sarà la-
sciato libero di aggregarsi ad un’altra regione o di diventare un nuovo seme. I vari al-
goritmi che prendono spunto da questa tecnica si differenziano per la scelta del seme,
e per l’eventuale successiva applicazione di metodi di accorpamento tra regioni.
- Region Splitting and Merging: l’immagine viene suddivisa in quattro parti, ed ogni
parte, non sufficientemente omogenea, viene ulteriormente suddivisa fino a quando
tutte le regioni ottenute soddisfano il criterio di omogeneità.
- Edge Detection: si vanno a determinare quei pixel che fanno parte del contorno di un
oggetto e non dell’oggetto stesso; i pixel riconosciuti come “contorno” vengono con-
nessi tra loro e raggruppano un certo quantitativo di pixel che andranno a determinare
la regione. Di norma si usa la tecnica del gradiente con soglia variabile: tale tecnica
può essere di difficile applicazione quando si ha a che fare con immagini dal rapporto
segnale/rumore basso, che rende più difficile l’individuazione dei bordi anche
all’occhio umano e che quindi richiede un pre-trattamento dell’immagine. Per la ricer-
ca dei pixel viene adottata la tecnica delle finestre mobili descritta nel precedente capi-
tolo, ma a seconda dei valori che vengono inseriti nelle finestre, delle loro dimensioni,
e di come vengono applicate, si distinguono vari algoritmi di edge detection: Hough
Transform, Sobel, Canny, Zero Crossing, Roberts, Prewitt, Laplacian of a Gaussian
(LoG).
Alla segmentazione, si fa seguire la procedura di classificazione: le regioni che suddivido-
no l’immagine sono così assegnate ad una classe di appartenenza mediante un codice. Trat-
tandosi di immagini raster, si viene a creare un’immagine sovrapposta con la stessa risolu-
zione geometrica e lo stesso numero di pixel: ciascun pixel di questa “maschera” viene colo-
rato con il colore della classe di appartenenza del pixel corrispondente dell’immagine da clas-
sificare.
74
Capitolo 3 Segmentazione object-oriented: il software Ecognition®
Le procedure di classificazione vengono suddivise in genere in due grandi categorie: le
“supervised” e le “unsupervised” a seconda che si utilizzino o meno delle regioni di pixel
“campione” che il software sfrutterà per capire a quale classe dovranno appartenere i restanti
pixel dell’immagine.
Tutte queste procedure quindi, si basano sull’informazione che può dare un singolo pixel,
e la classificazione a sua volta opererà classificando i singoli pixel: si parla in questo caso di
procedure pixel-based.
3.3 - IL SOFTWARE ECOGNITION®
3.3.1 - PRINCIPI BASE DI FUNZIONAMENTO
Il software in questione ha delle tecniche innovative di segmentazione e di classificazione
che cercheremo di esplicitare in questo capitolo; tali tecniche si distinguono, per molti versi,
da quelle appena descritte (pixel-based) che popolano la maggior parte dei software preposti
a trattare dati telerilevati.
Ecognition® difatti, fa uso del metodo object oriented (o object based), considerabile del
tutto innovativo per i suoi numerosi vantaggi. Con questa tecnica non si sfrutta più solo
l’informazione del singolo pixel (che al più può dare un’informazione di radianza, mediante il
suo valore DN) ma si introducono nuovi parametri di valutazione che vanno oltre le teorie
pixel-based.
Vi sono, infatti, dei parametri che lavorano sulla distribuzione delle intensità dei pixel e
sul gradiente dei pixel (che rassomigliano per certi versi alle tecniche pixel-based), ma che
permettono anche un calcolo dell’omogeneità della distribuzione, omogeneità presa in consi-
derazione, secondo soglie prestabilite dall’utente, in fase di segmentazione, capendo quindi
quali pixel includere o meno in una regione che presumibilmente dovrà indicare un oggetto, e
che dovrà soddisfare le soglie di omogeneità imposte. L’altra novità è la presenza di parame-
tri geometrici che stabiliscono non solo quanto debba essere geometricamente regolare un de-
terminato oggetto, ma anche quanto deve essere vasto tramite un parametro di scala (12): an-
che in questo caso si può impostare una soglia in fase di segmentazione, che consente di
(12) - Si faccia attenzione a non confondere la risoluzione con la scala: la prima definisce le dimensioni che un pixel ricopre a
terra, la scala invece descrive il livello di aggregazione dei pixel e determina, con la segmentazione, l’esistenza o meno di certi oggetti [Benz, Hofmann et al., 2003]
75
Capitolo 3 Segmentazione object-oriented: il software Ecognition®
segmentare l’immagine mantenendo una certa regolarità nel delimitare le regioni, e una certa
estensione.
La segmentazione che applica Ecognition® inoltre, non opera in modalità raster, ma in
modalità vettoriale, vale a dire che il raster è utilizzato ma il risultato finale non sarà un raster
(come avviene ad esempio per l’edge detection descritto prima), né tanto meno si andrà a
modificare il dato originale: i singoli oggetti finali sono dei poligoni chiusi, le cui linee di
confine si districano tra un pixel e l’altro delimitando così gli oggetti. La peculiarità di lavo-
rare con modalità raster e vettoriale contemporaneamente, consente anche di poter usare mo-
delli digitali del terreno per la segmentazione, ottenendo così dettagli in più che permettono
una più corretta determinazione di oggetti ad alto valore semantico (edifici ad esempio).
Altre considerevoli novità riguardano le procedure di classificazione: il software infatti
consente, una volta effettuata una segmentazione (la segmentazione in tale software è il punto
di partenza, basilare per le procedure successive) di scegliere fra tre metodologie di classifi-
cazione: Standard Nearest Neighbor, Nearest Neighbor e Membership Functions (quest’ulti-
ma basata sulla logica fuzzy).
La classificazione differisce invece totalmente dal pixel-based, e questo è un altro tassello
che lascia trasparire con evidenza le differenze che passano tra Ecognition® e i restanti sof-
tware. Ogni oggetto, una volta terminata la segmentazione, verrà trattato sempre come tale, e
quindi si classificherà l’intero oggetto; di conseguenza sarà eliminato anche il cosiddetto ef-
fetto salt and pepper, che è un elemento di disturbo in immagini rumorose (distintamente dal-
la classificazione), ma allo stesso tempo è un effetto che si viene a creare allorquando si clas-
sifica in pixel-based e si ottengono singoli pixel assegnati ad una classe che sono sparpagliati
in mezzo ad altri pixel appartenenti ad un’altra classe.
Perché la classificazione possa essere soddisfacente, Ecognition® mette a disposizione un
numero elevato di features, ovvero di “caratteristiche” (geometriche, radiometriche e di mu-
tua relazione con gli oggetti adiacenti) che l’oggetto dovrà avere perché possa appartenere ad
una determinata classe creata dall’utente (le classi si distingueranno proprio in base alle fea-
tures o alla loro combinazione). Si parlerà quindi di spazio delle features in cui sarà possibile
rappresentare ogni singolo oggetto, e che consente di determinare “univocamente” ogni sin-
golo oggetto a seconda del valore che esso assume secondo una determinata features.
Infine, visto l’uso di formati vettoriali e raster insieme, c’è perfetta compatibilità di forma-
ti vettoriali, come gli shape files (shp), che sono i tipici formati dei layer di Arcgis®: gli og-
76
Capitolo 3 Segmentazione object-oriented: il software Ecognition®
getti segmentati e classificati sono esportabili in tale formato e quindi direttamente gestibili in
ambiente GIS.
3.3.2 - CARICAMENTO DELLE IMMAGINI
La procedura di caricamento delle immagini dà inizio a tutte le successive procedure cui
abbiamo accennato e che approfondiremo in seguito.
Figura 3.3.1 - Avvio nuovo progetto
Partendo dalla schermata iniziale del programma, e selezionando NEW dal menù PRO-
JECT (vedi Figura 3.3.1) si apre la finestra di inserimento di immagini. Oltre alla possibilità
di inserire immagini di differenti formati, tra cui i formati propri dei vari software commer-
ciali presenti sul mercato (Geomatica®, MapInfo®, ER-Mapper®, Erdas Imagine®, ecc.) sono
riconosciute perfettamente le immagini georiferite mediante i files tfw, o mediante il formato
di immagine geotiff, e non ultimo i files di poligoni in formato vettoriale come i file shp (sha-
pe): quest’ultimo formato sarà automaticamente “rasterizzato” usando il formato tiff che verrà
creato nella stessa cartella del file shp, ragion per cui non è consentito, per questo formato, il
caricamento da supporti di sola lettura (CD-ROM, DVD, HD protetti da scrittura).
77
Capitolo 3 Segmentazione object-oriented: il software Ecognition®
Figura 3.3.2 - Caricamento immagini
Una volta caricate le immagini (in Figura 3.3.2 sono visualizzate solo tre bande di una
immagine a colori, ma si possono caricare molte più bande contemporaneamente) abbiamo a
disposizione i dati della georeferenziazione dell’immagine, che consentono di conoscere i pa-
rametri fondamentali dell’immagine: il DATUM e le RISOLUZIONI GEOMETRICA e RA-
DIOMETRICA. Il software, com’è intuibile, avviserà se si stanno caricando immagini geori-
ferite su datum differenti. È inoltre possibile stabilire l’unità di misura preferita e in più, se
l’utente lo ritiene opportuno, si può lavorare solo su una zona dell’intera scena caricata, me-
diante il tasto Subset Selection che consente una selezione grafica di semplice intuizione della
zona d’interesse.
Il software consente di lavorare anche con immagini a risoluzioni geometriche differenti
eseguendo automaticamente un resampling dell’immagine a più scarsa risoluzione.
78
Capitolo 3 Segmentazione object-oriented: il software Ecognition®
Si noti che c’è anche una sezione Thematic layer: come dice il nome stesso, in questa se-
zione si possono inserire layer tematici (ad esempio dei DEM); sostanzialmente i formati che
si possono caricare sono i medesimi utilizzabili nell’Image layer: la differenza sta nel fatto
che i file vettoriali questa volta saranno caricati includendo gli attributi, mentre per i file in
formato raster è richiesto un file aggiuntivo degli attributi (ASCII o dbf)
3.3.3 - MULTIRESOLUTION SEGMENTATION
Riprendendo quanto accennato prima sulla segmentazione di Ecognition®, vediamo come
avviene questa operazione e soprattutto perché si parla di Multiresolution Segmentation.
Figura 3.3.3 - Schermata di avvio della segmentazione di ecognition
Questo tipo di procedura (unica in assoluto e con tanto di brevetto) consente di effettuare
segmentazioni a più risoluzioni (da qui Multiresolution) mediante l’impostazione del parame-
tro di scala (riquadro blu di Figura 3.3.3), dando modo di decidere, avendo preventivamente
osservato e studiato l’immagine da segmentare, l’ordine di grandezza degli oggetti che inten-
diamo estrarre. Se ad esempio l’intenzione è di estrarre macrozone per poter creare una carta
tematica delle coperture (vegetazione, urbano, bacini, coltivazioni, ecc.) è più logico andare a
scegliere un parametro di scala abbastanza elevato; se invece l’intenzione è di andare a di-
79
Capitolo 3 Segmentazione object-oriented: il software Ecognition®
stinguere singoli oggetti (edifici, serre, vasche, zone di parcheggio, ecc.) si dovrà scendere
più in dettaglio, e quindi si tenderà ad abbassare il parametro di scala.
Per quanto questo parametro possa essere impostato anche a valori molto alti, esso è stret-
tamente legato all’immagine esaminata: c’è sempre un limite massimo per l’immagine che
trattiamo, ma varia da immagine ad immagine, senza contare che è anche la risoluzione geo-
metrica dell’immagine che conta nella scelta del valore da impostare. Se, ad esempio, inten-
diamo estrarre un oggetto da un’immagine con risoluzione 1 metro (una IKONOS pansharpe-
ned per esempio) imposteremo un certo valore del parametro ma, se volessimo estrarre lo
stesso oggetto da una scena a risoluzione più alta (ad esempio una QUICKBIRD che, lo ri-
cordiamo, ha un sensore che consente una risoluzione di 0,62 cm in pancromatico, e quindi
anche in pansharpened) il valore da impostare non sarà più lo stesso poiché l’oggetto sarà
composto da più pixel, quindi dovremmo leggermente incrementare il valore.
Si possono inoltre impostare i pesi da assegnare ad ogni immagine (riquadro rosso di Fi-
gura 3.3.3): ciò diviene utile nel momento in cui l’oggetto interessato dalla segmentazione ha
risposto diversamente dagli oggetti circostanti in una banda piuttosto che in un’altra, e quindi
è meglio contrastato.
Ci sono poi i restanti parametri che rientrano in una sezione chiamata Composition of the
homogeneity criterion (riquadro di colore ciano in Figura 3.3.3): in questo contesto
l’omogeneità tra i vari oggetti non è intesa letteralmente come tale, poiché non si avranno mai
oggetti omogenei veri e propri, ma si intende come una “minimizzazione dell’eterogeneità”; i
parametri di eterogeneità sono tre:
• Shape factor (riquadro verde) (13): questo parametro determina il grado di omogenei-
tà di forma dell’oggetto, ma allo stesso tempo rende più difficile la separazione tra
oggetti abbassando il parametro Color (vedi nota (13)), e quindi abbassando il control-
lo sulle variazioni di contrasto tra oggetti adiacenti, non separandoli correttamente. È
consigliato l’utilizzo di valori bassi per questo parametro.
• Smoothness (riquadro viola): è utilizzato per ottimizzare gli oggetti focalizzandosi
sull’ “addolcimento” dei bordi. È consigliato quando si ha a che fare con oggetti ab-
bastanza eterogenei o quando è necessario avere bordi poco frastagliati.
(13) - A partire dalla versione 4.0 di Ecognition® (attualmente in commercio, la 5.0 è attesa per il prossimo autunno) la scherma-
ta della Multiresolution Segmentation non riporta più il parametro Color: in realtà questo parametro era il complementare del parametro Shape factor, quindi si richiamerà il parametro Color anche se non più presente nel software.
80
Capitolo 3 Segmentazione object-oriented: il software Ecognition®
• Compactness (riquadro arancio): è il complementare dello Smoothness, il che vuol di-
re che questi parametri varieranno alla pari ma inversamente. Con questo parametro
si tende ad ottimizzare la compattezza dei singoli oggetti. È consigliato quando gli
oggetti immagine che si vogliono separare sono piuttosto compatti ma che sono sepa-
rati da oggetti non compatti da un contrasto relativamente debole.
È bene tenere sempre in considerazione che le probabilità di ottenere una segmentazione
soddisfacente al primo tentativo è praticamente nulla: occorre sempre effettuare più segmen-
tazioni modificando di volta in volta i parametri citati fino a trovare una segmentazione adatta
per gli oggetti che si vogliono estrarre, trovando, quindi, una combinazione corretta dei succi-
tati parametri. Le regole basilari e le esperienze pregresse suggeriscono di usare inizialmente
parametri di scala abbastanza grandi per poi scendere gradualmente, tenendo sempre d’occhio
la separazione degli oggetti ad ogni segmentazione, e di usare valori sufficientemente bassi di
Shape factor (partire dal valore minimo e salire di volta in volta) poiché valori alti comporta-
no perdita di omogeneità. Non si dimentichi che, anche se si tratta di un algoritmo che opera
sulle forme geometriche, esso si basa comunque sulle informazioni spettrali dell’immagine.
In ultimo, considerando che più grande è la scena e più tempo richiede la segmentazione,
può essere utile (ma talvolta è necessario) concentrarsi su una zona “campione” e, una volta
trovata una combinazione di parametri soddisfacente, estenderla a tutta la scena.
3.3.3.1 - LIVELLI DI SEGMENTAZIONE CORRELATI
Sempre a proposito di Multiresolution Segmentation c’è da mostrare un’ulteriore novità
che riguarda la segmentazione a livelli correlati.
Una volta terminata la prima segmentazione, si è creato un layer di poligoni che delimita-
no i singoli oggetti: a questo punto Ecognition® dà la possibilità di creare dei layer superiori
e/o inferiori al layer appena creato, suddividendo gli oggetti creati in oggetti più piccoli (detti
sub-object nel caso di layer inferiori oppure accorpando gli oggetti in oggetti più grandi (detti
super-object) fermo restando un limite superiore (rappresentato dalla grandezza della scena) e
un limite inferiore (rappresentato dal pixel).
Tale prerogativa diviene utile se, ad esempio, si intende separare un oggetto, che di per se
è stato ben segmentato, in oggetti più piccoli: ciò è possibile solo dopo la prima segmentazio-
ne tramite il menù Level (riquadro marrone in Figura 3.3.3). I livelli dei vari “piani” tuttavia
non sono indipendenti l’uno dall’altro, anzi, sono correlati mediante una struttura gerarchica
81
Capitolo 3 Segmentazione object-oriented: il software Ecognition®
(vedi Figura 3.3.4) poiché ogni oggetto del livello superiore sa quali sono i suoi sub-object e
allo stesso modo ogni oggetto del livello inferiore sa qual’è il proprio super-object. Alla luce
di quanto detto possiamo dire che ogni oggetto è determinato da proprietà spettrali, geome-
triche, da una trama (texture), da un unico super-object e da un unico sub-object.
Figura 3.3.4 – Struttura gerarchica della segmentazione a più livelli
Per i livelli inferiori e superiori si possono assegnare diversi parametri di scala e di omo-
geneità e modificare i pesi delle immagini caricate, ma data la correlazione tra i vari livelli
non possono attendersi cambiamenti radicali del modo di segmentare.
In tutte queste procedure, fatta eccezione dell’immissione dei parametri, regna
l’automatismo del programma; tuttavia è consentito all’utente, mediante la barra Image O-
bject Editing (vedi Figura 3.3.5) di modificare gli oggetti adiacenti, fondendo due o più og-
getti in un unico oggetto oppure dividendo un oggetto in due o più oggetti.
Figura 3.3.5
Benché questo genere di operazioni possono aiutare a migliorare l’oggetto, si tratta pur
sempre di un’operazione manuale che richiede, qualora la si voglia applicare a tutta la scena,
un’ingente quantità di tempo anche in funzione dell’estensione dell’immagine: è consigliato
quindi un uso localizzato e, possibilmente, post-classificazione, questo perché torna più utile
andare a modificare oggetti mal segmentati che si vogliono comunque estrarre (e quindi clas-
sificare), piuttosto che oggetti mal segmentati per i quali non si ha alcun interesse.
82
Capitolo 3 Segmentazione object-oriented: il software Ecognition®
Rimanendo ancora nell’ambito della segmentazione, c’è un ulteriore opzione interessante:
la sub-object line analysis. Questa opzione, selezionabile dal menù a tendina Segmentation
mode (riquadro giallo di Figura 3.3.3) consente di segmentare in parti più piccole gli oggetti
che hanno una particolare forma allungata (forma che può ricordare appunto delle linee, come
strade o ferrovie): tale applicativo può risultare comodo in fase di classificazione allorquando
si imponga ad una classe una ricerca di oggetti tramite l’allineamento di sub-object. Per
quest’ultima opzione è consentita la sola modifica del parametro di scala, che stavolta però si
potrà modificare da un minimo di 0,5 ad un massimo di 1, e che in questo caso determina la
massima lunghezza relativa del poligono sub-object con altri poligoni che non sono sub-
object del medesimo oggetto.
3.3.4 - CLASSIFICAZIONE
Com’è noto, il processo di classificazione consiste nell’assegnare un certo numero di og-
getti ad una determinata classe in base alla “descrizione” della classe stessa: per descrizione
di una classe si intendono le proprietà o le condizioni di quella determinata classe. Perché un
oggetto venga assegnato a quella classe (e quindi classificato) dovrà soddisfare le descrizioni
della medesima.
I metodi di classificazione classici utilizzati nel telerilevamento (massima verosimiglian-
za, minima distanza, ecc.) lavorano in modalità binaria, assegnando un’appartenenza (valore
1) o una non appartenenza (valore 0) di un oggetto ad una determinata classe: questi classifi-
catori vengono chiamati hard classifiers. Al contrario, quelli chiamati soft classifiers (prin-
cipalmente sistemi a logica fuzzy) applicano il concetto di “grado di appartenenza”, ovvero di
probabilità che un oggetto possa o meno appartenere ad una determinata classe. I valori di
appartenenza si suddividono tra 0,0 e 1,0 (vale a dire tra 0% e 100% di appartenenza ad una
classe) e variano in funzione di come un oggetto soddisfa le condizioni di appartenenza ad
una classe.
Questo secondo genere di classificatori si avvicinano di più al modo di pensare dell’uomo
che, trovandosi ad esaminare un’immagine, si trova molte volte ad assegnare un oggetto ad
una determinata classe ma con una certa “riserva”, senza escludere quindi che quello stesso
oggetto possa appartenere anche ad un’altra classe, fino a decidere che è più “probabile” che
l’oggetto appartenga ad una classe invece che ad altre.
83
Capitolo 3 Segmentazione object-oriented: il software Ecognition®
Quando però esaminiamo gli oggetti minuziosamente, inevitabilmente troveremo partico-
lari di un oggetto che avrà solo quell’oggetto: trovandosi ad esempio a dover distinguere più
edifici, non si troverà mai un edificio identico all’altro. Ciò significa che quando si creano
delle classi e si costruiscono le descrizioni per ogni singola classe, non si possono mai dare
descrizioni particolareggiate, ma si deve per lo più generalizzare la descrizione da dare, altri-
menti si dovrebbe creare una classe diversa per ogni oggetto diverso, il che diventerebbe
quanto mai dispendioso e non è certo questo l’obiettivo che ci si pone quando si deve dare
una valenza semantica ad un oggetto.
3.3.4.1 - NEAREST NEIGHBOR E STANDARD NEAREST NEIGHBOR
Quando si parla di queste due tecniche si introduce lo spazio delle features. È uno spazio
ad n dimensioni (con n pari al numero di features utilizzate) e gli oggetti verranno posizionati
in questo spazio a seconda di come rispondono alle varie features. Perché una classificazione
basata su questi due metodi sia possibile, è strettamente necessaria l’individuazione di oggetti
esempio (in Ecognition® vengono detti sample), grazie ai quali calcolare le “distanze” tra og-
getti da classificare e oggetti sample nello spazio delle features. Per capire meglio, usiamo
come esempio uno spazio bidimensionale (quindi a due features) (vedi Figura 3.3.6).
Figura 3.3.6 - Spazio bidimensionale delle features
I pallini blu ed i pallini rossi sono samples delle due classi rosso e blu, mentre il pallino
grigio è l’oggetto da identificare. Le distanze nello spazio delle features tra il pallino da iden-
tificare ed i samples sono ricavate mediante i valori che gli oggetti sample assumono nelle
84
Capitolo 3 Segmentazione object-oriented: il software Ecognition®
due features: in questo modo la classe di appartenenza dell’oggetto sample più vicino sarà la
stessa classe dell’oggetto da classificare.
La differenza tra i due metodi di classificazione sta nel fatto che mentre per lo Standard
Nearest Neighbor le features scelte per una classe saranno le medesime per tutte le classi
(vincolando quindi la scelta), ciò non avviene per il Nearest Neighbor, ma il principio di clas-
sificazione non varia.
3.3.4.2 - LA LOGICA FUZZY
Questa teoria (a volte soprannominata logica sfumata) amplia, modifica e mette in discus-
sione la logica alla base dei calcolatori odierni, la logica booleana o binaria, secondo la quale
(rimanendo in ambito Ecognition®) un oggetto può assumere solo due stati: appartiene ad una
certa classe (valore 1 = vero) oppure non appartiene a quella classe (valore 0 = falso).
È facile capire quindi quanto questa logica si discosti enormemente dalla realtà che, al
contrario, considera tante sfaccettature, tanti contorni sfumati che in una logica binaria non
esistono o al più vengono approssimate, rendendola quindi anche imprecisa: non esiste nella
realtà un tutto bianco e un tutto nero ma esistono diverse tonalità di grigio che si interpongo-
no tra i due estremi; il solo chiedersi se faccia caldo o freddo esce fuori dai canoni della logi-
ca booleana, e da una domanda banale quanto mai come questa, alla quale si possono dare
molteplici risposte, anche in base all’individuo che viene interrogato, che si discostano da un
semplice si o no, ci si può rendere conto delle controversie di tale logica con la nostra realtà.
Il sistema fuzzy viene sostanzialmente suddiviso in tre step: fuzzification, fuzzy rule base e
defuzzification:
- Fuzzification
Questa fase descrive la transizione tra un processo incisivo, quale è la logica booleana, ad
un sistema fuzzy. Il sistema assegna un grado di appartenenza, variabile tra 0 (nessuna
appartenenza) e 1 (appartenenza piena), mediante una cosiddetta funzione di appartenenza
che, a seconda della forma, cioè dell’andamento su di un grafico cartesiano bidimensiona-
le, può stabilire un passaggio più o meno brusco tra i due valori limite. Un set di valori di
una feature che generano un valore di appartenenza maggiore di 0 viene definito fuzzy set:
questo può assumere valori che vanno da 0 ad 1 secondo la funzione di appartenenza, e
possono essere assegnati anche più di un set di valori. In figura 3.3.7a è riportato un e-
85
Capitolo 3 Segmentazione object-oriented: il software Ecognition®
sempio in cui è presente una feature relativa all’età di una persona e due set di valori,
ADULTI e NON ADULTI, divisi tra loro da un taglio netto tipico dei filtri cosiddetti passa
alto. Avendo posto un troncamento netto di distinzione tra i due set al valore di 18 anni, è
chiaro che siamo in presenza di un sistema a logica binaria: non a caso non si è parlato di
fuzzy set ma solo di set di valori.
Figura 3.3.7a
In figura 3.3.7b invece, c’è un passaggio sfumato tra i due stadi, per questo si ritiene che
una persona che abbia 18 anni sia al 50% ADULTO e al 50% NON ADULTO: questo e-
sempio invece risponde alla logica fuzzy. Più informazioni possono interporsi tra i due
opposti, più variazioni di pendenza avrà la curva e più sarà corrispondente alla realtà.
Figura 3.3.6b
- fuzzy rule base
Una fuzzy rule base è una combinazione di più regole fuzzy che mette insieme differenti
fuzzy set: le fuzzy rules sono delle regole del tipo if-then, secondo cui un’azione viene e-
seguita o meno se è soddisfatta o meno la condizione posta. La combinazione di più set è
86
Capitolo 3 Segmentazione object-oriented: il software Ecognition®
resa possibile tramite gli operatori base che sono and e or: il primo rappresenta il “mini-
mo”, vale a dire che il valore restituito è il valore minimo tra tutti i set di valori in cui
l’oggetto ricade, mentre il secondo rappresenta il “massimo”, cioè il valore restituito sarà
il massimo possibile tra tutti i set di valori in cui l’oggetto ricade.
Figura 3.3.8
La figura 3.3.8 presenta una feature che riguarda i valori DN di un’immagine a 8 bit e tre
fuzzy set: Edificato, Idrografia e Vegetazione. Guardando la figura prendiamo in esame il
valore 70DN = della feature: questo valore ricade sia nel fuzzy set Edificato sia nel
fuzzy set Idrografia, ma i valori del grado di appartenenza sono rispettivamente 0,4 e 0,2.
Se dovessimo creare una regola fuzzy (fuzzy rule) mediante l’operatore and considerando
solo questi due fuzzy set, il valore restituito sarà 0,2 (il minimo tra le due quindi), poiché
questo soddisfa entrambe le condizioni, mentre usando l’operatore or il valore restituito
sarebbe 0,4 (il massimo tra le due), visto che è richiesta la soddisfazione di uno solo dei
fuzzy set: in quest’ultimo caso, la classificazione si troverebbe a scegliere tra il primo e il
secondo fuzzy set, e dovendo scegliere quello con più alto grado di appartenenza la scelta
è chiaramente per l’Edificato. Se includiamo anche la Vegetazione, l’operatore and resti-
tuirebbe grado di appartenenza pari a 0,0 poiché il valore DN non ricade in tale set, men-
tre l’operatore or restituirebbe lo stesso risultato precedente, cioè 0,4. Verrebbe da chie-
dersi cosa succederebbe se per entrambi i fuzzy set il valore restituito fosse il medesimo: in
tal caso si avrebbe una condizione di instabilità, poiché sarebbe come trovarsi davanti ad
un bivio senza sapere dove svoltare. Anche qui si pone una differenza tra alta instabilità e
bassa instabilità: nel primo caso si ha un’instabilità in presenza di un grado di appartenen-
za elevato, il software riterrebbe una strada o l’altra entrambe valide, e si avrebbe un asse-
87
Capitolo 3 Segmentazione object-oriented: il software Ecognition®
gnazione pari per tutte e tre le classi attendibile; nel secondo caso si ha un’instabilità in
presenza di un grado di appartenenza basso, e in tal caso si avrebbe un’assegnazione glo-
bale non attendibile: per quest’ultima situazione viene consigliato di alzare la soglia mi-
nima di grado di appartenenza, al di sotto della quale gli oggetti non vanno classificati. Si
tratta, comunque, di casi rari che in seguito non tratteremo affatto.
- Defuzzification
Una volta stabilite le assegnazioni degli oggetti mediante logica fuzzy, si ritorna alla logi-
ca binaria, vale a dire che si dovrà vedere un oggetto come assegnato ad una classe o non
assegnato ad una classe, e non più in termini di probabilità.
3.3.4.3 - CREAZIONE DELLE CLASSI
In Ecognition® la struttura di creazione delle classi viene considerata un perno cardine: le
classi, in maniera simile ai livelli di segmentazione, possono essere messe in relazione grazie
ad una struttura gerarchica ereditaria o mediante apposite features relazionali.
Figura 3.3.9
Partendo dalla schermata iniziale, e selezionando CLASS HIERARCHY dal menù CLAS-
SIFICATION (vedi Figura 3.3.9), sarà possibile iniziare la creazione di tutte le classi necessa-
rie in maniera abbastanza intuitiva.
88
Capitolo 3 Segmentazione object-oriented: il software Ecognition®
Figura 3.3.10
Nella finestra relativa alla descrizione della classe (vedi Figura 3.3.10), potranno essere
definiti gli spazi features relativi ai metodi Standard Nearest Neighbor, Nearest Neigbor e
Fuzzy.
Le features messe a disposizione da Ecognition® sono numerose, e qui riporteremo solo
uno schema, senza entrare nelle descrizioni di ciascuna di esse, ragion per cui si rimanda alla
lettura della guida utente del software per poterle studiare attentamente. Una volta decise le
features da inserire si possono “modellare” le funzioni di appartenenza (Membership fun-
ctions) a seconda delle proprie esigenze: questa procedura non è molto consigliata per quelle
features che dovranno valutare la geometria e la radiometria dell’oggetto qualora non si fac-
cia uso dei sample, per la quale si consiglia una soluzione alternativa: l’utilizzo del Sample
Editor.
89
Capitolo 3 Segmentazione object-oriented: il software Ecognition®
Figura 3.3.11
Questo tool, riportato in figura 3.3.11, ha un ruolo fondamentale nella creazione delle fun-
zioni di appartenenza per le varie features: selezionando delle features da visualizzare (pre-
sumibilmente quelle da inserire nella descrizione delle classi) e successivamente selezionan-
do dei sample dall’immagine segmentata, e quindi oggetti che devono appartenere a quella
classe, si potranno visualizzare delle barrette nere verticali, che, in base alla loro lunghezza,
danno informazioni sul grado di appartenenza dell’oggetto a quella feature. In tal modo pos-
siamo capire la distribuzione dei samples e renderci conto di quali features sia meglio utiliz-
zare. Le frecce rosse invece indicano i valori assunti da un oggetto qualunque selezionato ma
non utilizzato come sample.
A questo punto si può creare la funzione di appartenenza in maniera automatica: nella
prima feature si può vedere una funzione creata in base ai sample scelti (maggiore è la con-
centrazione dei valori dei sample intorno ad un valore, più semplice sarà la classificazione in
quanto, raggruppandosi tutti in una zona gli oggetti che presumibilmente dovranno appartene-
re ad una certa classe, possiamo restringere il campo di estensione della funzione, aumentan-
do così l’accuratezza nella segmentazione). Tale funzione sarà in ogni caso modificabile ma-
90
Capitolo 3 Segmentazione object-oriented: il software Ecognition®
nualmente qualora lo si ritenga opportuno, e non sono poche le situazioni in cui si decide di
intervenire manualmente sulle funzioni di appartenenza.
Una volta create tutte le classi necessarie, si procede alla classificazione: è un procedimen-
to che comunque richiede continui accorgimenti, soprattutto nelle funzioni di appartenenza,
ed anche un’attenta analisi delle varie features da utilizzare; a tal proposito, una componente
che porge a sfavore, sono i tempi di elaborazione molto elevati qualora si vogliano inserire
molte features nel Sample Editor: questo è un problema notevole poiché preclude la possibili-
tà di analizzare “in diretta” tutte le features che il software mette a disposizione.
3.3.5 - LA VETTORIALIZZAZIONE DEGLI OGGETTI IMMAGINE
Terminata la procedura di classificazione, per esportare i dati in formato vettoriale (shp) si
dovrà eseguire la vettorializzazione vera e propria degli oggetti.
Figura 3.3.12
Questa viene eseguita tramite il tool Create Polygons (vedi Figura 3.3.12) che consente
differenti possibilità di creazione di poligoni, semplificando per lo più i poligoni frastagliati
che già delimitano l’immagine. Quando i poligoni non seguono più l’andamento del poligono
di segmentazione (quindi tagliano anche l’andamento infrapixel che avevano i poligoni della
segmentazione) si parla di astrazione del poligono: la vettorializzazione quindi comporta po-
ligoni più o meno astratti a seconda dei parametri che si impostano.
91
Capitolo 3 Segmentazione object-oriented: il software Ecognition®
Ovviamente i valori dei parametri vanno scelti a seconda delle esigenze, ma si sconsiglia-
no valori troppo elevati per evitare che ci sia un eccessivo allontanamento dalla forma reale
dell’oggetto.
Figura 3.3.13
Il primo parametro da modificare nella figura 3.3.13 riguarda il Base Polygons: questo pa-
rametro indica (in unità pixel) quanto la polilinea che rappresenterà l’oggetto vettorializzato
si può discostare dalla polilinea della segmentazione, fatta eccezione dello scostamento dai
punti topologici, ovvero da quei punti che sono intersezione delle polilinee di segmentazione
di 3 oggetti (vedi Figura 3.3.14).
Figura 3.3.14 - Poligono con punti topologici contrassegnati da asterischi bianchi
La seconda soglia invece, chiamata Shape Polygons, indica lo scostamento della polilinea
vettorlializzata dall’oggetto, ma riferendosi ai punti topologici, quindi in maniera differente
92
Capitolo 3 Segmentazione object-oriented: il software Ecognition®
da prima. In figura 3.3.14 un esempio di vettorializzazione con i due parametri rispettivamen-
te impostati sui valori 1,25 e 0,5.
Il passo finale, prima di poter utilizzare in ambiente GIS il file vettoriale è l’esportazione.
Si possono fare due tipi di esportazione, ovvero l’esportazione dei poligoni relativa all’intera
immagine o dei poligoni relativi a determinate classi decise dall’utente. L’esportazione gene-
rerà un file shape (estensione shp) di polilinee, punti o poligoni e, se si ha avuta l’accortezza
di esportare le singole classi, queste verranno visualizzate nel software GIS adeguatamente
separate e quindi trattabili singolarmente, consentendo di introdurre nuovi attributi per i sin-
goli oggetti, funzione propria dell’ambiente GIS.
93
94
Capitolo 4 APPLICAZIONE DI ECOGNITION
® PER AGGIORNAMENTO CARTO-GRAFICO: METODOLOGIE A CONFRONTO
4.1 - INTRODUZIONE
Le immagini ad alta risoluzione di cui si dispone oggi, unitamente ai vantaggi della tecni-
ca object-oriented, ci hanno indotto ad una sperimentazione nell’uso del software Ecogni-
tion® con l’obiettivo di aggiornare una cartografia meno recente. L’idea di fondo è quindi
quella di applicare il software ad un’immagine telerilevata, cercando di isolare quanti più og-
getti possibili (edifici prevalentemente) per poi metterli a confronto con la cartografia vetto-
riale del luogo prodotta tramite una ripresa aerea con pellicola pancromatica risalente a due
anni prima della ripresa satellitare. Nel capitolo si daranno informazioni sui dati utilizzati,
sulle applicazioni, sui risultati ottenuti, sulle problematiche riscontrate e sulle informazioni
che la metodologia utilizzata può fornire.
4.2 - DATI UTILIZZATI
La zona presa in esame è quella del comune di Sarno (SA) che, come si ricorderà, fu du-
ramente colpita da una serie di eventi franosi nel Maggio 1998, comportando perdite umane
e, dal punto di vista della conformazione del territorio, un completo sconvolgimento.
Il dato a disposizione è un’immagine IKONOS pansharpened (14) a colori naturali del
2000, con risoluzione geometrica 1 metro e risoluzione radiometrica 11 bit, ortorettificata uti-
lizzando un DEM con risoluzione 20 metri e georiferita nel sistema nazionale Gauss-Boaga.
La scena (vedi Figura 4.2.1) ritrae un territorio morfologicamente vario, il che consente di
poter testare il software in diverse situazioni: agglomerato urbano, edifici isolati, piccole
strutture in zone agricole. La prima di queste situazioni è certamente quella più complessa:
salvo rare eccezioni, che sono presenti nella scena, l’edificato urbano risulta essere molto ete-
rogeneo, e si compone di edifici dalle geometrie e dai colori più vari.
Per quanto la pansharpened sia di grande utilità per le proprietà descritte (vedi nota (14)),
l’immagine presenta, proprio a causa del ricampionamento, un effetto sfumato ai bordi dei
(14) - Si ricorda che un’immagine pansharpened viene creata mediante la “fusione” di un’immagine multispettrale e di una pan-
cromatica registrate simultaneamente: le immagini multispettrali sono sempre di risoluzione geometrica inferiore rispetto a quelle pancromatiche, mentre la pansharpened unisce la risoluzione geometrica della pancromatica ai vantaggi della multi-spettrale ricampionando quest’ultima alla risoluzione della pancromatica
Capitolo 4 Applicazione di Ecognition® per aggiornamento cartografico: metodologie a confronto
95
vari oggetti che produce un’immagine meno contrastata in tali zone, rendendo meno netta la
separazione tra un oggetto e l’altro.
Figura 4.2.1 - Area di studio
Capitolo 4 Applicazione di Ecognition® per aggiornamento cartografico: metodologie a confronto
96
Ma uno degli elementi chiave di Ecognition® è il riconoscimento dei bordi degli oggetti
proprio in base al contrasto, oltre all’applicazione di criteri di omogeneità: ciò significa che la
condizione dell’immagine potrebbe mettere in difficoltà il software.
4.3 - APPLICAZIONE DI ECOGNITION®
4.3.1 - 1a FASE: SEGMENTAZIONE
Come già spiegato nel capitolo precedente, la segmentazione eseguita con Ecognition® è
un’operazione che richiede l’applicazione di numerosi tentativi prima che si trovi una combi-
nazione ottimale dei parametri. L’applicazione all’immagine presa in esame non è stata da
meno: si sono susseguiti numerosi tentativi e ad ogni tentativo l’immagine è stata analizzata a
fondo per verificare l’accuratezza del risultato.
Al fine di ottenere una suddivisione degli oggetti quanto più idonea possibile, si è optato
per la scelta di un parametro di scala medio (vedi Tabella 4.3.1), cercando quindi, per quanto
possibile, di non segmentare in più parti gli edifici di grosse proporzioni ma allo stesso tempo
di discernere i piccoli edifici evitando che fossero inglobati in un unico oggetto con
l’ambiente circostante. Come si può vedere dalla figura 4.3.1a questo non è sempre stato pos-
sibile, e ciò è dipeso da due motivi: uno riguardante l’omogeneità dell’ambiente circostante e
l’altro riguardante il colore dell’edificio, entrambe, comunque, motivazioni riconducibili ad
un problema di scarso contrasto tra i diversi oggetti adiacenti. La figura 4.3.1b mostra invece
un risultato molto soddisfacente, complice un elevato contrasto con gli elementi circostanti.
Figura 4.3.1a - Più edifici inglobati in un unico oggetto
Figura 4.3.1b - Edificio segmentato cor-rettamente
Capitolo 4 Applicazione di Ecognition® per aggiornamento cartografico: metodologie a confronto
97
Livello Segmentation Mode Scale parameter Shape factor Compactness Smoothness 2 Normal 90 0,35 0,5 0,5
1 Sub-object line analysis 0,60 --- --- ---
Una segmentazione su un altro livello è stata eseguita impostando la modalità sub-object
line analysis nella finestra Segmentation mode (15): questa seconda segmentazione è stata usa-
ta, come vedremo, per la fase di classificazione di elementi estesi in lunghezza come strade,
ferrovie e canali.
4.3.2 - 2a FASE: SCELTA DELLE FEATURES E CLASSIFICAZIONE
Conclusa la segmentazione, con un risultato soddisfacente, si è passati ad analizzare i vari
oggetti per poter scegliere le features migliori da utilizzare per la classificazione: si è optato
per l’utilizzazione del metodo fuzzy, vista la possibilità di modificare a proprio piacimento le
varie curve di appartenenza delle features.
Data la difficoltà di una suddivisione automatica di oggetti geometricamente simili ma
semanticamente differenti, si è scelto di creare solo tre classi:
- Edifici
- Vegetazione
- Strade/Ferrovie/Canali
(15) - Si riveda il paragrafo 3.3.3.1 per il significato di sub-object line analysis.
Tabella 4.3.1 - Parametri di segmentazione
Figura 4.3.2 - Esempio di tre features relative alla media della radianza nelle tre bande che compongono l’immagine in esame: i samples selezionati sono rappresentati dalle barre nere verticali, e le curve di appartenenza sono state successivamente create in funzione dei samples selezionati.
Capitolo 4 Applicazione di Ecognition® per aggiornamento cartografico: metodologie a confronto
98
Le features utilizzate per le singole classi sono state in parte scelte per controlli sui valori
medi di luminosità dei pixel dei vari oggetti, in parte per controlli sulla geometria degli og-
getti: per la scelta ci si è basati sulla selezione di oggetti esempio (detti samples) visualizzan-
done il valore sulle ascisse delle varie features (vedi Figura 4.3.2), ma anche lanciando il pro-
cesso di classificazione via via che le funzioni di appartenenza delle features venivano modi-
ficate e corrette per un miglior risultato.
Esaminiamo a questo punto le features scelte per le classi create, rimandando alla fine di
tale descrizione i valori scelti per ogni singola features.
• Classe Edifici
Le features per questa classe sono sia di controllo sulla radiometria, sia di controllo sulla
geometria degli oggetti.
1. Mean layer value: è il valore medio di intensità dei pixel che compongono l’oggetto,
calcolato, per ogni banda, secondo la formula
1
1 n
L Lii
DN DNn =
= ∑
dove L indica la banda dell’immagine sulla quale si effettua il calcolo, ed n sono i
pixel che compongono il singolo oggetto. Tale feature è utilizzata per escludere, dalla
classe Edifici, gli oggetti molto scuri che presumibilmente possono essere ombre o
strade asfaltate di recente. Mediamente gli oggetti dell’immagine variano l’intensità
sulle tre bande quasi parallelamente, ragion per cui si è ritenuto necessario operare
con questa feature solo sulla prima banda.
2. Shape index: matematicamente, il valore di questa feature per il singolo oggetto viene
calcolato mediante la formula
4es
A=
⋅
dove e indica la lunghezza del bordo dell’oggetto immagine, ed A ne indica
l’estensione. Le unità di misura di e ed A, rispettivamente metro e metro quadro, so-
no presenti solo quando l’immagine è georiferita e quindi si conosce la grandezza a
terra del pixel (risoluzione geometrica); in caso contrario tali valori possono essere
misurati solo in pixel. In pratica questa feature controlla la regolarità del bordo
dell’oggetto: più l’oggetto è frastagliato, più è alto l’indice di questa feature.
Capitolo 4 Applicazione di Ecognition® per aggiornamento cartografico: metodologie a confronto
99
3. Area: indica l’estensione dell’oggetto segmentato (vale il medesimo discorso
dell’unità di misura fatto per la feature precedente). La feature è stata scelta perché
non fossero incluse macrozone che presentino forme regolari, rispettando la feature
Shape index.
4. Mean difference to darker neighbors: è la media pesata di tutte le differenze tra il va-
lore DN medio dell’oggetto e quello degli oggetti adiacenti con valore DN medio in-
feriore, determinando il peso in base alla percentuale del bordo condiviso
dell’oggetto. L’idea di inserire tale feature scaturisce dalla presenza di un numero
molto elevato, nell’immagine, di oggetti di colore chiaro rispetto agli oggetti circo-
stanti; inoltre gli edifici di colore scuro vengono difficilmente segmentati corretta-
mente vista la similitudine di colore con il terreno circostante, ragion per cui si è rite-
nuta giusta tale esclusione. La feature si è dimostrata efficace nell’escludere oggetti,
seppure di forma molto regolare, di colore molto scuro, come ad esempio i campi
coltivati.
• Classe Vegetazione
Per questa classe sono state scelte tre features di controllo radiometrico, una di controllo
geometrico e una relazionale.
1. Mean layer value: per questa feature, la selezione dei samples della classe ha mostra-
to una disposizione molto ravvicinata delle barre nere rappresentative dei samples; si
è optato quindi per l’utilizzo della feature per tutte le tre bande dell’immagine, iso-
lando così elementi di vegetazione folta.
2. Asymmetry: questo parametro aumenta di valore con l’aumentare della lunghezza
dell’oggetto rispetto alla sua larghezza. Segue la formula matematica
1 nκm
= −
dove n ed m sono rispettivamente il semiasse minore e maggiore dell’ellisse appros-
simante l’oggetto. L’uso di questo parametro, per quanto escluda una parte di oggetti
che dovrebbero essere classificati come vegetazione, è giustificato dal fatto che e-
sclude anche un gran numero di oggetti assolutamente estranei alla vegetazione, sep-
pure simili a quest’ultima come colore: tra una classificazione sbagliata e una non
classificazione di un oggetto, si è preferita la seconda via.
Capitolo 4 Applicazione di Ecognition® per aggiornamento cartografico: metodologie a confronto
100
3. not Classify as class: questa feature filtra gli oggetti prima che vengano controllati
nelle restanti features prima descritte: si è imposto, infatti, che venissero esclusi dalla
classificazione tutti gli oggetti che appartenessero già alla classe Edifici e alla classe
Strade/Ferrovie/Canali, in modo tale da dare priorità di classificazione a queste ul-
time. A differenza delle precedenti, quest’ultima feature non fa capo alla logica
fuzzy, bensì a quella binaria.
• Classe Strade/Ferrovie/Canali
Le features utilizzate per questa classe sono di carattere geometrico e di tipo relazionale,
ma come già accennato prima, alcune di queste sfrutteranno la seconda segmentazione
(Livello 1, vedi Tabella 4.3.1). Si è fatto uso inoltre di operatori or ed and per poter sud-
dividere in due gruppi le features utilizzate.
Nelle innumerevoli features messe a disposizione in Ecognition®, vengono più volte ri-
chiamati elementi di misura come lunghezza o larghezza, ma non tutti hanno lo stesso si-
gnificato. A titolo di esempio riportiamo l’elemento lunghezza (lenght): esiste una feature
“lenght” semplice e una feauture “lenght (line sub object)” ma non hanno lo stesso signifi-
cato; infatti la prima indica la lunghezza di un oggetto intesa come la lunghezza del ret-
tangolo che contiene l’oggetto (vedi Figura 4.3.3a), mentre l’altra è la lunghezza
dell’oggetto calcolata mediante la somma delle distanze tra i baricentri dei singoli sub-
object che compongono l’oggetto, ed è specifica per il calcolo di oggetti estesi in lunghez-
za quali strade o ferrovie (vedi Figura 4.3.3b)
Fatta questa premessa, analizziamo ora le features della classe.
Figura 4.3.3a - calcolo della lunghezzadell’oggetto secondo la feature lenght
Figura 4.3.3b - calcolo della lunghezza dell’oggetto secondo la feature lenght (line so)
Capitolo 4 Applicazione di Ecognition® per aggiornamento cartografico: metodologie a confronto
101
1. Lenght/Width (line so): matematicamente questa feature è data dalla formula
SOSO
SO
lγw
=
dove
1 21
n
SO ii
l r r d=
= + + ∑
è la lunghezza dell’oggetto (vedi Figura 4.3.3b) mentre
SOSO
Awl
=
è la larghezza dell’oggetto.
Questa feature è risultata efficace nell’isolamento di oggetti lunghi e stretti, e allo
stesso tempo ha fatto si che fossero classificati oggetti lunghi non perfettamente seg-
mentati: alcuni canali o strade sterrate, infatti, presentano colori simili al terreno nu-
do, per cui sono stati segmentati includendo anche parte del terreno circostante; la
scelta di questa feature ha permesso di non lasciare come non classificati simili og-
getti.
2. Relative border to class: la feature in questione rientra in quelle che si chiamano
“features relazionali”. Dopo la segmentazione si è notata la presenza di alcuni oggetti
adiacenti ad edifici, simili a strade come andamento, che venivano inseriti erronea-
mente in questa classe. Con questa feature, inserendo la classe Edifici al posto di
class, sono stati notevolmente ridotti questi errori.
3. Asymmetry: già usata per la classe Vegetazione, in questo caso ha permesso di esclu-
dere un numero elevato di oggetti, la maggior parte dei quali vegetazione, aventi ca-
ratteristiche rientranti nella feature precedente, ma con contorni molto irregolari,
quindi ben lungi dall’essere rassomiglianti a strade.
4. Width (line so): anche questa feature, come la lenght/width, fa uso della segmentazio-
ne del Livello 1. Questa ha dato buoni risultati per l’estrazione di oggetti lineari ben
segmentati, ovvero oggetti ben contrastati rispetto agli elementi al contorno.
5. not Classify as class: anche per questa classe, così come per la classe Vegetazione, si
è deciso di dare precedenza ad una particolare classe, ma questa volta solo alla classe
Edifici.
Capitolo 4 Applicazione di Ecognition® per aggiornamento cartografico: metodologie a confronto
102
Come accennato prima, per questa classe si è decisa la suddivisione in due gruppi di featu-
res:
1° gruppo: Lenght/Width (line so); not Classify as Edifici; Relative border to Edifici
2° gruppo: Asymmetry; not Classify as Edifici; Relative border to Edifici; Width (line so)
Gli operatori logici and ed or sono stati opportunamente scelti in modo tale che gli oggetti
in esame, affinché rientrino nella classe, soddisfino tutte le features del 1° gruppo o tutte
quelle del 2° gruppo.
La successiva tabella riassume tutte le features, che seguono la logica fuzzy, utilizzate per
le varie classi nonché i valori utilizzati per le funzioni di appartenenza; la tabella 4.3.2 invece
riassume le statistiche sulla classificazione finale.
Classe Colore Classe Feature Valore minimo
di appartenenza Valore massimo di appartenenza
Edifici Mean layer value (banda 1) 260 (DN) 2047 (DN) Edifici Shape Index 1 2,3 Edifici Area 0 (m2) 1700 (m2)
Edifici Mean Difference to darker neighbors 113 (DN) 2047 (DN)
Vegetazione Mean layer value (banda 1) 140 (DN) 245 (DN) Vegetazione Mean layer value (banda 2) 235 (DN) 335 (DN) Vegetazione Mean layer value (banda 3) 264 (DN) 330 (DN) Vegetazione Asymmetry 0 0,865
Strade/Ferrovie/Canali Lenght/Width (line so) 35 max Strade/Ferrovie/Canali Relative border to Edifici 0 0,3 Strade/Ferrovie/Canali Asymmetry 0,98 max Strade/Ferrovie/Canali Width (line so) 0 (m) 8,5 (m)
Classe Oggetti Classificati Stima oggetti classificati correttamente
Edifici 755 86%
Vegetazione 737 91%
Strade/Ferrovie/Canali 114 83%
Tabella 4.3.1 - Schema delle classi e delle relative features utilizzate
Tabella 4.3.2 - Statistiche classificazione finale
Capitolo 4 Applicazione di Ecognition® per aggiornamento cartografico: metodologie a confronto
103
Si tenga presente comunque che gli edifici classificati sono un numero molto inferiore ri-
spetto al numero totale di edifici presenti nell’immagine (stimati poco più di 2000).
Figura 4.3.4 - Classificazione finale
Capitolo 4 Applicazione di Ecognition® per aggiornamento cartografico: metodologie a confronto
104
4.3.3 - 3a FASE: CONFRONTO CON CARTOGRAFIE PRECEDENTI E SEGNALAZIONE AUTOMA-
TICA DI “MAN-MADE OBJECTS”
L’ultima fase consiste nel vettorializzare gli oggetti classificati mediante il tool Create
Polygons (vedi paragrafo 3.3.5) ed esportarli in formato vettoriale (file shp); il file così otte-
nuto è facilmente visualizzabile in ambiente GIS, e lo stesso dicasi per il formato dxf della
cartografia del 1998, precedente all’epoca dell’immagine Ikonos: per il confronto è stato uti-
lizzato il software ArcGIS® della Esri®.
Visualizzando contemporaneamente l’immagine Ikonos e i due layer vettoriali, sono e-
merse differenti situazioni, che permettono di fare un quadro globale evidenziando gli aspetti
positivi e negativi di quest’applicazione; nelle immagini successive, i due layer vettoriali sa-
ranno contraddistinti da poligoni rossi (cartografia 1998) e da poligoni blu (oggetti classificati
con Ecognition®).
In figura 4.3.5a, con la lettera A, è stata evidenziata una struttura non presente all’epoca
del 1998, quindi sorta negli anni successivi: il software in questo caso ha risposto molto bene,
non solo nel mettere in luce qualcosa di nuovo (soddisfacendo quindi appieno lo scopo
dell’applicazione), ma anche nel tracciare i contorni, che sono tutto sommato abbastanza re-
golari (l’oggetto quindi è stato ben segmentato).
La seconda situazione invece (vedi lettera B Figura 4.3.5b) ha mostrato una classificazio-
ne ed una segmentazione corretta di due strutture, due file di porticati di una piazza, che era-
Figura 4.3.5a
A
Capitolo 4 Applicazione di Ecognition® per aggiornamento cartografico: metodologie a confronto
105
no già presenti all’epoca del 1998. Anche in questo caso comunque, si può affermare che il
software ha soddisfatto lo scopo dell’applicazione.
Le situazioni che verranno illustrate di seguito invece, non hanno risposto correttamente
all’applicazione: tuttavia ognuna di esse è caratterizzata da diversi tipi di errore, alcuni impu-
tabili a difficoltà da parte del software nel segmentare e classificare (per problemi legati alla
qualità dell’immagine), altri invece a problemi geometrici dell’immagine.
Si è deciso allora di suddividere gli errori in tre categorie che andremo ad esaminare sin-
golarmente.
Figura 4.3.5b
B
Figura 4.3.6a
C
Figura 4.3.6b
C
Capitolo 4 Applicazione di Ecognition® per aggiornamento cartografico: metodologie a confronto
106
• Errori di 1° Tipo
Nelle figure figura 4.3.6a e 4.3.6b sono stati evidenziati con la lettera C alcuni edifici ben
classificati, i cui contorni sono abbastanza regolari, che presentano però uno shift verso
Ovest (Figura 4.3.6a) e verso Sud-Ovest (Figura 4.3.6b) rispetto ai poligoni rossi della
cartografia del 1998. Il programma in questo caso ha risposto correttamente (fatta ecce-
zione della Figura 4.3.6b che presenta anche un errore di 2°Tipo e di 3°Tipo) dato che i
poligoni blu sono perfettamente sovrapposti ai rispettivi edifici sull’immagine Ikonos,
quindi l’errore non è imputabile ad Ecognition®, bensì ad un problema dell’ortorettifica.
Quest’operazione di correzione dell’immagine (si riveda paragrafo 2.3.2.3) è stata esegui-
ta tramite un DEM di scarsa risoluzione (20 metri), il che ha portato ad un posizionamento
planimetrico non corretto di alcune zone dell’immagine: quest’errore tende ad amplificarsi
quando si ha a che fare con terreni a pendenze elevate (come in Figura 4.3.6b).
• Errori di 2° Tipo
Questa categoria di errori è dovuta alla difficoltà che il software ha avuto nel segmentare
e/o nel classificare (lettera D Figura 4.3.6c) che ha portato ad un’esclusione dell’oggetto
dalla classe Edifici: a sua volta questo problema si sviluppa per contrasti troppo bassi
nell’immagine, il che ha reso l’oggetto reale come “mimetizzato” e quindi difficilmente
riconoscibile. In questi casi si può procedere con ulteriori operazioni di enhancement
Figura 4.3.6c
D
Capitolo 4 Applicazione di Ecognition® per aggiornamento cartografico: metodologie a confronto
107
dell’immagine, anche se non sempre si risolve il problema: ripetuti ricampionamenti
dell’immagine infatti possono portare perdite di altre informazioni. Un’altra ipotesi è quel-
la di eseguire segmentazioni dando un valore più basso al parametro Shape factor, e quin-
di dando più importanza ai contrasti piuttosto che alle forme: anche per questa operazione
c’è il rovescio della medaglia, poiché si andrebbero a separare edifici di grosse proporzio-
ni in più parti.
• Errori di 3° Tipo
L’ultima categoria di errori invece riguarda gli oggetti mal classificati: questo può dipen-
dere da edifici di forme particolari, (vedi lettera E Figura 4.3.6d), da oggetti riconosciuti
come edifici ma che nella realtà sono tutt’altro (un esempio su tutti sono i piazzali anti-
stanti edifici o piazzali usati come parcheggi) (vedi lettera F Figura 4.3.6d), e ancora una
volta da un problema di ortorettifica (vedi lettera G Figura 4.3.6e).
L’ortofoto in questione mostra, come in figura 4.3.6e, anche le facciate di alcuni edifici:
questo fenomeno, in una visione perfettamente ortogonale al piano orizzontale del luogo,
non dovrebbe essere presente. Non a caso si usa il condizionale, perché le immagini, aeree
o satellitari che siano, nascono sempre con un punto di vista prospettico, ragion per cui
tutto dipende da come viene effettuata l’ortorettifica: le ortofoto di precisione mantengono
sempre questo fenomeno, ma in forma molto più ridotta e quasi impercettibile all’occhio
dell’osservatore. Esistono anche ortofoto in cui questo fenomeno è totalmente assente, e
F E
Figura 4.3.6d
G
Figura 4.3.6e
Capitolo 4 Applicazione di Ecognition® per aggiornamento cartografico: metodologie a confronto
108
sono meglio conosciute come True Orthophoto: per ottenerle si deve fare uso sia di un
DEM di alta precisione, sia di riprese con side-lap e over-lap elevati, per assicurare visuali
da più punti dei target, il che comporta un inevitabile aumento di spesa, aumento che per
l’applicazione preposta non sarebbe giustificabile. Ciò premesso, nella figura 4.3.6e, con
la lettera G, è stato indicato un oggetto mal classificato: si tratta proprio di una facciata di
un edificio, presente nell’immagine per un errore dovuto all’ortorettifica che non è di pre-
cisione.
Terminata questa dovuta analisi sui vari errori emersi dall’applicazione, rimane il passo
finale, ovvero l’estrazione automatica di oggetti non presenti nella cartografia del 1998: que-
sto passo viene effettuato semplicemente mediante una comune applicazione GIS, la selezio-
ne di oggetti tramite query. La query non è altro che un’interrogazione da parte dell’utente,
mediante la quale si chiede al software di evidenziare quegli oggetti (punti, polilinee o poli-
goni) che rispondono a certe prerogative.
Nel caso in esame, si è chiesto al software ArcGIS® di selezionare tutti quegli oggetti del
layer estratto con Ecognition® che non si intersecano con gli oggetti della cartografia vettoria-
le del 1998: in questo modo sono stati messi in evidenza tutti gli oggetti che non erano pre-
senti nella vecchia cartografia. Nelle figure 4.3.7a e 4.3.7b sono visibili due esempi di oggetti
messi in evidenza e non presenti all’epoca 1998.
Questa procedura però risente anche degli errori di 1° e 2° tipo descritti prima: il primo
porta ad una non perfetta sovrapposizione dei poligoni dei due layer, e di conseguenza po-
Figura 4.3.7a Figura 4.3.7b
Capitolo 4 Applicazione di Ecognition® per aggiornamento cartografico: metodologie a confronto
109
trebbe essere segnalato un oggetto che in realtà era già presente nella vecchia cartografia
(come nel caso di Figura 4.3.6b); il secondo invece, non evidenziando alcun oggetto (vedi Fi-
gura 4.3.6c), lascia presupporre che questi non sia più presente, ovvero che l’edificio possa
essere stato abbattuto. Si ricordi inoltre che sono stati classificati meno della metà degli edifi-
ci realmente presenti nell’immagine, ragion per cui eventuali edifici non classificati, sorti tra
il 1998 e il 2000, potrebbero non essere segnalati. Quest’ultimo fattore è quello che più spin-
ge verso ulteriori sperimentazioni, per fare in modo che risultino segnalati quelli che potreb-
bero essere interpretati come abusi edilizi sul territorio, quali nuove costruzioni (vedi Figura
4.3.8) o ampliamenti delle stesse (vedi Figure 4.3.9a e 4.3.9b).
Figura 4.3.9a - Una serra durante i la-vori di ampliamento nel 1998
Figura 4.3.8
Figura 4.3.9b - La stessa serra di Figu-ra 4.3.9a nel 2000 a lavori ultimati
Capitolo 4 Applicazione di Ecognition® per aggiornamento cartografico: metodologie a confronto
110
4.4 - UN METODO ALTERNATIVO DI CHANGE DETECTION MEDIANTE
CONFRONTO TRA IMMAGINI DI EPOCHE DIFFERENTI
Quando si parla di change-detection si intende una qualsivoglia metodologia che si adope-
ri per il confronto tra immagini di epoche diverse al fine di evidenziarne le differenze, cioè i
cambiamenti di copertura del suolo sorti da un’epoca all’altra. In alternativa ad Ecognition®,
si propone un metodo di confronto tra immagini applicato mediante il software ER Mapper®:
la tecnica consiste nell’assegnare alle due bande Rosso e Verde dello schermo del calcolatore,
due immagini pancromatiche, e successivamente sovrapporle.
Poiché il rosso e il verde insieme restituiscono il giallo, è chiaro che laddove la differenza
di intensità tra i rispettivi pixel delle due immagini sia nulla o minima, vedremo un colore in
scala di giallo, mentre laddove la differenza è elevata, vedremo un colore del pixel tendente al
rosso o al verde, a seconda che la differenza di intensità tra la prima e la seconda immagine
sia positiva o negativa: maggiore sarà la differenza, maggiore sarà l’intensità di rosso o di
verde. Osservando quindi l’immagine, si darà per certo che la presenza di un colore giallo in-
dica “nessun cambiamento” tra prima e dopo, mentre la presenza di un rosso o di un verde
indica “cambiamento”.
Questo sistema, benché di semplice applicazione, richiede che le due immagini siano pre-
ventivamente trattate, sia in termini geometrici che radiometrici. Per quanto riguarda la geo-
metria delle due immagini, perché queste siano confrontabili, devono essere ben georiferite
ed ortorettificate: il consiglio è di effettuare una registrazione “immagine su immagine” (si
veda paragrafo 2.3.2.1 sull’argomento). Per il trattamento radiometrico invece, si devono
considerare le certamente differenti condizioni di luce durante le riprese, dovute sia a fattori
meteorologici, sia a condizioni astronomiche del sole (problematiche le ombre che si esten-
dono in direzioni e proporzioni differenti a seconda della posizione del sole): come conse-
guenza, se non radiometricamente corrette, si potrebbero ottenere differenze di intensità an-
che laddove non si verifica un cambio di copertura.
Abbiamo eseguito l’applicazione su due ortofoto pancromatiche, ottenute tramite riprese
aeree, datate rispettivamente 1998 e 2002, ritraenti sempre la zona di Sarno (SA): l’immagine
del 1998 è stata assegnata alla banda rossa, mentre quella del 2002 alla banda verde. In figura
4.4.1, risultato finale del change-detection, con due frecce blu sono stati indicati due oggetti
Capitolo 4 Applicazione di Ecognition® per aggiornamento cartografico: metodologie a confronto
111
in particolare che evidenziano una variazione di copertura: una vasca di contenimento acque e
un canale, entrambi non presenti nel 1998.
In generale questo metodo è certamente da considerarsi valido, ma, come già detto, deve
essere preceduto da un buon lavoro di enhancement dell’immagine; ad ogni modo, la totale
mancanza di automatismi, richiede un occhio ben allenato per riuscire ad identificare, con
buona accuratezza, le variazioni del territorio.
4.5 - CONCLUSIONI FINALI ED IPOTESI DI MIGLIORAMENTO
Il sistema object-oriented, affiancato dalla logica fuzzy, ha certamente aperto un nuovo
scenario nell’ambito dell’automatismo per il riconoscimento e classificazioni oggetti: la di-
sponibilità di poter usufruire di sistemi di riconoscimento basati sullo studio della geometria
degli oggetti di un immagine non può che essere un fattore positivo rispetto al sistema pixel-
based. L’applicazione del software Ecognition® per l’obiettivo finale preposto in questa tesi,
l’aggiornamento di cartografie, non ha fornito risultati esaustivi, complici anche la mancanza
della banda infrarosso e le risoluzioni, sia geometrica che radiometrica, a nostro avviso trop-
po basse quando si tratta di dover far riconoscere ad un software gli oggetti presenti in
Figura 4.4.1 - Risultato finale del change detection di ER Mapper
Capitolo 4 Applicazione di Ecognition® per aggiornamento cartografico: metodologie a confronto
112
un’immagine. Tuttavia, si deve tener presente che lo scopo primario è stato quello di proget-
tare una nuova metodologia semiautomatica di riconoscimento oggetti: è chiaro quindi che
non sono affatto da escludere ulteriori applicazioni con dati migliori di quelli da noi adopera-
ti.
Ad ogni modo la segmentazione ad oggetti, affiancata all’utilizzo di immagini ad alta riso-
luzione (attuali e di futura concezione), a nostro avviso rimane un buon punto di partenza per
lo sviluppo di automatismi preposti al riconoscimento oggetti, ma si deve puntare su algorit-
mi capaci di regolarizzare le forme geometriche, operazione di difficile attuazione con i pa-
rametri messi a disposizione dalla multiresolution segmentation di Ecognition®. Le già an-
nunciate future versioni di questo software, fermo ormai da qualche anno alla versione 4.0,
potrebbero integrare importanti novità a riguardo: diversamente, non si esclude la possibilità
di sviluppare un software che possa migliorare la metodologia qui sviluppata.
Bibliografia Bar-Lev M., Shcherbina L., Levin V. (2001), Eros System - Satellite Orbit and Constellation Design, 22nd Asian Conference on Remote Sensing, 5 - 9 November 2001, Singapore
Barbarella M., Mancini F., Zanni M. (2002), Aggiornamento di Cartografia Tecnica tramite Immagini ad Alta Risoluzione, Atti della 6a Conferenza Nazionale ASITA, 5-8 Novembre 2002, Perugia
Baatz M., Benz U., Dehghani S., Heynen M, Höltje A, Hofmann P, Lingenfelder I., Mimler M., Sohlbach M., Weber M., Willhauck G. (2004), eCognition User Guide 4, Definiens Im-aging, München, Germany
Benz U.C., Hofmann P., Willhauck G., Lingenfelder I., Heynen M. (2004), Multi-resolution, Object-oriented Fuzzy Analysis of Remote Sensing Data for Gis-Ready Information, ISPRS Journal of Photogrammetry & Remote Sensing n. 58 (2004)
Bianchin A., Bravin L. (2005), Multi-rappresentazione e Multi-scala. Esperienze in Ambiente Raster, Bollettino SIFET n. 2/2005,
Blaschke T., Lang S., Möller M. (2005), Object-based Analysis of Remote Sensing Data for Landscape Monitoring: Recent Developments, Anais XII Simpósio Brasileiro de Sensoria-mento Remoto, Goiâna, Brasil, 16-21 abril 2005
Dermanis A,, Biagi L. (2002), Telerilevamento - informazione territoriale mediante immagini da satellite, Casa Editrice Ambrosiana, Milano
Fiani M., Vatore F. (2000), Un esperimento di cartografia da satellite, Bollettino SIFET n. 4/2000, Parma
Frauman E., Wolff E.(2005), Segmentation of Very High Spatial Resolution Satellite Images in Urban Areas for Segments-based Classification, ISPRS, 3rd International Symposium Re-mote Sensing and Data Fusion Over Urban Areas (URBAN 2005), 5th International Sympo-sium Remote Sensing of Urban Areas (URS 2005), Tempe, AZ, USA, March 14-16 2005
Fritsch D., Stallmann D. (2000), Rigorous Photogrammetric Processing of High Resolution Satellite Imagery, ISPRS, Vol XXXIII, Amsterdam, 2000
Geomatica ver. 9.1, Geomatica Orthoengine User Guide, © 2003 PCI Geomatics Enterprises Inc.®
Gonzales R.C., Woods R.E., Eddins S.L. (2004), Digital Image Processing Using MATLAB®, Pearson Prentice Hall, New Jersey
Gruber-Geymayer B.C., Klaus A., Karner K. (2005), Data Fusion for Classification and Ob-ject Extraction, IAPRS, Vol. XXXVI, Vienna, Austria. August 29-30, 2005
Jensen J.R. (2005), Introductory Digital Image Processing - A Remote Sensing Perspective, Pearson Prentice Hall, Upper Saddle River
113
Bibliografia
Marangoz A.M., Oruc M., Buyuksalih G. (2004), Object-oriented Image Analysis and Se-mantic Network for Extracting the Roads and Buildings From Ikonos Pan-Sharpened Images, XXth ISPRS Congress, 12-23 July 2004, Istanbul, Turkey
McDermid G.J., Pape A., Chubey M.S., Franklin S.E., Object Oriented Analysis for Change Detection, Department of Geography, University of Calgary, Calgary; Department of Geog-raphy, University of Saskatchewan, Saskatoon
Menna F. (2005), Integrazione di Laser Scanning e Immagini, tesi di laurea in Scienze Nauti-che, Facoltà di Scienze e Tecnologie, Università degli studi di Napoli “Parthenope”, A.A. 2004/2005, Napoli
Oruc M., Marangoz A.M., Buyuksalih G. (2004), Comparison of Pixel-based and Object Oriented Classification Approaches using Landsat-7 ETM Spectral Bands, XXth ISPRS Congress, 12-23 July 2004, Istanbul, Turkey
Paglia L. (2004), Controllo Ambientale da Immagini Satellitari, tesi di laurea in Scienze Am-bientali, Facoltà di Scienze e Tecnologie, Università degli studi di Napoli “Parthenope”, A.A. 2003/2004, Napoli
Parente C. (2004), Dispense del corso di “Cartografia Numerica e Gis”, Dipartimento di Scienze Applicate, sezione di Geodesia Topografia ed Idrografia, Università degli studi di Napoli “Parthenope”
Repaka S.R., Truax D.D., Kolstad E., O’Hara C.G. (2004), Comparing Spectral and Object Based Approaches for Classification and Transportation Feature Extraction from High Reso-lution Multispectral Imagery, Proceedings of the ASPRS 2004 Annual Conference, Denver, USA. May 23-28
Selvini A., Guzzetti F. (2000), Fotogrammetria Generale, UTET, Torino
Tao C.V., Hu Y., Jiang W. (2004), Photogrammetric Exploitation of Ikonos Imagery for Mapping Applications, International Journal Remote Sensing, 20 July, 2004, Vol. 25, No. 14
Zhang Q., Couloigner I. (2006), Automated Road Network Extraction from High Resolution Multi-spectral Imagery, ASPRS 2006 Annual Conference, Reno, Nevada, May 1-5, 2006
Bibliografia da WEB Baatz M., Schäpe A., Multiresolution Segmentation: an Optimization Approach for High Quality Multi-scale Image Segmentation [www.definiens.com/pdf/publications/baatz_FP_12.pdf]
Caprioli M. (2005), Dispense del corso di “Telerilevamento”, Politecnico di Bari, Diparti-mento di Vie e Trasporti [http://www.poliba.it/Ricerca/Dipartimenti/Vie_e_Trasporti/dispense/caprioli/Telerilevamento.pdf]
Dell’Acqua F., Trianni G. (2005), Dispense dei corsi di “Sistemi di Telerilevamento”, “In-terpretazione di dati telerilevati”, “Interpretazione di immagini telerilevate”, Università de-gli Studi di Pavia, Telecommunications & Remote Sensing Laboratory [http://tlclab.unipv.it]
114
Bibliografia
Dowman I.J., Michalis P., Generic Rigorous Model for Along Track Stereo Satellite Sensors, Department of Geomatic Engineering, University College London, Gower Street, London [http://www.ipi.uni-hannover.de/html/publikationen/2003/workshop/dowman.pdf]
Haverkamp D., Automatic building extraction from Ikonos imagery (2004) [http://www.spaceimaging.com/whitepapers_pdfs/2004]
Levner I., Bulitko V., Lihong L., Lee G., Greiner R. (2003), Automated Feature Extraction for Object Recognition, University of Alberta, Department of Computing Science, Edmonton, Alberta, Canada [www.cs.ualberta.ca/~bulitko/ircl/mlcv/pubs/CIlyaResearchWorkadoreIVCNZ2003ivcnz03.pdf]
Liu Z.J., Wang J., Liu W.P., Building Extraction from High Resolution Imagery based on Multi-scale Object Oriented Classification and Probabilistic Hough Transform, Institute of Photogrammetry and Remote Sensing, Chinese Academy of Surveying and Mapping, Bei-jing, China; School of Geography and Planning, Sun Yat-Sen University. Guangzhou, China [www.definiens.de/pdf/publications/IGARSSliu.pdf ]
Scarpace F.L. (2006), Lab Materials of “Remote Sensing Digital Image Processing” course, College of Engineering, University of Wisconsin-Madison [http://ecow.engr.wisc.edu/cgi-bin/get/cee/556/scarpace/labmateria/]
Tian J., Wang J., Urban Building Boundary Extraction from Ikonos Imagery, Department of Geography, The University of Western Ontario, London, Canada; Insitute of Resource Sci-ence, Beijing Normal University, Beijing, China [http://www.casi.ca/papers/3-08.pdf]
Pierdicca N. (2006), Dispense del corso di “Telerilevamento Ambientale”, Università “La Sapienza” di Roma, Dipartimento Ingegneria Elettronica [http://www.die.uniroma1.it/strutture/labant/teaching/pierdicca/Telerilevamento1/Telerilevamento1.htm]
Valentini R., Papale D. (2006), Dispense del corso di “Telerilevamento e Sistemi Informativi Forestali”, Dipartimento di Scienze dell’Ambiente Forestale e delle sue Risorse, Università degli Studi della Tuscia, Viterbo [http://gaia.agraria.unitus.it/didattic/teleril/leziotel.html]
Wei W., Chen X., Ma A., Object-oriented Information Extraction and Application in High-resolution Remote Sensing Image, Institute of Remote Sensing & GIS Peking University Bei-jing, P.R. China; Earthquake Engineering Research Center, China Earthquake Administra-tion, Beijing [www.definiens.com/pdf/publications/IGARSSwei.pdf]
Wong T.H., Mansor S.B., Mispan M.R., Ahmad N., Sulaiman W.N.A., Feature Extraction Based on Object Analysis, Spatial and Numerical Modeling Laboratory, Institute of Ad-vanced Technology, University Putra Malaysia; Stategic, Environmento and Natural Re-sources Research Center (SENR), Mardi, Kuala Lumpur, Malaysia [www.definiens-imaging.com/documents/publications/WongTaiHong.pdf]
Siti internet consultati:
www.llnl.gov
115
Bibliografia
www.planetek.ithttp://kingfish.coastal.edu
www.geotecnologie.unisi.it
http://earth.esa.int/pub/ESA_DOC/landsat_product_anomalies/GAEL-P157-SLP-001-05-01.pdf
116
Ringraziamenti Vorrei innanzi tutto ringraziare i miei relatori, il Prof. Raffaele Santamaria, che duran-
te il mio terzo anno di studi in questa facoltà, per primo ha fatto sì che potessi conoscere
ed ammirare questo affascinante mondo quale è la cartografia, e il Prof. Salvatore Troisi,
che con sincera umiltà e lealtà, è riuscito in questi anni a conquistare tutta la mia ammi-
razione e stima per i preziosi insegnamenti (didattici e non) che è riuscito a trasmettermi,
per il suo modo di porsi con gli studenti, per la disponibilità al dialogo e al confronto che
ha sempre mostrato, e per essere riuscito, in questi ultimi mesi, a trovare sempre le parole
giuste che mi hanno dato modo di andare avanti nei momenti di difficoltà.
Un doveroso ringraziamento ai docenti ed ai tecnici della Sezione di Geodesia, Topo-
grafia ed Idrografia del Dipartimento di Scienze Applicate per la disponibilità e cortesia
che hanno sempre dimostrato nei miei riguardi; al mio collega, ma prima ancora grande
amico, Fabio Menna, con il quale ho avuto modo di condividere idee, momenti di svago e
momenti di studio in questi anni.
Un grazie alla mia famiglia, ai miei genitori in particolare, per il loro sostentamento,
che mi ha permesso di raggiungere questo traguardo.
Vorrei in ultimo ringraziare il Prof. Andrea Vassallo, vero faro di sapere nella geode-
sia e nell’astronomia, che nell’Agosto del 2000 mi augurò di avermi, un giorno, collega
nelle Scienze Nautiche, per i momenti trascorsi assieme nei quali ho avuto modo di carpi-
re ogni suo insegnamento e farne tesoro.
117