S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini...

121
UNIVERSITÀ DEGLI STUDI DI NAPOLI “PARTHENOPE” FACOLTÀ DI SCIENZE E TECNOLOGIE Corso di laurea in SCIENZE NAUTICHE TESI DI LAUREA ESTRAZIONE AUTOMATICA DI ELEMENTI PER L’AGGIORNAMENTO CARTOGRAFICO DA IMMAGINI TELERILEVATE Relatori Candidato Chiar. Prof. Raffaele Santamaria Sebastiano Ackermann Matr. SN/599 Chiar. Prof. Salvatore Troisi Anno Accademico 2005/2006

Transcript of S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini...

Page 1: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

UNIVERSITÀ DEGLI STUDI DI NAPOLI

“PARTHENOPE”

FACOLTÀ DI SCIENZE E TECNOLOGIE

Corso di laurea in

SCIENZE NAUTICHE

TESI DI LAUREA

ESTRAZIONE AUTOMATICA DI ELEMENTI PER

L’AGGIORNAMENTO CARTOGRAFICO DA IMMAGINI TELERILEVATE

Relatori Candidato Chiar. Prof. Raffaele Santamaria Sebastiano Ackermann Matr. SN/599 Chiar. Prof. Salvatore Troisi

Anno Accademico 2005/2006

Page 2: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Indice

INTRODUZIONE 1 CAPITOLO 1 TELERILEVAMENTO: PRINCIPI BASE

1.1 - CENNI STORICI 3

1.2 - PRINCIPI FISICI 5 1.2.1 - GRANDEZZE RADIOMETRICHE 5

1.2.2 - LO SPETTRO ELETTROMAGNETICO 8

1.2.3 - FIRMA SPETTRALE 9

1.3 - SATELLITI PER IL TELERILEVAMENTO, SENSORI E DATI 12 1.3.1 - MEMORIZZAZIONE E VISUALIZZAZIONE DI IMMAGINI DIGITALI 12

1.3.2 - TELERILEVAMENTO SATELLITARE: IL SISTEMA DI OSSERVAZIONE DELLA TERRA 19

1.3.2.1 - IL BUS 19

1.3.2.2 - IL PAYLOAD 20

1.3.2.3 - SEGMENTO TERRESTRE 23

1.3.3 - CLASSIFICAZIONE TECNOLOGICA DEI SENSORI 25

1.3.3.1 - SENSORI OTTICI D’IMMAGINE 26

1.3.4 - PRINCIPALI PIATTAFORME IN USO PER IL TELERILEVAMENTO 32

1.3.4.1 - MISSIONI LANDSAT 32

1.3.4.2 - MISSIONI SPOT 35

1.3.4.3 - MISSIONI IKONOS 37

1.3.4.4 - MISSIONI QUICKBIRD 37

1.3.4.5 - MISSIONI EROS 38

CAPITOLO 2 ELABORAZIONE ED INTERPRETAZIONE DELLE IMMAGINI

2.1 - INTRODUZIONE 39

2.2 - L’IMMAGINE RASTER (IL DATO) 39

2.3 - PROCEDURE POST-ACQUISIZIONE 41

2.3.1 - CORREZIONI RADIOMETRICHE 42

2.3.2 - CORREZIONI GEOMETRICHE 48

I

Page 3: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Indice

2.3.2.1 - MODELLO GEOMETRICO ORBITALE 51

2.3.2.2 - GEOREFERENZIAZIONE 52

2.3.2.3 - ORTORETTIFICA DI UN’IMMAGINE DIGITALE 53

2.4 - IL RICAMPIONAMENTO 56

2.5 - ELABORAZIONE ED INTERPRETAZIONE DELLE IMMAGINI 58

2.5.1 - POSSIBILI VISUALIZZAZIONI DELL’IMMAGINE SU SCHERMO 59

2.5.2 - MIGLIORAMENTO DEI CONTRASTI MEDIANTE ELABORAZIONI SULLE BANDE 61

2.5.2.1 - IL CONCETTO DI CONTRASTO 61

2.5.2.2 - CONTRAST STRETCHING 61

2.5.2.3 - I FILTRI MEDIANTE FINESTRE MOBILI 63

2.5.2.4 - OPERAZIONI ALGEBRICHE TRA BANDE 66

2.5.2.5 - ANALISI DELLE COMPONENTI PRINCIPALI 67

CAPITOLO 3 SEGMENTAZIONE OBJECT-ORIENTED: IL SOFTWARE ECOGNITION®

3.1 - INTRODUZIONE 72

3.2 - LA SEGMENTAZIONE 73

3.3 - IL SOFTWARE ECOGNITION® 75

3.3.1 - PRINCIPI BASE DI FUNZIONAMENTO 75

3.3.2 - CARICAMENTO DELLE IMMAGINI 77

3.3.3 - MULTIRESOLUTION SEGMENTATION 79

3.3.3.1 - LIVELLI DI SEGMENTAZIONE CORRELATI 81

3.3.4 - CLASSIFICAZIONE 83

3.3.4.1 - NEAREST NEIGHBOR E STANDARD NEAREST NEIGHBOR 84

3.3.4.2 - LA LOGICA FUZZY 85

3.3.4.3 - CREAZIONE DELLE CLASSI 88

3.3.5 - LA VETTORIALIZZAZIONE DEGLI OGGETTI IMMAGINE 91

CAPITOLO 4 APPLICAZIONE DI ECOGNITION

® PER AGGIORNAMENTO CARTOGRAFICO: METODOLOGIE A CONFRONTO

4.1 - INTRODUZIONE 94

II

Page 4: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Indice

4.2 - DATI UTILIZZATI 94

4.3 - APPLICAZIONE DI ECOGNITION® 96

4.3.1 - 1a FASE: SEGMENTAZIONE 96

4.3.2 - 2a FASE: SCELTA DELLE FEATURES E CLASSIFICAZIONE 97

4.3.3 - 3a FASE: CONFRONTO CON CARTOGRAFIE PRECEDENTI E SEGNALA-ZIONE AUTOMATICA DI “MAN-MADE OBJECTS” 103

4.4 - UN METODO ALTERNATIVO DI CHANGE DETECTION MEDIANTE CONFRONTO TRA IMMAGINI DI EPOCHE DIFFERENTI 110

4.5 - CONCLUSIONI FINALI ED IPOTESI DI MIGLIORAMENTO 111

BIBLIOGRAFIA 113

RINGRAZIAMENTI 117

III

Page 5: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Introduzione Nel telerilevamento si fa uso di strumenti, o sensori, in grado di “catturare” le relazioni

spaziali e spettrali di elementi osservabili tipicamente dall’alto. Tutti noi siamo abituati a

guardare e ad esplorare il nostro pianeta, o meglio ciò che ci circonda, da un punto di vista

più o meno orizzontale vivendo sulla superficie del pianeta stesso: la limitazione dovuta alla

linea dell’orizzonte e ancor di più alla presenza di oggetti “ostacoli” quali edifici, alberi e la

stessa morfologia variabile del pianeta, fa si che la nostra vista sia ristretta a piccole aree. Ta-

le limite tende a diminuire nel momento in cui il punto di vista di un osservatore si eleva in

quota: osservando a 360° dalla cima di un grattacielo o di una montagna, la nostra visuale

aumenta si ampia notevolmente. Ma se prima il telerilevamento veniva inteso come un insie-

me di tecniche capaci di estendere e migliorare le capacità percettive dell’occhio umano, oggi

tale definizione sarebbe quasi inaccettabile: le moderne tecniche di tale disciplina, grazie an-

che all’immissione graduale nello spazio di satelliti artificiali orbitanti attorno alla Terra, avu-

tasi a partire dalla seconda metà del secolo scorso (fu l’avvento dello Sputnik nel 1957 difatti

a rendere possibile il montaggio delle prime macchine da presa su navicelle spaziali), hanno

ampliato il campo di indagine ben oltre le informazioni legate allo spettro elettromagnetico.

Oggi il telerilevamento, grazie all’esistenza di una grande quantità di strumenti, che si diffe-

renziano a seconda del loro utilizzo, ha rivoluzionato tutte quelle discipline che fanno parte

delle scienze della Terra, comprendendo tecniche di analisi della radiazione elettromagnetica

e dei campi di forze finalizzate ad acquisire ed interpretare dati geospaziali presenti sulla su-

perficie terrestre, negli oceani e nell’atmosfera [www.geotecnologie.unisi.it].

L’applicazione del satellite al telerilevamento del territorio in particolare, e il progresso

che ha portato al perfezionamento di sensori a più alte risoluzioni e di diverse tipologie, sta

trovando spazio anche per alcune applicazioni di competenza della fotogrammetria dei lonta-

ni, fino ad ora limitate all’utilizzo di riprese con sensori aerotrasportati. Così anche il campo

della cartografia, e di tutte quelle discipline atte alla rappresentazione del territorio, sta a-

prendo i propri orizzonti al telerilevamento satellitare, tecnica che sta profondamente cam-

biando i metodi di acquisizione di informazioni metriche e tematiche sull’ambiente e sul ter-

ritorio rendendo possibile l’utilizzo di tali informazioni anche per rappresentazioni cartogra-

fiche a media e grande scala.

1

Page 6: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Introduzione

Lo scopo di questo lavoro è quello di sperimentare una tecnica di estrazione semi-

automatica di oggetti (fondamentalmente strutture ad opera dell’uomo), tramite una nuova

metodologia di segmentazione ad oggetti (detta anche object-oriented o object-based), e suc-

cessiva classificazione, applicata ad un’immagine telerilevata ed ortorettificata, al fine di po-

ter ottenere un aggiornamento di una cartografia a scala nominale 1:5000.

A tal proposito, si è fatto uso di una particolare tecnica di classificazione, la logica fuzzy

(o logica sfumata), un’estensione della logica booleana che si basa sul concetto di “grado di

appartenenza”: secondo tale logica, non si ha più a che fare con proprietà assolutamente vere

(= al valore 1) o assolutamente false (= al valore 0) come nella logica classica appunto, ma si

vanno a considerare anche valori intermedi di appartenenza, che quindi vanno ad identificare

in che percentuale una proprietà possa o meno essere vera.

Il software Ecognition®, realizzato dalla DEFINIENS-IMAGING®, utilizzato per questa

sperimentazione, mette a disposizione dell’utente numerosi strumenti, oltre alla già citata lo-

gica Fuzzy, che verranno via via descritti: l’algoritmo base che si cela dietro questo software

pone le sue fondamenta sull’idea che l’informazione semantica, necessaria all’interpretazione

dell’immagine, non venga più data dal singolo pixel che compone l’immagine bensì da ogget-

ti che compongono l’immagine e dalla loro mutua connessione. Ciò è possibile grazie al fatto

che Ecognition® non classifica mediante la teoria del pixel-based, ma piuttosto, come già ac-

cennato prima, classifica oggetti basandosi anche sulla loro omogeneità.

Dopo una breve trattazione sui principi base del telerilevamento e della fotogrammetria,

ed una esplicativa sezione riguardante la logica fuzzy ed il funzionamento del software, si

presenterà un’applicazione effettuata con l’ausilio di tale software che consentirà di verificare

i risultati, i pro e i contro delle procedure utilizzate e di fare un quadro delle situazioni ottima-

li che possano in qualche modo rendere più efficiente tale tecnica.

2

Page 7: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 1 TELERILEVAMENTO: PRINCIPI BASE

1.1 - CENNI STORICI

Il termine telerilevamento deriva dall’unione della parola greca têle, ovvero “da lontano”,

e dal termine rilevamento, che di norma indica un processo di acquisizione di informazioni

[Dermanis et al., 2002]. Da un punto di vista puramente etimologico, tale definizione, che

appare abbastanza generica, porta ad una naturale associazione del telerilevamento ad una

qualsivoglia metodologia di indagine scientifica; nella sua accezione più usuale però, il ter-

mine viene usato per indicare tutti i metodi che riguardano l’osservazione della Terra, metodi

che si rendono attuabili grazie alla radiazione elettromagnetica, principio fisico basilare gra-

zie al quale viaggiano le informazioni dall’oggetto di indagine al sensore.

Figura 1.1.1 - Immagine d’epoca di una mongolfiera equipaggiata con una camera fotografica

Si può dire che il telerilevamento ha inizio nel 1840, quando le mongolfiere acquisirono le

prime immagini del territorio con la camera fotografica appena inventata, primo sensore nella

3

Page 8: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 1 Telerilevamento: principi base

storia ad avere la capacità di “raccogliere” su di un supporto sensibile le informazioni sulle

caratteristiche del terreno per mezzo della radiazione elettromagnetica (nella parte visibile

dello spettro elettromagnetico). Probabilmente alla fine dell’ultimo secolo la piattaforma più

nuova era la rinomata flotta di piccioni che operava come novità in Europa (vedi Figura

1.1.2).

Figura 1.1.2 - Piccioni adoperati per riprese aeree con camere fotografiche

La fotografia aerea diventò uno strumento riconosciuto durante la Prima Guerra Mondiale

e lo fu a pieno durante la Seconda: allo scopo di facilitare la produzione di carte tematiche,

furono introdotte, negli anni a seguire, le pellicole sensibili all’infrarosso (la Kodak commer-

cializzò questo tipo di pellicola a partire dal 1953) oppure si applicavano filtri davanti

all’obiettivo della camera da presa per poter osservare le singole bande dello spettro visibile.

L’entrata ufficiale dei sensori nello spazio cominciò con l’inclusione di una macchina fo-

tografica automatica a bordo dei missili tedeschi V-2 lanciati dalle White Sands (New Mexi-

co). Il 4 Ottobre 1957 e il 12 Aprile 1961 due eventi nella storia della conquista dello spazio

hanno indirettamente rivoluzionato anche il telerilevamento: il lancio dello SPUTNIK, il pri-

mo satellite nello spazio, e di Jurij Gagarin, il primo uomo nello spazio; gli esiti positivi di

queste due missioni resero successivamente possibile il montaggio di macchine da ripresa su

navicelle in orbita, ma furono proprio i primi cosmonauti ed astronauti a documentare con ri-

4

Page 9: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 1 Telerilevamento: principi base

prese dallo spazio la circumnavigazione del globo. I sensori che acquisivano immagini in

bianco e nero sulla Terra furono montati su satelliti meteorologici a partire dal 1960. Altri

sensori sugli stessi satelliti potevano poi eseguire sondaggi o misure atmosferiche su una ca-

tena di rilievi.

Ma fu il lancio del primo dei sette satelliti LANDSAT (LAND SATellite) di proprietà della

statunitense NASA (National Aeronautic and Space Administration) che segnò la nascita del tele-

rilevamento moderno così come oggi lo intendiamo: lanciato il 23 Luglio 1972, fu il primo

satellite espressamente dedicato al monitoraggio di terre e oceani allo scopo di mappare risor-

se culturali e naturali. Dal 1986 anche la Francia, con la famiglia di satelliti SPOT (Satellite

Probatoire d’Observation de la Terre), entra appieno nel telerilevamento satellitare, ed oggi,

come una fitta ragnatela invisibile, circa un centinaio di satelliti orbitano intorno alla Terra,

parte dei quali espressamente dedicati al rilievo ed allo studio del nostro pianeta, ovvero al

telerilevamento.

Per “osservazione della Terra”, in questo contesto andremo ad indicare l’osservazione e

l’interpretazione delle diverse coperture della superficie terrestre; tale osservazione contiene

intrinsecamente due tipi di informazione: una di tipo qualitativa, che riguarda la tipologia di

copertura, ed una di tipo geometrica, che riguarda la posizione, la forma e i contorni delle di-

verse entità della copertura. L’analisi di quest’ultima informazione è propria della disciplina

della Fotogrammetria.

1.2 - PRINCIPI FISICI

1.2.1 - GRANDEZZE RADIOMETRICHE

In telerilevamento le informazioni riguardanti oggetti distanti vengono ricostruite median-

te la misura della radiazione elettromagnetica, riflessa o emessa dagli oggetti stessi, per mez-

zo di appropriati sensori, i quali registrano l’energia incidente convertendola in un segnale

elettrico: i sensori possono trovarsi ad una distanza che va da pochi metri dall’oggetto osser-

vato (Proximal Sensing) fino a migliaia di chilometri (Remote Sensing), come nel caso di os-

servazioni effettuate da satelliti geostazionari (circa 36˙000 Km di quota).

Nell’esempio esplicativo di figura 1.2.1, si nota come qualcosa di fisico (la luce) viene

emesso dallo schermo (che in tal caso è una “sorgente di radiazioni”), e attraversa lo spazio

fino a quando non incontra un sensore (gli occhi) che cattura tale radiazione da una certa di-

5

Page 10: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 1 Telerilevamento: principi base

stanza e successivamente invia un segnale ad un processore (il cervello) che lo elabora e lo

interpreta.

In effetti, tutte le sensazioni che non sono indotte da contatto diretto (non solo la vista

quindi) sono frutto di un rilevamento a distanza (telerilevamento appunto).

Figura 1.2.1 - L’occhio umano che osserva uno schermo di un computer o di una televisione è un esempio molto comune di telerilevamento [www.planetek.it].

INSERIRE FIGURA RADIAZIONE EM

Figura 1.2.2 - Propagazione della radiazione elettromagnetica

6

Page 11: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 1 Telerilevamento: principi base

La radiazione EM è un fenomeno ondulatorio dovuto alla contemporanea propagazione di

un campo elettrico e di un campo magnetico, oscillanti in piani mutuamente ortogonali, che si

propagano attraverso lo spazio con velocità pari alla velocità della luce c

( 8 m = 299,73 10 sc ⋅ ) (vedi Figura 1.2.2).

Definire un’onda significa definire i parametri caratteristici della stessa, che sono:

• ν = frequenza [Hz]: numero di oscillazioni dell’onda effettuate in un secondo;

• λ = Lunghezza d’onda [m]: distanza percorsa dall’onda durante un tempo di oscilla-

zione, che corrisponde alla distanza tra due massimi o due minimi dell’onda;

• T = Periodo [s]: tempo necessario affinché un ciclo completo di oscillazione venga

completato.

La lunghezza d’onda è legata alla frequenza dalla relazione:

λc λνT

= =

In ultimo vengono proposte, in breve, quelle che vengono chiamate grandezze radiome-

triche, cioè grandezze base che servono a ben definire la radiazione elettromagnetica (EM):

• Q = Energia radiante (radiant energy) [Joule]: è l’energia trasportata da un qualun-

que campo di radiazione elettromagnetica;

• P = Flusso radiante (radiant flux) [Watt]: è l'energia radiante nell'unità di tempo; è

considerata la grandezza radiometrica fondamentale, sulla base della quale sono defi-

nite tutte le grandezze successive;

• M = Emettenza radiante (radiant exitance) [Watt/m2]: è il flusso radiante emesso da

una sorgente estesa per unità di area;

• E = Irradianza (irradiance) [Watt/m2]: è il flusso radiante incidente su una superficie

per unità di area;

• I = Intensità radiante (radiant intensity) [Watt/sr] (1): è il flusso radiante emesso da

una sorgente puntiforme in una certa direzione per unità di angolo solido;

(1) - La sigla sr sta per “steradiante”. Tale unità di misura sta ad indicare l’“angolo solido”, cioè l’angolo tridimensionale.

L’angolo solido è definito come la porzione di spazio compresa tra tre o più piani che convergono in un punto. Se si hanno infiniti piani si crea un cono, un altro semplice esempio è fornito dal vertice della piramide. L’area della superficie della sfera compresa tra i piani è l’angolo solido. Lo steradiante in definitiva rappresenta un’area.

7

Page 12: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 1 Telerilevamento: principi base

• L = Radianza (radiance) [(Watt/m2)/sr]: è il flusso radiante emesso da una sorgente

estesa per unità di angolo solido e per unità di area proiettata su un piano normale al-

la direzione considerata.

1.2.2 - LO SPETTRO ELETTROMAGNETICO

L’insieme di tutte le possibili lunghezze d’onda costituisce lo spettro della radiazione e-

lettromagnetica o spettro elettromagnetico: come si può notare dalla figura 1.2.3 tale spettro

viene suddiviso in più regioni spettrali distinte, il cui nome deriva da ragioni fisiche o da ra-

gioni legate alla percezione umana.

Figura 1.2.3 - Spettro elettromagnetico [http://kingfish.coastal.edu]

È interessante notare come la regione dello spettro visibile (VIS), limitata tra 0,35 μm e

0,75 μm, sia una zona relativamente piccola rispetto a tutto lo spettro elettromagnetico, ed an-

che l’unica regione percepibile dall’occhio umano senza ausilio di strumenti specifici: sulla

base di tale considerazione viene naturale pensare che ciò che ci appare sia relativamente po-

co rispetto a ciò che esiste ed è invisibile al nostro occhio; i sensori in uso nel telerilevamento

permettono invece di ampliare le nostre capacità percettive, estendendole a quello che viene

8

Page 13: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 1 Telerilevamento: principi base

detto “campo dell’invisibile”. Le singole parti dello spettro visibile sono percepite dall’uomo

in termini dei diversi colori dell’arcobaleno, che variano dalle lunghezze d’onda più piccole

(violetto), alle lunghezze d’onda maggiori (rosso).

In tabella 1.2.1 sono riportate le diverse bande in cui è suddivisa la regione del visibile.

NOME BANDA Limiti banda [μm] VIOLETTO 350 - 455 BLU 455 - 492 VERDE 492 - 577 GIALLO 577 - 597 ARANCIO 597 - 622 ROSSO 622 - 750

Tabella 1.2.1 - Suddivisione dello spettro visibile

La regione di lunghezza d’onda inferiore al violetto, compresa tra 0,01 μm e 0,35 μm, è

chiamata ultravioletto (UV), quella a lunghezza d’onda superiore al rosso, compresa tra

0,75 μm e 1000 μm, è chiamata infrarosso (IR): la componente dell’infrarosso a maggior lun-

ghezza d’onda utilizzata in telerilevamento, che varia tra 7 μm e 15 μm, è dovuta

all’emissione termica di corpi “caldi” (2) ed appartiene a quello che si chiama all’infrarosso

termico. Procedendo nel senso crescente della lunghezza d’onda abbiamo quindi in sequenza:

raggi gamma, raggi X, ultravioletto, visibile (violetto, blu, verde, giallo, arancio, rosso), in-

frarosso (vicino, medio, lontano), microonde, onde radio.

1.2.3 - FIRMA SPETTRALE

Prima di definire questo nuovo concetto, di rilevante importanza nel campo del telerile-

vamento, è bene fare una premessa sulle interazioni tra una superficie S e le radiazioni elet-

tromagnetiche su di essa incidenti.

Siano quindi:

• Ei = Energia incidente sulla superficie S

• Er = Energia riflessa dalla superficie S

• Ea = Energia assorbita dalla superficie S

(2) - Per corpi “caldi” si intendono tutti quei corpi che abbiano una temperatura superiore allo zero assoluto

( ): un tale corpo emette radiazioni elettromagnetiche proprie che dipendono dalla temperatura del corpo stesso, seguendo la legge di “Stefan - Boltzmann”.

0 K 273,14 C° = − °

9

Page 14: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 1 Telerilevamento: principi base

• Et = Energia trasmessa dalla superficie S

Figura 1.2.4 - Composizione dell’energia

L’energia incidente Ei sarà quindi in parte riflessa, in parte assorbita e in parte trasmessa

secondo lo schema in figura 1.2.4 e in funzione di tre coefficienti (o parametri) che dipendo-

no strettamente dalla natura fisica delle superfici e dal loro grado di rugosità o di lucidatura:

1. Coefficiente di riflessione (riflettività): r

i

Eρ E= 0 1ρ≤ ≤

2. Coefficiente di trasmissione (trasmittività): t

i

Eτ E= 0 1τ≤ ≤

3. Coefficiente di assorbimento (assorbività): a

i

Eα E= 0 1α≤ ≤

Si tenga presente che per la conservazione dell’energia in condizioni di equilibrio, si ha

i r aE E E Et= + +

e di conseguenza

1ρ α τ+ + =

Una generica superficie può riflettere, ad esempio, molto nella luce verde e poco nella

10

Page 15: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 1 Telerilevamento: principi base

luce rossa e blu: in questo caso la superficie illuminata con luce bianca, apparirà come essen-

zialmente verde.

Dalla composizione delle varie percentuali con cui una superficie riflette le luci blu, verde,

rossa nasce il cosiddetto colore della medesima: una superficie bianca rifletterà bene sia il

rosso che il verde e blu. Per ogni superficie si può perciò costruire un grafico bidimensionale

che da informazioni sulle sue capacità di riflessione in funzione della lunghezza d’onda della

radiazione incidente: questo grafico, caratteristico di ogni superficie, viene chiamato firma

spettrale (o curva spettrale).

Figura 1.2.5 - Firma spettrale di alcuni materiali determinata medianti analisi in laboratorio

Questa importante proprietà della materia consente l’identificazione e la separazione di

diverse sostanze o classi proprio attraverso le loro firme spettrali (curve spettrali) come mo-

strato in figura 1.2.5: per esempio la sabbia rossa riflette meglio alle lunghezze d’onda del vi-

sibile rispetto alle lunghezze che occupano l’infrarosso, mentre un terreno erboso riflette mol-

to di più alle lunghezze d’onda dell’infrarosso.

È bene tener presente comunque, che una firma spettrale non può essere determinata in

termini “assoluti”, e questo è dovuto a due ragioni:

1. Una tipologia di copertura del terreno (ad esempio una classe “foresta”) non può es-

sere univocamente definita da una firma spettrale: a sua volta difatti tale classe inclu-

11

Page 16: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 1 Telerilevamento: principi base

derà sicuramente tipologie differenti di materiali (nel caso della foresta diverse tipo-

logie di alberi) che a loro volta saranno differenziati in base al loro stadio e stato (al-

beri più giovani o più vecchi, alberi incendiati, presenza di malattie, ecc.) nonché in

base alla situazione del terreno (per esempio presenza di terreno umido); questo si-

gnifica che saranno caratterizzati da firma spettrale simile ma non identica. In ogni

caso una classificazione assoluta, ovvero basata sul confronto tra le funzioni di riflet-

tività osservate e una libreria nota a priori di firme spettrali, eventualmente molto

ampia, potrebbe essere un obiettivo realizzabile solo su un pianeta senza atmosfera.

Nel caso della Terra si devono considerare gli effetti atmosferici sulla propagazione

del segnale elettromagnetico: questi, differenti e mutevoli da luogo a luogo e da epo-

ca ad epoca, mascherano le osservazioni di riflettività, e di conseguenza la funzione

di riflettività non può essere ricavata dalle osservazioni del sensore neppure per mez-

zo di ipotetiche correzioni ideali (correzioni radiometriche).

2. Si deve considerare che della funzione ρ(λ) può essere osservata solo una parte in

quanto il sensore preposto a catturare le radiazioni elettromagnetiche a quella banda

di lunghezze d’onda registrerà un dato medio della riflettività in quella banda. A tale

scopo sono stati sviluppati strumenti atti a compiere misure in porzioni molto strette e

contigue dello spettro magnetico (sensori iperspettrali di cui si parlerà in seguito).

L’aumento del numero delle bande comporta un conseguente aumento dei dati da re-

gistrare e del tempo di elaborazione, con inevitabile aumento dei costi, senza dimen-

ticare che il rapporto segnale/rumore diminuisce proporzionalmente con l’ampiezza

della banda: si deve quindi trovare un compromesso opportuno tra larghezza di ban-

da, numero di bande, costo dello strumento e risultati desiderati [Caprioli, 2005].

La classificazione assoluta quindi risulta estremamente difficile, perciò viene in genere

adottata una strategia di classificazione relativa: i pixel caratterizzati da valori osservati di

ρ(λ) simili per le diverse bande dei sensori, vengono raggruppati nella stessa classe.

1.3 - SATELLITI PER IL TELERILEVAMENTO, SENSORI E DATI

1.3.1 - MEMORIZZAZIONE E VISUALIZZAZIONE DI IMMAGINI DIGITALI

Le immagini della superficie terrestre costituiscono il dato fondamentale utilizzato in tele-

rilevamento: esse vengono registrate in formato digitale in modo da poterle memorizzare ed

12

Page 17: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 1 Telerilevamento: principi base

analizzare mediante calcolatori. Un’immagine così registrata è in effetti un insieme di numeri

che rappresentano una registrazione rettangolare: la registrazione avviene dividendo la scena

rappresentata in piccoli elementi quadrati di area uguale, chiamati pixel (contrazione di Pictu-

re Element), disposti per righe e colonne.

Figura 1.3.1 - Matrice Immagine

Il modello matematico che descrive un’immagine digitale è una matrice di R righe e C co-

lonne, contenente N R C= × elementi, esattamente quanti sono i pixel (vedi Figura 1.3.1). Il

generico elemento xij della i-esima riga e j-esima colonna contiene il valore del pixel corri-

spondente ed esprime un livello di intensità luminosa o tono di grigio per mezzo di un nume-

ro reale (chiamato Digital Number, o più semplicemente DN) appartenente ad un intervallo

predefinito: il valore più piccolo corrisponde ad assenza di luce, o colore nero, mentre il valo-

re massimo corrisponde a intensità piena o colore bianco.

Per garantire un risparmio di memoria del calcolatore, che adotta il sistema binario, ven-

gono utilizzati solo valori interi: disponendo di k bit per ciascun pixel i valori ammissibili so-

no 2k, dunque l’intervallo di definizione è compreso fra 0 e ( 2 1k − ). Per esempio nel caso di

una memorizzazione a 8 bit, la più comune, i valori interi possibili sono e vanno da

0 (nero) a 255 (bianco), memorizzati rispettivamente come 00000000 (0) e 11111111 (255).

82 256=

13

Page 18: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 1 Telerilevamento: principi base

Figura 1.3.2 - Immagine a 8 bit con un ingrandimento che ne mostra la struttura in celle quadrate (pixel) e relativi DN

14

Page 19: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 1 Telerilevamento: principi base

Per ogni immagine in formato digitale si può estrapolare un istogramma che rappresenta la

distribuzione dei valori DN per l’intera immagine: per ogni valore di intensità dell’intera

banda, sono riportate delle barrette verticali che rappresentano la frequenza, ovvero il numero

di pixel dell’intera immagine che hanno quel valore di intensità (vedi Figura 1.3.3).

L’istogramma di un’immagine sarà ripreso in seguito quando si parlerà di elaborazione di

immagini, e più precisamente di enhancement.

Figura 1.3.3 - Istogramma dell’immagine in Figura 1.3.2

Un file per la memorizzazione di un’immagine digitale contiene tutti i valori dei pixel che

compongono l’immagine, ma a seconda dell’estensione (la maggior parte di quelle usate in

quest’ambito), può avere alcune informazioni addizionali (metadati) memorizzate in una se-

zione iniziale del file detta intestazione (o header). L’intestazione riporta tutte le in-

formazioni necessarie per ricostruire l’immagine dal file, come il numero di bit utilizzati per

ciascun valore, l’ordine di memorizzazione dei valori, il numero di colonne presenti e talvolta

i parametri orbitali del satellite; essa può inoltre contenere altre informazioni utili per inter-

pretare il contenuto dell’immagine.

15

Page 20: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 1 Telerilevamento: principi base

Un’immagine digitale è sempre monocromatica; difatti anche le usuali immagini a colori

(ad esempio in colore RGB), sono ottenute mediante combinazione di tre immagini della stes-

sa scena. In ciascuna di esse è registrata l’intensità luminosa corrispondente a uno dei colori

fondamentali (rosso, verde e blu), i quali possono essere combinati per riprodurre tutti gli altri

colori.

A tale riguardo si noti che, poiché rosso, verde e blu corrispondono a differenti regioni

dello spettro elettromagnetico, in senso lato un’immagine a colori è già un’immagine multi-

spettrale (o multibanda).

Figura 1.3.4 - Struttura di un’immagine multispettrale

Con tale termine si indica un insieme di immagini riferite tutte alla stessa scena e con la

medesima ripartizione in pixel (vedi Figura 1.3.4): ciascuna di esse registra l’intensità della

radiazione solo entro una specifica regione dello spettro o banda spettrale, non necessaria-

mente appartenente a una regione del visibile. Se con B indichiamo il numero totale di bande

che il sensore può percepire, la matrice che identifica l’immagine con tutte le sue bande avrà

dimensioni N R C B= × × con N numero totale di pixel dell’immagine. Nel telerilevamento,

nella maggior parte dei casi, vengono utilizzante le bande nel visibile e nell’infrarosso.

16

Page 21: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 1 Telerilevamento: principi base

1 2

3 4

Figura 1.3.5 - Le quattro bande di una scena multispettrale IKONOS (1 = Blu; 2 = Verde; 3 = Rosso; 4 = Infrarosso) e la composizione delle prime 3 bande che danno un’immagine a colori naturali con la sequenza 3,2,1. [Der-manis et al., 2002]

RGB

Il file di un’immagine multispettrale contiene quindi valori kijx per tutte le righe i, per tutte

le colonne j e per tutte le bande k. A seconda dell’ordine di memorizzazione dei pixel si di-

stinguono tre formati:

17

Page 22: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 1 Telerilevamento: principi base

1. Band Sequential (BSQ): le bande sono memorizzate in sequenza nel loro ordine natu-

rale (lunghezza d’onda crescente) ed ogni banda è memorizzata riga per riga da sini-

stra a destra con lo stesso ordine di lettura di una pagina (vedi Figura 1.3.6a).

Figura 1.3.6a - Ordine di memorizzazione Band Sequential (BSQ)

2. Band Interleaved by Pixel (BIP): per ciascun pixel sono memorizzati in sequenza i

valori corrispondenti a tutte le bande; anche per questo formato, l’ordinamento dei

pixel segue l’ordine di lettura di una pagina (vedi Figura 1.3.6b).

Figura 1.3.6b - Ordine di memorizzazione Band Interleaved by Pixel (BIP)

18

Page 23: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 1 Telerilevamento: principi base

3. Band Interleaved by Line (BIL): è simile al formato BSQ ma la priorità di sequenza è

data alle righe, che sono memorizzate banda per banda; una volta terminata la memo-

rizzazione di una riga, segue la riga successiva (vedi Figura 1.3.6c)

Figura 1.3.6c - Ordine di memorizzazione Band Interleaved by Line (BIL)

1.3.2 - TELERILEVAMENTO SATELLITARE: IL SISTEMA DI OSSERVAZIONE DELLA TERRA

Un sistema di telerilevamento può essere scomposto schematicamente come segue:

1. Segmento Spaziale

1.1 Bus (o piattaforma)

1.2 Payload (o sensore)

2. Segmento Terrestre (stazione per ricevimento, elaborazione ed archiviazione dati).

1.3.2.1 - IL BUS

È la parte principale del satellite: tutti i satelliti necessitano di una piattaforma per soprav-

vivere e svolgere con efficienza le missioni per le quali sono stati progettati. Una piattaforma

è normalmente composta da una serie di sottosistemi che svolgono diverse funzioni e suppor-

tano il carico specifico.

I principali sottosistemi sono:

- TTC (Telecommunication, Tracking and Control Subsystem): fornisce il collegamen-

to radio tra il satellite e la stazione a terra. Questa componente è vitale per scaricare i

dati acquisiti dal satellite, trasmettere i comandi alle altre componenti del satellite e

controllare parametri come temperature, tensione, carburante, stato del carico, ecc.

- OBDH (On Board Data Handling): è l'unità di calcolo di bordo principale.

L’importanza del sottosistema dipende dai requisiti di design del sistema e dalla stra-

19

Page 24: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 1 Telerilevamento: principi base

tegia di missione e può essere semplicemente ridotta ad un sottosistema TTC con

funzioni sofisticate come navigazione autonoma ed elaborazione a bordo dei dati

- AOCS (Attitude Overall Control System): è l’insieme di dispositivi che assicurano

stabilità e puntamento al satellite. È composto da componenti per la messa in moto,

ossia ruote inerziali, e sensori, come sensori stellari (Star Tracker) e GPS. Questo

sottosistema è critico per la missione poiché il corretto puntamento determina una

corretta geometria dei dati.

- POWER ASSEMBLY: fornisce l’energia elettrica alla piattaforma e al carico (pa-

yload): in genere, è costituito da un set di pannelli solari, supportati da batterie che

forniscono energia elettrica durante il lato in ombra dell’orbita.

1.3.2.2 - IL PAYLOAD

Letteralmente tradotto payload significa “carico pagante”: in effetti, questo termine è u-

sato ogni qualvolta si vuole indicare l’utilizzo finale di un certo mezzo di trasporto. Così co-

me una nave da crociera, ad esempio, ha come carico pagante i passeggeri, così un satellite

ha i suoi sensori, costruiti con caratteristiche tali da adempiere alla missione per la quale il

satellite è stato progettato e messo in orbita.

Il sensore è uno strumento capace di trasformare le onde elettromagnetiche, riflesse o e-

messe da una superficie, in un segnale elettrico, sia che costruisca delle immagini (immagini

aeree o terrestri, scene satellitari, ecc.), sia che compia solo delle misure (fotometri, laser ae-

rei o terrestri, ecc.). Tali sensori possono quindi essere divisi in due classi a seconda del pro-

dotto finale che forniranno: sensori d’immagine e sensori misuratori.

Così come abbiamo suddiviso i sensori in base al prodotto finale, possiamo fare un’altra

suddivisione, questa volta data dalla sorgente di energia, che permette di distinguere:

• Sensori attivi: la sorgente è emessa dal sensore stesso e viene rilevata una volta che

l’energia ha colpito l’oggetto da rilevare;

• Sensori passivi: la sorgente è esterna al sensore (energia solare riflessa dal corpo o

energia emessa direttamente dal corpo).

Scegliere il sensore più adatto all’osservazione di un determinato fenomeno significa i-

dentificare i suoi requisiti operativi e funzionali in modo ottimizzato nei confronti degli og-

getti da rilevare. I parametri che stabiliscono tali requisiti per un sensore sono notevoli, ma

tra essi assumono rilievo particolare i seguenti:

20

Page 25: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 1 Telerilevamento: principi base

• Risoluzione geometrica (o spaziale): è la distanza minima entro la quale il sensore

riesce a distinguere due oggetti. Trattandosi di un sensore d’immagine, tale risoluzio-

ne è rappresentata dall’area minima vista dal sensore ad una data quota e corrisponde

alle dimensioni dell’elemento di superficie minima riconoscibile nell’immagine (os-

sia il pixel). In realtà parlare di risoluzione in termini di “area minima” non è del tutto

corretto, proprio perché tale valore può variare in funzione della quota relativa del

sensore dall’oggetto osservato e in funzione della distanza angolare di osservazione

dalla direzione della verticale del sensore: è bene allora definire la risoluzione me-

diante un parametro che sia indipendente dalla quota relativa del satellite.

b

Figura 1.3.7 - Schema del sistema di acquisizione dati da satellite. La cella di risoluzione a terra, determinata dall’IFOV, inquadra una piccola zona riportata nel riquadro a: le radiazioni emesse o riflesse vengono catturate dal sensore producendo il dato finale che è una media delle risposte provenienti da tale area e che si traduce in un pixel dell’immagine finale riportato nel riquadro b

a

21

Page 26: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 1 Telerilevamento: principi base

Definiamo allora l’IFOV (Instantaneous Field of View - Campo di Vista Istantaneo):

rappresenta l’angolo diedro di visibilità del sensore al di sotto del quale il rivelatore

del sensore (3) non riesce a distinguere due oggetti distinti e separati. Quest’angolo,

come si può notare dalla figura 1.3.7, dipende esclusivamente da come è costruito il

sensore, ragion per cui è indipendente dalla quota alla quale esso è posto. La zona di

copertura sottesa dall’IFOV viene chiamata GSD (Ground Simple Distance - area

campionata) o anche cella di risoluzione ed è pari al prodotto tra IFOV e quota relati-

va al suolo. L’utilità di definire l’IFOV piuttosto che parlare di “area minima” può

essere notata più facilmente quando si parla di sensori posti su aerei o elicotteri in cui

la quota relativa al suolo varia sensibilmente e di continuo. Un oggetto che sia più

piccolo della cella di risoluzione quindi non potrà essere identificato (vedi Figura

1.3.7). La larghezza al suolo dell’immagine, nella dimensione trasversale alla dire-

zione di volo, viene detta swath: anche per definire questa grandezza si preferisce u-

sare una dimensione angolare indipendente dalla quota di volo, che si chiama FOV

(Field of View - Campo di Vista) (4). Per quanto detto, viene naturale pensare che

diminuendo l’IFOV si aumenta la risoluzione geometrica, il che è vero, ma ci sono

comunque dei limiti a questa tendenza: un IFOV troppo piccolo comporta un’energia,

raccolta dal sensore, troppo bassa, che induce ad una diminuzione del rapporto segna-

le/rumore.

• Risoluzione radiometrica: esprime la minima differenza di intensità che un sensore è

capace di rilevare e misurare tra due valori di energia raggiante: migliore è tale riso-

luzione, più è sensibile nel registrare piccole differenze nell’energia riflessa o emes-

sa. Un qualsivoglia oggetto radiometricamente uniforme presente su un’immagine ri-

presa con supporto tradizionale (pellicola) appare a toni continui, mentre la stessa ri-

presa, fatta con un sensore digitale, essendo composta da pixel, presenta discontinui-

tà: l’aumento di tale risoluzione riduce notevolmente (ma non elimina) tale disconti-

nuità. Per immagini digitali, tale risoluzione è definita attraverso i bit dell’immagine

stessa: maggiori sono i bit di una banda, maggiori saranno i valori di intensità lumi-

nosa che un pixel può assumere.

(3) - Si tenga presente che il sensore è tutto l’apparato che permette la raccolta e la registrazione dell’energia elettromagnetica

incidente, ma ciò che realmente “registra” l’energia incidente, cioè l’elemento sensibile, è il rivelatore. Un sensore può a-vere uno o più rivelatori al suo interno a seconda della tecnica di ripresa che lo caratterizza.

(4) - In alcuni testi e/o pubblicazione è d’uso trovare sia FOV sia AFOV (Angular Field Of View).

22

Page 27: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 1 Telerilevamento: principi base

• Risoluzione spettrale: è data dalla larghezza della banda (intervallo di lunghezza

d’onda) dei canali impiegati. Un’alta risoluzione spettrale significa, quindi, una con-

figurazione strumentale a bande molto strette. Avere bande troppo strette però com-

porta anche una quantità di energia raccolta inferiore, cioè un rapporto segna-

le/rumore generalmente basso, ragion per cui si riduce la risoluzione radiometrica. Al

contrario, i sensori che operano con larga banda hanno una buona risoluzione radio-

metrica e, per quanto detto in precedenza, anche una buona risoluzione geometrica. È

questa, infatti, la ragione per cui si predilige una ripresa con un sensore pancromatico

piuttosto che con uno multispettrale quando si richiedono elevate qualità metriche di

un’immagine, ad esempio per usi attinenti la fotogrammetria.

• Risoluzione temporale: questa caratteristica riguarda i sensori montati su piattaforme

satellitari, e sta ad indicare il tempo intercorso tra due riprese successive della stessa

area. Questo parametro essenzialmente è dovuto ai parametri orbitali del satellite.

1.3.2.3 - SEGMENTO TERRESTRE

I dati ottenuti durante una missione spaziale devono essere trasmessi alla Terra dal mo-

mento che il satellite continua a stare in orbita e ad acquisire dati.

Figura 1.3.8 - Possibili sistemi di trasmissione dati satellite-Terra

23

Page 28: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 1 Telerilevamento: principi base

Figura 1.3.9 - Struttura del Segmento Terrestre

Ci sono fondamentalmente tre maniere per trasmettere i dati acquisiti dal satellite a terra

(vedi Figura 1.3.8):

A. I dati possono essere trasmessi direttamente alla Terra se esiste una stazione ricevente

(GRS - Ground Receiving Station) all’interno del footprint visivo del satellite.

24

Page 29: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 1 Telerilevamento: principi base

B. Se A non è verificato, i dati possono essere registrati a bordo del satellite e trasmessi

alla GRS in un momento successivo.

C. I dati possono essere trasmessi alla GRS attraverso i Tracking and Data Relay Satelli-

te System (TDRSS) che consistono in una serie di satelliti per le telecomunicazioni in

orbita geosincrona. I dati sono trasmessi da un satellite ad un altro fino a che non rag-

giungono la giusta GRS.

I dati sono inviati alla stazione ricevente (GRS) in formato digitale grezzo, non elaborato.

Su richiesta, possono essere poi processati per correggere tutte le distorsioni sistematiche, ge-

ometriche ed atmosferiche e convertiti in un formato standard.

Tipicamente i dati sono archiviati nelle stazioni di ricezione e processamento: gli archivi

completi di dati sono gestiti dalle agenzie governative, ma anche dalle compagnie commer-

ciali responsabili degli archivi dei diversi sensori.

Immagini “quick-look” a bassa risoluzione sono usate per visionare le immagini archiviate

prima che vengano acquistate. La qualità spaziale e radiometrica di questi tipi di dati è degra-

data, ma risultano comunque molto utili per verificare se la qualità dell'immagine e l’even-

tuale copertura nuvolosa è appropriata ai fini della applicazione.

Il segmento Terrestre provvede inoltre al monitoraggio di tutti i parametri di funzionamen-

to del satellite (controllo dell’orbita, eventuali correzioni da apportare all’assetto del satellite,

controllo guasti, ecc.).

1.3.3 - CLASSIFICAZIONE TECNOLOGICA DEI SENSORI

Il tipo di radiazione che un sensore può rilevare dà modo di discriminare due grosse classi

di sensori:

• Sensori ottici (d’immagine e misuratori), che operano nel campo del visibile (VIS) e

dell’infrarosso (IR) sfruttando, come sistema di messa a fuoco, un’ottica a rifrazione

o a riflessione che convoglia l’energia verso l’elemento sensibile. Si suddividono in

tre categorie:

- Pancromatico, costituito da un solo rivelatore che fornisce un segnale elettrico

proporzionale alla radiazione complessiva, in un intervallo dello spettro elettro-

magnetico comprendente tutto o una parte del visibile; in alcuni casi comprende

anche parte dell’infrarosso fotografico;

25

Page 30: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 1 Telerilevamento: principi base

- Multispettrale, costituito da un numero limitato di rivelatori, ognuno dei quali

fornisce un segnale elettrico proporzionale all’energia elettromagnetica relativa

ad una porzione relativamente ampia del visibile (VIS) e dell’infrarosso (IR). La

risoluzione spettrale è normalmente bassa (0,1 - 0,2 μm);

- Iperspettrale, costituito da un elevato numero di rivelatori che raccolgono la ra-

diazione in un gran numero di canali spettrali di piccolissima larghezza di banda.

La risoluzione spettrale è generalmente alta (0,01 - 0,001 μm) e permette di iden-

tificare direttamente le componenti delle coperture superficiali della Terra (vedi

paragrafo 1.2.3 sulla firma spettrale)

• Sensori a microonde, che operano a lunghezze d’onda dell’ordine del millimetro

(normalmente da 1 a 10 mm): sono prevalentemente usati per l’individuazione di so-

stanze inquinanti, per l’analisi della composizione dell’atmosfera e per lo studio delle

caratteristiche della superficie terrestre.

In questo contesto focalizzeremo l’attenzione prevalentemente sui sensori ottici

d’immagine.

1.3.3.1 - SENSORI OTTICI D’IMMAGINE

Tali sensori sono in grado di generare un insieme di dati bidimensionali (l’immagine) cor-

rispondente alla porzione di superficie terrestre osservata, suddivisa idealmente in celle ele-

mentari (pixel). Le direzioni di riferimento dell’immagine sono generalmente costituite dalla

direzione del moto del satellite e dalla direzione ortogonale ad essa. L’immagine, essendo in

formato numerico, ha il vantaggio di poter essere elaborata da un calcolatore, migliorandone

la qualità visiva ed eliminando le imperfezioni, consentendo anche confronti quantitativi e

qualitativi con immagini precedenti della stessa zona.

- SENSORI FOTOGRAFICI

Sono sensori ottico-meccanici o digitali che forniscono rispettivamente fotografie o im-

magini in cui le variazioni di energia elettromagnetica riflessa (nel visibile e nell'infraros-

so fotografico) vengono tradotte in variazioni di densità fotografica o di livelli radiometri-

ci.

26

Page 31: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 1 Telerilevamento: principi base

Figura 1.3.10 - Schema dimostrativo di una camera fotografica

I sensori fotografici ottico-meccanici, detti anche camere, sono utilizzati tanto per scopi

cartografici quanto per osservazioni di natura tematica e vengono indifferentemente posi-

zionati su piattaforme terrestri, aeree e spaziali. In questi sensori il sistema di raccolta e

messa a fuoco dell’energia è un obiettivo a rifrazione che convoglia la radiazione su

un’emulsione fotografica stesa su un supporto semirigido che è la pellicola. In tal caso la

pellicola funge sia da trasduttore che da sistema di registrazione.

I risultati forniti da questi sensori dipendono, oltre che dalle caratteristiche del soggetto,

dalla posizione del sole, dalle condizioni dell’atmosfera e dal tipo di pellicola: questa può

essere in bianco e nero (b/n), detta anche pancromatica, e a colori, detta anche ortocroma-

tica. In entrambi i casi l’immagine viene restituita con densità fotografica proporzionale

all’energia incidente. Nel caso della pellicola pancromatica la restituzione avviene attra-

verso una scala dei grigi che varia in modo continuo dal bianco al nero; nel caso della pel-

licola ortocromatica, invece, le variazioni dell’energia riflessa sono fissate con un codice

di colori a vario cromatismo e saturazione. La risoluzione geometrica di questi sistemi è

molto alta essendo limitata soltanto dalla qualità dell’ottica e dalla grana della pellicola.

Altri vantaggi di tali camere sono:

• facilità di analisi delle fotografie;

27

Page 32: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 1 Telerilevamento: principi base

• costi contenuti;

• potenze impegnate relativamente basse.

La camera di gran lunga più usata nel telerilevamento terrestre è certamente la macchina a

fotogrammi, detta anche camera metrica, utilizzata per il rilievo aereo. Ricorda una nor-

male macchina fotografica ma se ne differenzia per le distorsioni delle ottiche (molto più

ridotte per la camera metrica) e per l’aggiunta di alcune parti necessarie alla sua funzione

quali:

• speciali supporti antivibrazione e antirollio;

• sistema di orientazione nella direzione voluta, tenendo presente che un asse

dell’apparato deve mantenersi quanto più possibile parallelo alla linea di volo;

• contenitore della pellicola di maggiore dimensioni;

• meccanismo automatico di chiusura ed apertura dell’otturatore che deve essere

tarato in funzione dei parametri di volo.

Figura 1.3.11 - Schema esemplificativo di una camera metrica analogica

28

Page 33: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 1 Telerilevamento: principi base

La maggior parte di queste camere montano obiettivi con focale 150 mm (in alcune riprese

in zone urbane si fa uso anche del 300 mm per ridurre l’effetto prospettico), con un angolo

FOV che varia da 90° a 120°, fornendo fotogrammi quadrati di misura standard 23 cm.

Da un decennio circa è in atto una propensione all’utilizzo, nel telerilevamento, di camere

metriche digitali che non fanno più uso di una pellicola sensibile alla luce (o all'infraros-

so) bensì di particolari rivelatori detti CCD (Charge-Coupled Device). Realizzando una

matrice di questi elementi rivelatori, la scena ripresa dal sistema ottico del sensore può es-

sere letta elettronicamente (praticamente tutti i rivelatori vengono letti nello stesso istante)

e registrata pixel per pixel, ognuno corrispondente al singolo elemento rivelatore. I van-

taggi sono notevoli in quanto, con il dato che nasce digitale, si evitano le fasi di sviluppo e

scansione. Per quanto le tecniche analogiche e digitali in tale campo al momento coesisto-

no, la continua espansione ed evoluzione del digitale lascia ipotizzare che in un prossimo

futuro le ditte produttrici di pellicole possano cessarne la produzione, comportando quindi

un totale passaggio degli addetti al settore al digitale, rendendo così definitivamente “su-

perata” la tecnica analogica almeno per quanto riguarda il settore delle riprese.

Figura 1.3.12 - Due moderne camere fotogrammetriche digitali: a sinistra una LEICA ADS40, a destra una Z/I (ZEISS/INTERGRAPH) DMC

29

Page 34: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 1 Telerilevamento: principi base

- SENSORI A SCANSIONE

Sono sensori d’immagine di tipo ottico. La modalità di scansione può essere di due

tipi:

• whiskbroom (detti anche across-track o sensori a scansione meccanica)

• pushbroom (detti anche along-track)

Relativamente semplici dal punto di vista costruttivo ed operativo, i sensori whiskbroom

sono sistemi passivi, sensibili alla radiazione visibile e/o infrarossa e vengono utilizzati a

bordo di aerei o di satelliti per acquisire immagini di zone della superficie terrestre anche

molto ampie. Questi scanner sono normalmente a scansione lineare, riprendendo migliaia

di pixel di una striscia di terreno ortogonale alla direzione de1volo; tale risultato si ottiene

effettuando una scansione del terreno mediante uno specchietto piano oscillante o rotante

attorno ad un asse parallelo al moto del veicolo. Il moto della piattaforma genera l’altro

asse dell’immagine.

Figura 1.3.13 - Sistema di scansione multispettrale whiskbroom a specchietto rotante

30

Page 35: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 1 Telerilevamento: principi base

La radiazione intercettata viene inviata ad un sistema ottico che la focalizza su rivelatori

sensibili a prestabilite bande spettrali che trasformano l’energia elettromagnetica in un se-

gnale elettrico. L’IFOV determina l’estensione dell’area di campionamento dello scanner

nell’unità di tempo. C’è una differenza importante da sottolineare distinguendo “specchio

rotante” e specchio oscillante”: nel primo si ha un unico rivelatore sul quale si focalizza la

radianza elettromagnetica riflessa dallo specchio, mentre nel secondo si possono avere più

rivelatori per banda che acquisiscono contemporaneamente diverse linee di scansione

(come sul Multi Spectral Scanner); la seconda opzione è utile per aumentare il tempo di

permanenza su ogni singolo rivelatore e quindi avere anche risoluzioni migliori. Guardan-

do le figure 1.3.14a e 1.3.14b si può notare come la differenza di funzionamento si traduca

in due tracce differenti.

Figura 1.3.14a - Traccia di un sensore whiskbroom a specchietto oscillante

Figura 1.3.14b - Traccia di un sensore whiskbroom a specchietto rotante

I sensori pushbroom, invece, impiegano array lineari di elementi CCD. La configura-

zione per questi sistemi prevede generalmente un array lineare per ciascuna banda spettra-

le in cui opera lo strumento, disposti perpendicolarmente alla direzione del moto della

piattaforma. Un singolo elemento rivelatore corrisponde ad una cella di risoluzione al suo-

lo. Ciascun array è collocato nel piano focale delle ottiche dello strumento: in tal modo

un’intera striscia al suolo perpendicolare alla direzione della traccia viene messa a fuoco

sugli elementi rivelatori CCD in un determinato istante. Il movimento progressivo della

piattaforma, infine, consente agli array di rivelare le successive strisce della scena: una ve-

locità opportuna di campionamento elettronico garantisce così un corretto rilievo delle li-

nee contigue dell’immagine.

31

Page 36: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 1 Telerilevamento: principi base

Figura 1.3.15 - Sistema di scansione multispettrale pushbroom

1.3.4 - PRINCIPALI PIATTAFORME IN USO PER IL TELERILEVAMENTO

1.3.4.1 - MISSIONI LANDSAT

Satellite in orbita dal al sensori Landsat 1 23 luglio1972 6 gennaio 1978 MSS, RBV

Landsat 2 22 gennaio 1975 25 febbraio 1982 MSS, RBV

Landsat 3 5 marzo 1978 31 marzo 1983 MSS, RBV(×2)

Landsat 4 16 luglio1982 luglio 1995 MSS, TM

Landsat 5 1 marzo 1984 Operativo MSS, TM

Landsat 6 lanciato 5 ottobre 1993: perso in lancio ETM

15 aprile 1999 Operativo ETM+ Landsat 7

Tabella 1.3.1 - Missioni Landsat e rispettivi sensori

32

Page 37: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 1 Telerilevamento: principi base

MSS (MultiSpectral Scanner) Landsat 1, 2, 3, 4, 5 Risoluzione spettrale

Banda Lunghezza d’onda(μm) Landsat 1, 2, 3 Landsat 4, 5

4 1 0,5 - 0,6 verde 5 2 0,6 - 0,7 rosso 6 3 0,7 - 0,8 infrarosso vicino 7 4 0,8 - 1,1 infrarosso vicino 8 (Landsat 3) 10,4 - 12,6 infrarosso termico

Risoluzione geometrica Landsat 1, 2, 3 79 × 79 m Landsat 4 81,5 × 81,5 m Landsat 5 82,5 × 82,5 m Banda 8 (Lansat 3) 237 × 237 m

5 185 km Swath ( ) Risoluzione radiometrica

7 bit (Banda 8: 6 bit) Risoluzione temporale

18 giorni Landsat 1, 2, 3 16 giorni Landsat 4, 5

RBV (Return Beam Vidicon) Landsat 1, 2, 3 Risoluzione spettrale

Banda lunghezza d'onda (μm) 1 (Landsat 1, 2) 0,475 - 0,575 blu 2 (Landsat 1, 2) 0,580 - 0,680 rosso 3 (Landsat 1, 2) 0,689 - 0,830 infrarosso vicino Pan (Landsat 3) 0,505 - 0,750 pancromatico

Risoluzione geometrica Landsat 1, 2 79 × 79 m Landsat 3 40 × 40 m (Pan)

185 km Landsat 1, 2Swath

98 km Landsat 3 Risoluzione temporale

18 giorni

Tabella 1.3.2 - Caratteristiche del sensore Multispectral Scanner

Tabella 1.3.3 - Caratteristiche del sensore Return Beam Vidicon

(5) - Lo swath è riferito al singolo sensore. Quando sono presenti due sensori identici (come nel caso del Landsat 3), questi ven-

gono utilizzati, nella maggior parte dei casi, in coppia durante una scansione, per cui lo swath totale, in genere, è quasi il doppio (non è proprio il doppio perché c’è sempre una lieve sovrapposizione tra i due swath, per evitare di lasciare zone scoperte).

33

Page 38: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 1 Telerilevamento: principi base

TM (Thematic Mapper) Landsat 4, 5 Risoluzione spettrale

Banda lunghezza d'onda (μm) 1 0,45 - 0,52 blu 2 0,52 - 0,60 verde 3 0,63 - 0,69 rosso 4 0,76 - 0,90 infrarosso vicino 5 1,55 - 1,75 infrarosso medio 7 2,08 - 2,35 infrarosso medio 6 10,4 - 12,5 infrarosso termico

Risoluzione geometrica Banda 1, 2, 3, 4, 5, 7 30 × 30 m Banda 6 120 × 120 m

185 km Swath Risoluzione radiometrica

8 bit Risoluzione temporale

16 giorni

Tabella 1.3.4 - Caratteristiche del sensore Thematic Mapper

ETM+ (Enhanced Thematic Mapper) Landsat 7 Risoluzione spettrale

Banda lunghezza d’onda (μm) 1 0,45 - 0,515 blu 2 0,525 - 0,605 verde 3 0,63 - 0,690 rosso 4 0,75 - 0,90 infrarosso vicino 5 1,55 - 1,75 infrarosso medio 7 2,09 - 2,35 infrarosso medio 6 10,40 - 12,50 infrarosso termico

Pan 0,52 - 0,90 pancromatico Risoluzione geometrica

Banda 1, 2, 3, 4, 5, 7 30 × 30 mBanda 6 60 × 60 m Pan 15 × 15 m

185 km Swath Risoluzione radiometrica

8 bit Risoluzione temporale

16 giorni

Tabella 1.3.5 - Caratteristiche del sensore Enhanced Thematic Mapper

34

Page 39: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 1 Telerilevamento: principi base

1.3.4.2 - MISSIONI SPOT

Satellite in orbita dal al sensori 22 febbraio1986 31 dicembre 1990 SPOT 1 HRV (× 2) 22 gennaio 1990 Operativo SPOT 2 HRV (× 2)

26 settembre 1993 14 novembre 1997 SPOT 3 HRV (× 2) 24 marzo 1998 Operativo SPOT 4 HRVIR (× 2), VGT 4 maggio 2002 Operativo SPOT 5a HRG (× 2), VGT

previsto nel 2007 --- SPOT 5b HRG (× 3)

Tabella 1.3.6 - Missioni SPOT e rispettivi sensori

HRV (High Resolution Visible) ( ) SPOT 1, 2, 3 S

Risoluzione spettrale Banda lunghezza d’onda (μm)

1 0,50 - 0,59 verde 2 0,61 - 0,68 rosso 3 0,79 - 0,89 infrarosso vicino

Pan 0,51 - 0,73 pancromatico Risoluzione geometrica

Banda 1, 2, 3 20 × 20 m Pan 10 × 10 m

60 km Swath Risoluzione radiometrica

8 bit Risoluzione temporale

26 giorni

Tabella 1.3.7 - Caratteristiche del sensore High Resolution Visible

VGT (Vegetation) SPOT 4, 5 Risoluzione spettrale

Banda lunghezza d'onda (μm) 1 0,43 - 0,47 blu 2 0,61 - 0,68 rosso 3 0,79 - 0,89 infrarosso vicino 4 1,58 - 1,75 infrarosso medio

Risoluzione geometrica 1 × 1 km 2250 km Swath

Risoluzione radiometrica 8 bit

Risoluzione temporale 1 giorno

Tabella 1.3.8 - Caratteristiche del sensore Vegetation

(S) - Possibilità di effettuare riprese stereoscopiche

35

Page 40: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 1 Telerilevamento: principi base

HRVIR (High Risoluzione Visible Infrared) (S) SPOT 4 Risoluzione spettrale

Banda lunghezza d'onda (μm) 1 0,50 - 0,59 verde 2 0,61 - 0,68 rosso 3 0,79 - 0,89 infrarosso vicino 4 1,58 - 1,75 infrarosso medio

Pan 0,51 - 0,68 pancromatico Risoluzione geometrica

Banda 1, 2, 3 20 × 20 m (Banda 2 anche 10 × 10 m) Pan 10 × 10 m

60 km Swath

Risoluzione radiometrica 8 bit

Risoluzione temporale 26 giorni

HRG (High Resolution Geometric) ( ) SPOT 5 S

Risoluzione spettrale Banda lunghezza d'onda (μm)

1 0,50 - 0,59 verde 2 0,61 - 0,68 rosso 3 0,79 - 0,89 infrarosso vicino 4 1,58 - 1,75 infrarosso medio

Pan 0,51 - 0,73 pancromatico Risoluzione geometrica

Banda 1, 2, 3 10 × 10 m Banda 4 20 × 20 m Pan 5 × 5 m (Supermode Panchromatic: 2,5 × 2,5 m)

60 km Swath Risoluzione radiometrica

8 bit Risoluzione temporale

26 giorni

Tabella 1.3.9 - Caratteristiche del sensore High Resolution Visible Infrared

Tabella 1.3.10 - Caratteristiche del sensore High Resolution Geometric

(S) - Possibilità di effettuare riprese stereoscopiche

36

Page 41: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 1 Telerilevamento: principi base

1.3.4.3 - MISSIONI IKONOS

Satellite in orbita dal al sensori --- pianificato 1999: lancio fallito IKONOS-1

IKONOS-2 (IKONOS) 24 settembre 1999 Operativo ) IKONOS (S

Risoluzione spettrale Banda lunghezza d'onda (μm)

1 0,445 - 0,516 blu 2 0,506 - 0,595 verde 3 0,632 - 0,698 rosso 4 0,757 - 0,853 infrarosso vicino

Pan 0,526 - 0,929 pancromatico Risoluzione geometrica

Banda 1, 2, 3, 4 3,2 × 3,2 m (Nadir); 4 × 4 m (26° Off-Nadir) Pan 0,82 × 0,82 m (Nadir); 1 × 1 m (26° Off-Nadir)

11,3 km (Nadir); 13,8 km (26° Off-Nadir) Swath Risoluzione radiometrica

8 bit / 11 bit Risoluzione temporale

Risoluzione geometrica 4 × 4 m: 1,5 giorni Risoluzione geometrica 1 × 1 m: 2,9 giorni

Tabella 1.3.11 - Caratteristiche del sensore Ikonos

1.3.4.4 - MISSIONI QUICKBIRD

Satellite in orbita dal al sensori pianificato Novembre 2000: lancio fallito --- QUICKBIRD-1 18 Ottobre 2001 Operativo QUICKBIRD (S) QUICKBIRD-2

Risoluzione spettrale Banda lunghezza d'onda (μm)

1 0,450 - 0,520 blu 2 0,520 - 0,600 verde 3 0,630 - 0,690 rosso 4 0,760 - 0,900 infrarosso vicino

Pan 0,445 - 0,900 pancromatico Risoluzione geometrica

Banda 1, 2, 3, 4 2,4 × 2,4 m (Nadir) Pan 0,60 × 0,60 m (Nadir)

16,5 km (Nadir) Swath Risoluzione radiometrica

11 bit Risoluzione temporale

3-7 giorni (dipendente dalla latitudine)

Tabella 1.3.12 - Caratteristiche del sensore Quickbird

(S) - Possibilità di effettuare riprese stereoscopiche

37

Page 42: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 1 Telerilevamento: principi base

1.3.4.5 - MISSIONI EROS

Satellite in orbita dal al sensori S5 Dicembre 2000 Operativo EROS-A1 EROS-A ( )

EROS-A (S) Missione cancellata EROS-A2 EROS-B (S) 25 Aprile 2006 Operativo EROS-B1

Risoluzione spettrale Banda lunghezza d’onda (μm)

1 (EROS-B) 0,480 - 0,520 blu 2 (EROS-B) 0,540 - 0,580 verde 3 (EROS-B) 0,640 - 0,680 rosso 4 (EROS-B) 0,820 - 0,900 infrarosso vicino Pan (EROS-A, B) 0,450 - 0,900 pancromatico

Risoluzione geometrica Banda EROS-A EROS-B

1, 2, 3, 4 --- 3,5 × 3,5 m 1,8 × 1,8 m (Standard mode) Pan 0,87 × 0,87 m 1 × 1 m (Hypersampled mode)12.5 km (Standard mode) 13 km Swath 6,25 km (Hypersampled mode)Risoluzione radiometrica

11 bit 10 bit Risoluzione temporale

2 giorni ??

Tabella 1.3.13 - Caratteristiche dei sensori EROS

(S) - Possibilità di effettuare riprese stereoscopiche

38

Page 43: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 2 ELABORAZIONE ED INTERPRETAZIONE DELLE IMMAGINI

2.1 - INTRODUZIONE

Se è vero che le tecniche di acquisizione d’immagini si sono evolute negli anni, sia per

quanto riguarda le piattaforme, sia per i sensori, è altrettanto vero che si sono evolute anche le

tecniche inerenti le applicazioni successive all’acquisizione dell’immagine, questo grazie a

calcolatori sempre più moderni e veloci che si sono diffusi parallelamente alle nuove conqui-

ste spaziali.

Le immagini in formato numerico, la loro visualizzazione su uno schermo che sostituisce il

supporto cartaceo, e l’implementazione di software con algoritmi sempre più sofisticati e

computazionalmente sempre più rapidi, rendono oggi possibile l’uso di numerose applicazio-

ni utili al trattamento ed al miglioramento delle immagini. Il solo modo di avere un’immagine

quanto migliore possibile, prima che fossero rese attuabili le procedure digitali, ammesso di

avere ottiche a bassissime distorsioni e pellicole ad alta risoluzione e di alta qualità cromati-

ca, si basava su una buona selezione dei tempi di esposizione e dei diaframmi relativi al sin-

golo scatto della camera, nonché sull’ottimizzazione delle procedure di sviluppo delle pelli-

cole. Quanto si propone in questo capitolo riguarda le tecniche di filtraggio e di miglioramen-

to delle immagini, al fine di implementarne i dettagli e rendere più accurata l’interpretazione

delle coperture del suolo da parte dell’operatore e, come vedremo, anche da parte di software.

2.2 - L’IMMAGINE RASTER (IL DATO)

I sensori a scansione montati a bordo delle piattaforme, aeree o satellitari che siano, ese-

guono una scansione della superficie sottostante campionando per linee, trasversalmente al

moto del vettore: tali linee, riordinate nella loro sequenza di presa, permettono la ricostruzio-

ne dell’immagine, o meglio della scena. Sostanzialmente il funzionamento del sistema di

scansione in sé è identico passando da aereo a satellite, ma ci sono differenze per quanto ri-

guarda il tracciamento della posizione del velivolo e del satellite, oltre che nelle procedure e

nei materiali utilizzati per la costruzione del satellite che però qui non tratteremo.

Riesaminiamo per un momento i sensori ottici: un’immagine data da un fotogramma, sen-

za intervenire con alcuna correzione post-acquisizione, fornisce già informazioni qualitative

del territorio: si potrebbe per esempio, su un’immagine a colori naturali, operare una fotoin-

39

Page 44: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 2 Elaborazione ed interpretazione delle immagini

terpretazione di tipo agrario identificando anche su un singolo fotogramma, che rappresenta

una realtà inconfutabile, i tipi di coltura, ma non si possono avere informazioni metrico-

geografiche di alcun tipo (non si sa né dove si trovano quei terreni coltivati né la loro esten-

sione) se prima non si interviene tramite delle operazioni ben specifiche.

In fotogrammetria l’operazione immediatamente successiva alla ripresa è l’appoggio dei

fotogrammi, si misurano cioè le coordinate immagine di un certo numero di punti ben ricono-

scibili sull’immagine (detti punti fotografici di appoggio), punti le cui coordinate geografiche

sono note, per poi poter effettuare l’orientamento esterno (6) dei singoli fotogrammi, oppure

l’orientamento relativo ed assoluto dei fotogrammi e poter effettuare o una restituzione (otte-

nendo una carta topografica come prodotto finale) oppure un’ortorettifica (ottenendo

un’ortofoto o un’ortofotocarta) grazie alle quali è possibile prendere misure. Tutto ciò è pos-

sibile sia su sistemi ottico-meccanici che su ottico-digitali, ma è immaginabile che alcune

tecniche siano cambiate: in effetti oggi, grazie al sistema di posizionamento GPS (Global

Position System) ed al sistema di navigazione inerziale IMU (Inertial Measurement Unit) (7)

che affiancano l’equipaggiamento base per le riprese, “teoricamente” non sarebbe più neces-

sario l’uso di punti fotografici d’appoggio. In pratica però si rendono comunque necessari tali

punti, dato che il GPS potrebbe portare errori dovuti ad interferenze di segnali, o a brevi pe-

riodi di “buio” del segnale, e comunque si tratta di un utilizzo in modalità cinematica del

GPS, meno preciso della modalità statica. Tale sistema si rende molto utile laddove si ripren-

dano zone in cui è difficile, o talvolta impossibile, l’accesso da terra per motivi logistici o mi-

litari ad esempio, o laddove non ci siano punti distintamente individuabili sul fotogramma:

ecco che il GPS/IMU diventa fondamentale.

Se quindi per le immagini ottenute con sensore ottico-fotografico si può lavorare sfruttan-

do le tecniche topografiche classiche, ciò non può accadere con i sensori scanner, per i quali

si rendono strettamente necessari i sistemi GPS/IMU, se si tratta di sensori aerotrasportati,

oppure mediante il sistema di controllo a terra, se si tratta di sensori su satellite, che rende

(6) - L’orientamento esterno è un’operazione mediante la quale si individuano sei parametri fondamentali: le tre coordinate del

centro di presa, e i tre angoli di assetto della camera secondo un sistema di riferimento geodetico globale, che permettono di risalire all’esatta condizione spaziale della camera al momento della presa del fotogramma.

(7) - Il sistema GPS permette di trovare le coordinate (Xo, Yo, Zo) del centro di presa (si deve conoscere l’offset tra il centro di fase dell’antenna montata sul lato superiore della fusoliera del velivolo e il centro di presa della camera); il sistema IMU è costituito da tre accelerometri e tre giroscopi che valutano i parametri (φ, ω, κ) dell’assetto del velivolo, rispettivamente beccheggio, rollio ed imbardata, e di conseguenza permettono di trovare i parametri di orientamento della camera all’istante della presa del fotogramma.

40

Page 45: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 2 Elaborazione ed interpretazione delle immagini

possibile la conoscenza dei parametri orbitali e di assetto dello stesso, istante per istante: la

differenza di cui si accennava prima è proprio questa.

Figura 2.2.1 - Distorsioni dovute alle variazioni degli angoli di assetto delvelivolo [University of Wisconsin Madison]

Per le riprese con sensori scanner aerotrasportati, la mancanza di dati GPS potrebbe, non

senza molte difficoltà, rendere comunque utilizzabile il dato finale: sarebbero necessari un

numero molto elevato di punti a terra presi con metodologie topografiche (GPS o, in mancan-

za di segnale, con Total Station) sempre ammesso però che le immagini non siano distorte al

punto tale da non poter riconoscere sulla scena (vedi Figura 2.2.1). Tutto ciò però ha un limi-

te, prevalentemente economico, superato il quale si ritiene più utile effettuare nuovamente un

volo: ecco quindi l’importanza di tali strumentazioni di bordo quando si fa uso di sensori

scanner. Immagini ottenute con tali sensori vanno quindi sempre trattate per correggere tali

errori geometrici sviluppatisi durante l’acquisizione dei dati.

2.3 - PROCEDURE POST-ACQUISIZIONE

Il dato appena acquisito dal satellite non è certamente un dato finito, è anzi un dato “grez-

zo”: come descritto nel paragrafo 1.3.2, è il segmento terrestre, e quindi l’ente stesso che ge-

stisce la piattaforma, che si occupa dell’archiviazione e di un trattamento primario dei dati,

41

Page 46: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 2 Elaborazione ed interpretazione delle immagini

trattamento che precede sempre la cessione dell’immagine all’acquirente o all’ente che ne fa

richiesta.

Soffermandoci sulle riprese satellitari, si devono distinguere due tipologie di correzioni

che vengono inserite in quello che si chiama Image Preprocessing (8): le correzioni radiome-

triche e geometriche.

Durante tali fasi di correzione, il dato acquisito dal sensore, che rappresenta la radianza

incidente registrata in forma digitale come DN ad un certo numero di bit, viene trasformato in

una informazione relativa alla superficie indagata. In pratica, con le correzioni si passa da un

segnale registrato al sensore ad una caratteristica della superficie reale [Valentini et al., 2006].

2.3.1 - CORREZIONI RADIOMETRICHE

Tali correzioni servono a calibrare i sensori, ridurre o eliminare gli errori dovuti al loro

cattivo funzionamento e ridurre l’influenza dello strato di atmosfera interposto tra sensore e

oggetto osservato (la Terra). Essi includono [http://tlclab.unipv.it]:

a. Ripristino di linee e pixel saltati

b. Equalizzazione del sensore

c. Calibrazione del sensore

d. Correzione degli effetti di terreno

e. Correzione atmosferica

Analizziamo brevemente queste singole correzioni.

a. Ripristino di linee e pixel saltati

Può accadere che durante la scansione di una scena o la memorizzazione dei dati, per mal-

funzionamenti temporanei o errori di trasmissione dovuti ad esempio a cadute di tensione

o a perdite di segnale, possa verificarsi un’alterazione o perdita di un singolo dato o di una

sequenza di dati che si traducono in pixel con valori anomali o in righe di pixel nere o uni-

formemente grigie (dette anche Drop Line): tali dati ovviamente non hanno nulla a che fa-

(8) - Non sempre si sottolinea la differenza tra pre-elaborazione dell’immagine (Image Preprocessing) ed elaborazione

dell’immagine (Image Processing), poiché tale differenza è molto sfumata: in realtà è rilevante poiché identifica due tipo-logie di trattamento del dato, una che viene effettuata comunque dalla ditta gestore della piattaforma una volta acquisito il dato e che permette all’utente di utilizzare in maniera proficua i dati [http://tlclab.unipv.it], e l’altra che viene effettuata dalla stessa ditta (su richiesta del committente) o dal committente stesso, ma che comunque non rappresenta una procedu-ra strettamente essenziale e che dipende dal fine ultimo per il quale si è richiesta la scena satellitare.

42

Page 47: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 2 Elaborazione ed interpretazione delle immagini

re con il valore effettivo della grandezza acquisita in quella posizione (o posizioni se si

tratta di una riga).

Figura 2.3.1 - Immagine pancromatica in cui sono presenti tre Drop Line.

Per correggere tale errore si applicano tecniche fondamentalmente semplici; nel caso di un

pixel saltato si può:

- sostituire il pixel con il valore del pixel precedente o successivo della riga

, , 1 , , 1(precedente) (successivo)i j i j i j i jDN DN DN DN− += =

- sostituire il pixel con la media dei vicini della stessa riga

, 1 , 1, 2

i j i ji j

DN DNDN − ++

=

- sostituire il pixel mediante la stima basata sulla media dei vicini e sulla correlazione

tra bande qualora la ripresa fosse multispettrale;

- sostituire il pixel ricavando un valore medio tra i valori dei pixel vicini, utilizzando

finestre mobili (normalmente chiamate finestre) di dimensioni 3 × 3 o 5 × 5;

nel caso di una linea si può:

43

Page 48: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 2 Elaborazione ed interpretazione delle immagini

- sostituire l’intera linea con quella precedente o con quella successiva;

- sostituire l’intera linea con la media della precedente e della successiva;

- operare con metodi più complessi che si basano, similmente al singolo pixel, alla cor-

relazione tra bande nel caso di ripresa multispettrale.

b. Equalizzazione del sensore

Nei sistemi a scansione ottico-meccanica, ad ogni oscillazione dello specchio il singolo

rivelatore registra una linea di pixel. Per varie cause, può accadere che le funzioni di tra-

sferimento dei dati dal sensore al registratore non siano identiche per tutti i rivelatori, o

che uno dei rivelatori non sia ben calibrato rispetto agli altri. Ciò comporta un effetto di

striatura regolare nell’immagine (striping) visibile soprattutto sulle superfici omogenee

quali ad esempio la neve e l’acqua [http://tlclab.unipv.it]. In figura 2.3.2 si ha un esempio

di una scansione fatta con un sensore a 17 rivelatori, ed una riga corrispondente ad uno di

essi è più chiara di circa 4-5 DN in una banda ad 8 bit.

Figura 2.3.2 - Immagine pancromatica affetta da effetto striping [http://earth.esa.int]

44

Page 49: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 2 Elaborazione ed interpretazione delle immagini

L’effetto può essere ridotto rielaborando a posteriori i dati acquisiti in modo da conforma-

re le risposte apparenti dei diversi rivelatori. A tal proposito sono possibili più tecniche:

- Tecnica lineare: si basa sull’assunzione che mediamente tutti i rivelatori “vedono”

una distribuzione simile di coperture del suolo all’istante di acquisizione t e quindi

una distribuzione simile di DN, e che i rivelatori siano lineari;

- Tecnica basata sulla conformazione degli istogrammi: rimuove l’ipotesi di compor-

tamento lineare dei sensori;

- Altre tecniche basate ad esempio sul filtraggio spaziale.

Figura 2.3.3 - Sulla sinistra l’immagine prima che venga trattata per l’effetto striping, sulla destra la stessa immagine dopo essere stata corretta [http://tlclab.unipv.it]

c. Calibrazione del sensore

Con questa operazione si fa riferimento alle procedure che permettono di convertire i DN

rilevati in valori fisici di radianza (Lλ) secondo l’equazione

λ λ λL rumore DN guadagnoλ= + ×

In figura 2.3.4 è rappresentata la retta funzione di calibrazione: per conoscerne

l’andamento si devono quindi ricavarne i parametri (il coefficiente angolare m e il termine

noto q). Tale operazione non è semplice poiché, se pur noti dalla casa costruttrice che li ci-

45

Page 50: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 2 Elaborazione ed interpretazione delle immagini

9ta nei parametri di pre-lancio, tali valori variano col tempo ( ): il calcolo si effettua in ge-

nere con algoritmi che ne stimano l’entità, permettendo una valutazione accurata della ra-

dianza L al rilevatore.

Figura 2.3.4 - Funzione di calibrazione

La calibrazione radiometrica è particolarmente importante quando si intende confrontare

tra di loro i dati acquisiti da sensori differenti.

d. Correzione degli effetti del terreno

Sappiamo che la stima della riflettanza del bersaglio si fa sulla base della radiazione che

colpisce il sensore: tale radiazione è però influenzata dalle condizioni di illuminazione del

bersaglio e dalla sua posizione. L’allontanamento dalla situazione ideale è causato da:

• Riflessione non lambertiana;

• Superficie terrestre non piatta.

Per quanto esistano vari modi per correggere tale problema, il più accreditato rimane la

conoscenza di un modello numerico del terreno, ovvero di un DEM (Digital Elevation

Model), che migliora la correzione in funzione della sua risoluzione.

(9) - In fase di test a terra si fa il calcolo della curva di calibrazione mediante quelle che vengono chiamate sfere di calibrazione:

si definiscono quantitativamente la risposta del radiometro ad un segnale di ingresso noto mediante diverse coppie (Lλ, DNλ), utilizzando poi la regione lineare di tale curva

46

Page 51: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 2 Elaborazione ed interpretazione delle immagini

e. Correzione atmosferica

La radianza viene attribuita in prima approssimazione integralmente all’oggetto osservato:

ciò non è propriamente vero, poiché la radiazione elettromagnetica che viaggia

dall’oggetto al sensore non attraversa il vuoto ma viaggia attraverso l’atmosfera che ne va

a modificare il valore effettivo. I gas atmosferici, gli aerosol ed i vapori contribuiscono ad

assorbire, diffondere e rifrangere la radiazione solare diretta e riflessa dalla superficie ter-

restre.

Una delle approssimazioni più utilizzate per mettere in relazione radianza al sensore e ri-

flettanza al bersaglio è:

S totL H pρ T L= ⋅ ⋅ +

dove: - Ls è la radianza al sensore;

- Htot è la radianza incidente totale;

- ρ è la riflettanza del bersaglio (rapporto radianza riflessa/radianza incidente);

- T è la trasmittanza dell’atmosfera;

- Lp è la così detta “radianza del percorso”.

Tali valori sono stimati mediante modelli atmosferici o mediante una tecnica detta del

“pixel nero”, in cui sostanzialmente si suppone che i pixel cui si associa il valore minimo

di riflettanza abbiano in effetti riflettanza zero [Caprioli, 2005].

Figura 2.3.5 - Sulla sinistra l’immagine originale prima di essere trattata; sulla destra la stessa scena una volta applicata la correzione atmosferica [http://tlclab.unipv.it]

47

Page 52: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 2 Elaborazione ed interpretazione delle immagini

2.3.2 - CORREZIONI GEOMETRICHE

I dati acquisiti sono affetti anche da errori geometrici. La posizione di ogni pixel osservato

deve teoricamente essere individuata con esattezza geograficamente: ciò non accade, pro-

prio per la presenza di tali errori.

Gli errori geometrici, così come quelli radiometrici, vengono trattati dalla stazione rice-

vente per ridurne quanto più possibile gli effetti, utilizzando opportuni programmi che ef-

fettuano la compensazione di tali errori. Malgrado ciò restano degli errori residui che do-

vranno poi essere eliminati o ridotti a cura dell’utente in fase di processamento

dell’immagine.

Le cause di questo tipo di errori si possono riassumere come segue:

a. Errori strumentali;

b. Distorsione prospettica;

c. Rotazione della Terra e simultaneo spostamento della traccia a terra durante un ci-

clo di osservazione;

d. Variazioni di assetto del satellite.

a. Errori strumentali

Sono errori insiti nello strumento, prevalentemente distorsioni della parte ottica, velocità

di campionamento non uniforme e non linearità del sistema di scansione: non si può certo

pretendere che strumenti del genere siano esenti da tali errori, come tutti gli strumenti di

precisione in genere, ma si può pretendere che la ditta costruttrice dello strumento si pon-

ga delle tolleranze molto ristrette perché il prodotto sia efficiente e soprattutto sia preciso.

b. Distorsione prospettica

Geometricamente è un fenomeno dovuto al punto di vista (sensore) a distanza finita, che

comporta un effetto irreale sull’immagine specie quando si ha a che fare con strutture mol-

to elevate dal terreno o con rilievi particolarmente irregolari. Le classiche linee che con-

vergono verso il punto di fuga, e che non consentono misure dirette sulla scena, nel caso

di sensori a scansione possono essere individuate lungo la direzione ortogonale al moto

del satellite (quindi lungo lo swath), ma anche, sebbene in forma molto più contenuta,

lungo la direzione dell’orbita. Ciò vale soprattutto se operiamo con sensori ottico-

48

Page 53: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 2 Elaborazione ed interpretazione delle immagini

meccanici a specchio oscillante che possono presentare più rilevatori per singola banda

che effettuano il campionamento trasversalmente al moto del satellite.

Figura 2.3.6 - La ripercussione dell’effetto prospettiva sul piano del sensore

In figura 2.3.6 è riportato un esempio grafico: in verde un edificio che capita all’interno

dello swath del satellite, la linea rossa verticale tra a e b rappresenta la facciata

dell’edificio, ed il tratto rosso sul piano della scansione across-track, delimitato dai punti

A e B, rappresenta il tratto ab proiettato sull’immagine. L’effetto prospettico comporterà,

sulla scena finale, la presenza dell’edificio distorto nella direzione che va da B ad A. Come

si può dedurre sempre dalla figura 2.3.6, tale effetto aumenta con l’allontanarsi dal nadir

del sensore, e quindi maggiore sarà il FOV (Field Of View) più evidente sarà l’effetto della

prospettiva ai margini dell’immagine.

c. Rotazione terrestre

Durante la scansione dell’immagine telerilevata da satellite, la Terra ruota verso Est, ra-

gion per cui l’inizio della riga successiva si trova leggermente più ad Ovest rispetto a

quanto previsto per prolungamento dalla posizione della riga scandita precedente.

49

Page 54: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 2 Elaborazione ed interpretazione delle immagini

Figura 2.3.7 - In alto una scena satellitare corretta dall’effetto della rotazione terrestre: le croci rosse indicano le nuove posizioni di tre punti (il satellite in questo caso percor-re la fase discendente dell’orbita mentre effettua la ripresa; in fase ascendente l’immagine sarebbe stata distorta verso sinistra)

d. Variazioni di assetto del satellite

Il moto dei satelliti non è mai stabile e costante: il monitoraggio da terra permette di con-

trollare di quanto si sta spostando il satellite dalla sua orbita e in caso di necessità si pos-

sono eseguire delle manovre correttive che consistono nel dare degli impulsi, con i motori

della piattaforma, in determinate direzioni per modificare l’assetto e l’orbita del satellite.

Accade quindi che durante una scansione si verificano delle variazioni dell’assetto del sa-

tellite (angoli di beccheggio, rollio ed imbardata) (vedi Figura 2.2.1)

Esistono vari metodi per correggere geometricamente l’immagine, qui ne proponiamo tre

tra i più accreditati:

• Metodo basato sulla conoscenza dei parametri orbitali;

• Georeferenziazione;

• Ortorettifica.

50

Page 55: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 2 Elaborazione ed interpretazione delle immagini

2.3.2.1 - MODELLO GEOMETRICO ORBITALE

Figura 2.3.8b - Angoli di assetto Figura 2.3.8a - Principali parametri orbitali

Senza addentrarci troppo nel campo prettamente spaziale, vediamo in breve quali sono i

parametri orbitali fondamentali che permettono di descrivere l’orbita (vedi Figura 2.3.8a):

- Semiasse maggiore dell’orbita a

- Eccentricità dell’orbita e

- Inclinazione dell’orbita i sul piano dell’equatore

- Ascensione retta del nodo ascendente Ω

- Argomento del perigeo ω

- Anomalia vera τ

- Angoli di assetto del satellite (φ, ω, κ) (vedi Figura 2.3.8b).

Con la conoscenza di questi parametri è possibile ricostruire la configurazione geometrica

presente all’acquisizione del dato, per ogni istante t, utilizzandola per assegnare le coordinate

ai pixel acquisiti. Questo metodo può essere considerato valido se i parametri sono noti con

una buona precisione, ma non è sempre così: per esempio tale metodo non considera alcuni

fattori come le variazioni del puntamento della piattaforma, fattori che provocano distorsioni

geometriche.

51

Page 56: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 2 Elaborazione ed interpretazione delle immagini

Sui satelliti di nuova generazione si utilizzano equipaggiamenti con sensori di “puntamen-

to” che rendono più accurata la conoscenza della situazione geometrica del satellite. Uno di

questi sensori è lo Star Tracker Stellar Compass (STSC), strumento che ha la capacità di ri-

conoscere costellazioni mediante un’operazione di “matching” con un database di costella-

zioni presenti nel software dello strumento. Mediante un sensore CCD e delle risoluzioni an-

golari elevate (nell’ordine dei 150 micro-radianti [www.llnl.gov]) questo strumento è in grado

di aumentare la precisione nella conoscenza dei parametri orbitali del satellite.

2.3.2.2 - GEOREFERENZIAZIONE

Il secondo metodo consiste nell’operazione di georeferenziazione dell’immagine, cioè

l’associazione dell’immagine ad un sistema globale, o locale, di coordinate cartografiche.

La procedura consiste nell’individuare punti ben visibili (strade, incroci, spartitraffico,

ecc.) e ben distribuiti sull’immagine da correggere geometricamente, ed allo stesso tempo

trovare i corrispondenti punti su un immagine o su una carta di riferimento, ottenendo quindi

dei punti doppi (punti le cui coordinate sono note in entrambi i sistemi): tali punti vengono

chiamati Punti di Controllo a terra (GCP - Ground Control Point) (10). Un numero elevato di

GCP permette di impostare un sistema di equazioni sovrabbondante, e quindi di operare con i

minimi quadrati per ricavare i residui sui vari punti di controllo: la quantità di GCP varia in

funzione dell’ordine della trasformazione che si intende utilizzare e della precisione che si

vuole ottenere. Ad esempio una trasformazione conforme, le cui equazioni sono

cos sinsin cos

x

y

x' ax by c xλ ρ yλ ρ ty' bx ay d xλ ρ yλ ρ t

= + + = + +

= − + + = − + +

dove

tx = traslazione rigida dell’immagine secondo l’asse x

ty = traslazione rigida dell’immagine secondo l’asse y

ρ = rotazione rigida dell’immagine

λ = fattore di scala secondo gli assi x ed y

necessita di almeno 2 punti doppi, mentre una trasformazione affine, le cui equazioni sono

(10) - Le coordinate dei GCP possono essere ottenute anche da altre fonti, quali misure GPS, cartografie vettoriali, mappe topo-

grafiche, monografie di punti fiduciali, ecc.

52

Page 57: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 2 Elaborazione ed interpretazione delle immagini

( )( )

cos sin

sin cosx x

y y

x' ax by c xλ ρ yλ ρ γ t

y' dx ey f xλ ρ yλ ρ γ t

= + + = + + +

= + + = − + − +x

y

dove

tx = traslazione rigida dell’immagine secondo l’asse x

ty = traslazione rigida dell’immagine secondo l’asse y

ρ = rotazione rigida dell’immagine

λx = fattore di scala secondo l’asse x

λy = fattore di scala secondo l’asse y

γ = angolo di scorrimento

necessita di almeno 3 punti doppi.

La determinazione dei GCP consente la creazione di un grid, una “rete” a maglie quadrate

regolari di cui si conoscono le coordinate planimetriche o planoaltimetriche e che rappresen-

tano le coordinate che dovranno assumere i pixel dell’immagine secondo le funzioni di tra-

sformazione determinate con i GCP.

Per la georeferenziazione è d’uso fare anche dei controlli sul risultato finale: non inseren-

do nelle equazioni tutti i GCP, ma lasciandone alcuni inutilizzati, alla fine della correzione

dell’immagine si potranno verificare i residui sui punti inutilizzati, che in tal caso prendono il

nome di Punti di Verifica (CP - Check Point).

Quando si effettua una georeferenziazione mediante una carta o un’immagine preesistente,

si parla più di frequente di registrazione (o coregistrazione) “immagine su mappa” e di regi-

strazione (o coregistrazione) “immagine su immagine”.

2.3.2.3 - ORTORETTIFICA DI UN’IMMAGINE DIGITALE

Affinché si possano utilizzare le immagini a scopi metrici è necessario che la scena ritrag-

ga una zona piana o quantomeno ritenibile come tale. Le protuberanze della Terra creano

un’inevitabile variazione di quota relativa del satellite rispetto al terreno, comportando di

conseguenza una scala che differisce da zona a zona nella scena. Zone pianeggianti non sono

però in maggioranza sul nostro pianeta, e sul nostro paese ancora meno, si rende quindi ne-

cessaria un’ulteriore correzione dell’immagine: l’ortorettifica; tale procedura consiste nel tra-

sformare la proiezione centrale in una visione ortogonale, uniformando la scala dell’intera

scena [Tao, et al., 2004].

53

Page 58: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 2 Elaborazione ed interpretazione delle immagini

In fotogrammetria classica si procede per ortofotoproiezione: l’intero fotogramma viene

proiettato su di un modello digitale del terreno (vedi Figura 2.3.9) seguendo le equazioni di

collinearità che si riportano qui di seguito [A.Selvini, F.Guzzetti, 2000]:

( )

( )

11 12 130 0

31 32 33

21 22 230 0

31 32 33

r x r y r cX X Z Zr x r y r cr x r y r cY Y Z Zr x r y r c

+ −− = −

+ −+ −

− = −+ −

in cui:

X,Y,Z = coordinate spaziali dell’oggetto

X0,Y0,Z0 = coordinate spaziali del centro di proiezione.

x, y = coordinate immagine dell’oggetto riferite al punto fiduciale sul fotogramma

c = distanza principale

ri,j = elementi della matrice di rotazione che legano gli assi del sistema di coordi-

nate immagine con gli assi del sistema di coordinate oggetto.

Figura 2.3.9 - Schema del processo di ortorettifica

Come si può notare in tali equazioni è presente la coordinata Z dell’oggetto, il che spiega

perché l’utilizzo di un modello digitale del terreno, per l’esattezza un DEM (Digital Elevation

Model). Il DEM è uno dei possibili modelli digitali del terreno con cui si ha a che fare

54

Page 59: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 2 Elaborazione ed interpretazione delle immagini

nell’ambito della fotogrammetria e più in generale della rappresentazione del territorio: esi-

stono quindi anche altre superfici che si differenziano dal DEM, seppur di poco, e che vengo-

no scelte in base all’utilizzo che si richiede, ma tutte sono accomunate dal poter fornire in-

formazioni spaziali di superfici relativamente ad un sistema di riferimento arbitrario.

Alcuni esempi di modelli digitali del terreno sono:

- DEM - Digital Elevation Model: il modello si riferisce all’elevazione di punti rispetto

ad un determinato datum; viene in genere prodotto in formato raster associando a

ciascun pixel l’attributo relativo alla quota assoluta;

- DTM - Digital Terrain Model: è l’insieme di punti appartenenti al terreno nudo, (tra-

lascia quindi alberi, edifici, costruzioni, ecc.);

- DSM - Digital Surface Model: è una superficie che include tutto ciò che è non è pre-

sente nel DTM, quindi è la rappresentazione più prossima alla realtà geografica.

Le modalità di generazione di un modello digitale sono varie:

- Rilievo Laser: si sfruttano le coordinate dei punti ottenuti con il rilevo una volta che

la nuvola di punti è stata georifierita;

- Rilievo Topografico: generalmente si effettuano misure GPS in modalità cinematica

con punti registrati ad una frequenza di pochi secondi, in modo da poter ottenere un

discreto numero di punti;

- Rilievo Fotogrammetrico: si può eseguire con tecniche manuali mediante restitutori,

o automatiche mediante autocorrelazioni di immagini;

- Vettorializzando cartografie raster: si vettorializzano carte topografiche in formato

raster georifierite. Si vettorializzano principalmente punti quotati o curve di livello;

- Da cartografie vettoriali 3D: si utilizzano le coordinate planoaltimetriche delle entità

geometriche presenti nella cartografia.

Non si pensi soltanto ad un utilizzo dei modelli del terreno per correzioni geometriche di

immagini, ma anche per analisi spaziali per calcoli di vario genere (visibilità, volumetrie,

pendenze, ecc.)

La procedura di ortorettifica citata non è però applicabile quando parliamo di sensori

scanner: non siamo più in presenza di fotogrammi e quindi il concetto di coordinate immagi-

ne riferite al singolo fotogramma svanisce. Per effettuare un’ortorettifica con scene satellitari

si devono considerare i parametri orbitali di cui abbiamo parlato nei paragrafi precedenti, ma

le equazioni che mettono in relazione coordinate oggetto con coordinate immagine sulla sce-

55

Page 60: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 2 Elaborazione ed interpretazione delle immagini

na satellitare sono più complesse delle equazioni di collinearità utilizzate con immagini “fra-

me”. Anche in tali equazioni però è necessario introdurre le quote dei punti oggetto ben indi-

viduati sull’immagine (GCP) che andremo ad utilizzare per l’ortorettifica, e di un grid per il

ricampionamento le cui coordinate sono note sia planimetricamente che in quota (si sfrutta il

DEM per ricavare le quote).

Perché l’immagine ortorettificata sia accurata, si devono tener in debito conto due requisi-

ti: la buona distribuzione dei GCP e l’accuratezza del DEM; qualora uno di questi due requi-

siti venisse meno si otterrebbe un’immagine ortorettificata affetta da errori non di poco conto.

2.4 - IL RICAMPIONAMENTO

La correzione geometrica appena descritta comporta inevitabilmente una distorsione ra-

diometrica dell’immagine: il guadagno geometrico è quindi a discapito della radiometria

dell’immagine. Per ogni punto sul grid di output (ogni punto rappresenterà il nuovo pixel) si

va allora a cercare l’intensità del pixel nell’immagine di input, determinandola mediante la

tecnica del ricampionamento (o resampling): i più comuni algoritmi di ricampionamento so-

no tre:

- Nearest Neighbor (prossimo più vicino)

È il metodo più semplice di ricampionamento, un’approssimazione al primo ordine, ma

anche quello meno accurato: il valore DN assegnato al singolo pixel della nuova matrice

di output è pari a quello del pixel della matrice di input che è posto alla minima distanza.

Vantaggi: valori DN inalterati, algoritmo semplice da implementare, tempi di calcolo

contenuti;

Svantaggi: effetti di discontinuità, shift fino a ½ pixel.

Figura 2.4.1 - Ricampionamento Nearest Neighbor: A = Ma-trice dei pixel in ingresso, B = Matrice dei pixel in uscita

56

Page 61: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 2 Elaborazione ed interpretazione delle immagini

- Bilinear

Il valore DN assegnato al nuovo pixel viene calcolato mediante interpolazione che coin-

volge i 4 pixel più vicini;

Vantaggi: accuratezza geometrica migliorata rispetto al Nearest Neighbor, immagine

dai contrasti più attenuati (smooth);

Svantaggi: valori DN alterati, tempo di calcolo stimato pari a 10 volte quello impie-

gato dal Nearest Neighbor.

Figura 2.4.2 - Ricampionamento Bilinear: A = Matrice dei pixel in ingresso, B = Matrice dei pixel in uscita

- Cubic convolution

Questo tipo di interpolazione calcola il valore DN del nuovo pixel sfruttando ben 16 pixel

più prossimi. Tale approssimazione risulta certamente la più performante in termini di ac-

curatezza rispetto alle due precedenti.

Vantaggi: accuratezza geometrica migliorata rispetto al Nearest Neighbor e al Bili-

near, più semplice riconoscere le piccole variazioni dei dettagli

sull’immagine;

Svantaggi: valori DN alterati, algoritmo complesso da implementare, tempo di calco-

lo stimato pari a 20 volte quello impiegato dal Nearest Neighbor.

57

Page 62: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 2 Elaborazione ed interpretazione delle immagini

Figura 2.4.2 - Ricampionamento Cubic Convolution: A = Ma-trice dei pixel in ingresso, B = Matrice dei pixel in uscita

2.5 - ELABORAZIONE ED INTERPRETAZIONE DELLE IMMAGINI

Terminate le operazioni di competenza del centro di elaborazione del segmento terrestre,

sono terminati i trattamenti a cui il dato iniziale grezzo (raw data) è sottoposto: sono quindi

concluse le procedure che fanno parte dell’Image Preprocessing (vedi nota (8)). Ma perché i

dati telerilevati siano utili, dobbiamo essere in grado di estrarre informazioni significative

dalle immagini. L’interpretazione e l’analisi delle immagini telerilevate implicano

l’identificazione e quindi l’estrazione di utili informazioni sui diversi elementi presenti sulle

stesse [www.planetek.it].

Molte delle interpretazioni e identificazioni di elementi presenti nelle immagini sono ef-

fettuate manualmente o visivamente da un interprete umano, e in certi casi ciò viene messo in

atto usando immagini visualizzate in un formato fotografico, specie se si analizzano immagi-

ni provenienti da riprese aeree in formato analogico.

Le immagini telerilevate possono essere visualizzate su uno schermo di un elaboratore

come una griglia di pixel, con ciascun pixel corrispondente ad un numero digitale che rappre-

senta il livello di luminosità del pixel dell’immagine. In questo caso i dati sono in formato di-

gitale.

È a questo punto che l’utente interviene sulle immagini con metodi di Image Processing

per cercare di migliorarne la qualità e consentire quindi una migliore interpretazione, manuale

o automatica che sia, ed in questo contesto analizzeremo proprio un automatismo per

58

Page 63: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 2 Elaborazione ed interpretazione delle immagini

l’interpretazione dei dati. L’attuazione di tali procedure è possibile grazie al digitale che, co-

me vedremo in seguito, mostra numerosi altri vantaggi.

Quando si parla di migliorare visivamente un’immagine si introduce il concetto di enfatiz-

zazione (o enhancement) dell’immagine, cioè un insieme di tecniche volte al miglioramento

dell’aspetto delle immagini al solo scopo di facilitarne l’interpretazione visiva, aumentando le

differenze di tono tra vari oggetti di una scena, esaltando i contorni degli oggetti o combinan-

do diverse bande tra loro [Dermanis et al., 2002].

Queste tecniche possono essere divise in due gruppi: quelle che non modificano i valori

dei pixel nell’immagine originale e quelle che invece agiscono sui DN, modificandone i valo-

ri e inficiandone quindi il significato radiometrico.

2.5.1 - POSSIBILI VISUALIZZAZIONI DELL’IMMAGINE SU SCHERMO

Tra le tecniche di enfatizzazione delle immagini si introducono anche le possibili differen-

ti visualizzazioni di un’immagine su schermo, tanto più numerose quanto più bande si hanno

a disposizione per quella scena. Su di uno schermo è possibile visualizzare immagini in due

modalità: o in toni di grigio o come immagini a colori combinando differenti bande usando i

tre colori primari (RGB) dello schermo, rappresentando i dati di ciascuna banda come uno dei

tre colori; in funzione della luminosità (DN) di ciascun pixel di ogni banda, i colori primari si

combinano in proporzioni diverse per formare nuovi colori (si parla in tal caso di sintesi addi-

tiva, cioè della possibilità di sovrapporre i tre colori primari). Se tale metodo si usa per visua-

lizzare una singola banda, quest’ultima viene visualizzata attraverso tutti e tre colori primari,

ma i livelli di luminosità dei tre colori variano parallelamente, ottenendo così un’immagine in

toni di grigio.

Quando si assegnano ai tre colori RGB dello schermo rispettivamente le bande rosso, ver-

de e blu di un’immagine multispettrale, si ottiene quella che si chiama rappresentazione in

colori reali o naturali. Si parla di colori reali proprio perché questa è l’unica composizione di

bande che permette di ottenere la stessa visualizzazione che si avrebbe osservando diretta-

mente l’oggetto: siamo infatti nel campo del visibile, quindi percepibile dall’occhio umano.

Se invece si assegnano ai tre colori primari altre composizioni di bande, o anche le stesse

bande di prima ma in ordine differente, si ottengono tante possibili visualizzazioni che ven-

gono dette rappresentazioni in falso colore: le applicazioni di questa modalità di visualizza-

zione sono molteplici specialmente in campo ambientale, laddove si vuole indagare il territo-

59

Page 64: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 2 Elaborazione ed interpretazione delle immagini

rio alla ricerca per esempio di sostanze o di scarichi sottomarini abusivi, altrimenti impossibi-

li da vedersi. Una delle più frequenti composizioni di bande è quella con le seguenti associa-

zioni di colore:

Rosso: Near Infrared (NIR) Verde: Rosso Blu: Verde

Tutte le tecniche di visualizzazione descritte rientrano nel primo gruppo delle tecniche di

enfatizzazione, poiché non modificano i valori DN delle immagini.

321 134

341 413

Figura 2.5.1 - Alcuni esempi di assegnazioni delle quattro bande IKONOS (1 = Blu; 2 = Verde; 3 = Rosso; 4 = Infrarosso) ai colori principali RGB di uno schermo: la prima a sinistra è una rappresen-tazioni in colori naturali, le rimanenti sono rappresentazioni in falso colore. [Dermanis et al., 2002]

60

Page 65: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 2 Elaborazione ed interpretazione delle immagini

2.5.2 - MIGLIORAMENTO DEI CONTRASTI MEDIANTE ELABORAZIONI SULLE BANDE

2.5.2.1 - IL CONCETTO DI CONTRASTO

Nel primo capitolo abbiamo visto come ogni immagine, o meglio ogni banda di

un’immagine, ha un suo istogramma che rappresenta la distribuzione dei pixel nell’intera

banda dei valori DN (vedi Figura 1.3.3). Si vedrà ora come migliorare l’immagine interve-

nendo proprio sugli istogrammi delle sue bande.

Il concetto di contrasto (o contrast) di un’immagine è associato numericamente alla varia-

bilità dei toni di grigio presenti nell’immagine stessa ed è collegato percettivamente alla leg-

gibilità dell’immagine ed alla sua nitidezza [Dermanis et al., 2002].

Un’immagine caratterizzata da un intervallo limitato di toni di grigio ha scarso contrasto:

gli oggetti rappresentati non sono ben separati e l’immagine risulta come oscurata e scarsa-

mente comprensibile. Un'immagine è ad altissimo contrasto quando solo due toni di grigio, il

primo prossimo al bianco e il secondo prossimo al nero, dominano la scena: essa risulta molto

nitida ma solo le entità dominanti sono ben distinguibili, mentre si perdono i dettagli inter-

medi. L’immagine più equilibrata è quella caratterizzata da contrasto medio o regolare, ove

tutti i toni di grigio sono presenti e tutti i dettagli della scena sono rappresentati con sufficien-

te chiarezza.

Ricordando che i toni di grigio di una rappresentazione grafica sono in relazione lineare

con i valori numerici memorizzati nel corrispondente file, dove il nero è associato al valore 0

e il bianco al valore massimo della banda, possiamo affermare che una situazione di buon

contrasto è dunque quella in cui tutti i possibili valori DN sono presenti in modo numerica-

mente uniforme.

2.5.2.2 - CONTRAST STRETCHING

In molte scene può succedere che i valori dei pixel occupino solo una piccola porzione

dell’intervallo dei valori possibili. Se queste venissero visualizzate nella forma originale, si

otterrebbero delle immagini molto poco contrastate, dove oggetti simili radiometricamente

risulterebbero non distinguibili: l’immagine sarebbe quindi di difficile interpretazione. Con-

siderando un’immagine con risoluzione a 8 bit (quindi con 256 valori di intensità possibili dei

pixel) succede che i primi e gli ultimi 60 ÷ 80 valori DN non vengono sfruttati: ci si rende

benissimo conto che è un’importante risorsa sprecata.

61

Page 66: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 2 Elaborazione ed interpretazione delle immagini

62

Figura 2.5.2 - Applicazione del contrast stretching ad un immagine e relativi istogrammi. In alto l’immagine originale, al centro l’immagine modificata applicando un contrast stretching lineare, in basso l’immagine modificata applicando un contrast stretching non lineare [http://tlclab.unipv.it]

Page 67: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 2 Elaborazione ed interpretazione delle immagini

La tecnica del contrast stretching utilizzata per il miglioramento del contrasto consiste

nell’applicazione di un algoritmo di trasformazione che permette di espandere l’intervallo dei

livelli di grigio registrati nell’immagine originale fino a coprire tutto l’intervallo dei valori

possibili. In questo modo sfruttiamo al meglio la banda di valori DN possibili, ottenendo un

netto miglioramento dell’immagine che ne accentua i contrasti e i particolari.

Gli algoritmi possibili sono tanti, ma sostanzialmente si dividono in trasformazioni lineari

e trasformazioni non lineari.

In figura 2.5.2 sono riportate due applicazioni di contrast stretching, la prima lineare e la

seconda non lineare.

Si tenga sempre presente che le modifiche dell’immagine a seguito di modifica

dell’istogramma differiscono dalle modifiche effettuate tramite il ricampionamento: nella

modifica degli istogrammi, per ciascun pixel il nuovo valore viene calcolato statisticamente

(e non tramite analisi spaziale) sfruttando tutti i restanti pixel dell’immagine originale.

2.5.2.3 - I FILTRI MEDIANTE FINESTRE MOBILI

Esaminiamo ora i metodi di trasformazione di immagini nei quali il valore di ciascun nuo-

vo pixel viene calcolato in funzione del valore del corrispondente pixel e della sua posizione

nell’immagine originale. Sia dunque fij il valore originale del pixel localizzato nella riga i e

nella colonna j; sia gij il nuovo valore per il medesimo pixel. Le trasformazioni più semplici

sono quelle di tipo lineare, ovvero

, ; ,ij i k j m kmk m

g h f= ∑∑

dove i coefficienti hi,k;j,m sono noti e caratteristici appunto della trasformazione. La trasforma-

zione può essere semplificata limitando l’influenza dei valori originali fkm solo ai pixel (k, m)

che si trovano vicino al punto di calcolo (i, j). Si ottiene dunque una trasformazione localizza-

ta: ciascun pixel della nuova immagine rappresenta il comportamento locale dei pixel

dell’immagine originale.

Figura 2.5.3 - Principali formati delle finestre mobili

63

Page 68: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 2 Elaborazione ed interpretazione delle immagini

Il metodo più semplice per effettuare la trasformazione è quello di utilizzare i pixel (k, m)

posti nelle p righe e p colonne precedenti e seguenti il pixel (i, j) (vedi Figura 2.5.3): vengono

quindi considerati solo i valori compresi in una finestra di (2p + 1) × (2p + 1) elementi e la

trasformazione prende la forma

, ; ,

i p j p

ij i k j m kmk i p m j p

g h f+ +

= − = −

= ∑ ∑

Quando il calcolo deve essere effettuato per il pixel (i', j') = (i + r, j + c) la finestra viene

corrispondentemente traslata nella nuova posizione: si tratta cioè di una finestra mobile (mo-

ving window) [Dermanis et al., 2002].

Figura 2.5.4 - Schema della finestra mobile

Di seguito sono elencati due frequenti filtri mediante finestre mobili, con la forma numeri-

ca della matrice e degli esempi grafici.

64

Page 69: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 2 Elaborazione ed interpretazione delle immagini

- Passa-alto

I filtri passa-alto vengono utilizzati per l’identificazione delle discontinuità mettendo in

evidenza le zone dove si verificano bruschi cambiamenti di intensità, poiché assegnano valori

elevati in modulo ai pixel in cui si presentano tali fenomeni, mentre vengono attribuiti valori

piccoli ai pixel appartenenti ad aree lisce. L’immagine prodotta, in genere, non ricorda

nell’aspetto quella originale; serve però per l’identificazione delle entità caratteristiche pre-

senti in essa: tale aspetto è di grande rilevanza per esempio nella fotogrammetria digitale

[Dermanis et al., 2002].

- Passa-basso

Hanno come effetto la riduzione del contrasto, attenuando le variazioni di valore tra pixel

contigui [Dell’Acqua, 2005]. Il più comune filtro passa-basso è quello della media viaggiante

−1 −1 −1

−1 8 −1

−1 −1 −1

Figura 2.5.5a - Filtro passa-alto 3 × 3

Figura 2.5.5b - Applicazione del filtro passa-alto [Dermanis et al., 2002]

1/9 1/9 1/9

1/9 1/9 1/9

1/9 1/9 1/9

Figura 2.5.6a - Filtro passa-basso 3 × 3

65

Page 70: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 2 Elaborazione ed interpretazione delle immagini

Figura 2.5.6b - Applicazione del filtro passa-basso [Dermanis et al., 2002]

2.5.2.4 - OPERAZIONI ALGEBRICHE TRA BANDE

Vengono effettuate tra bande della stessa immagine o di immagini riprese in date diverse

ma riguardanti la stessa area: servono ad enfatizzare o ridurre alcuni effetti propri

dell’immagine e delle caratteristiche spettrali degli oggetti in essa contenuti. Applicare opera-

zioni aritmetiche ad una immagine è equivalente all’applicazione di tali operazioni ai valori

dei suoi pixel in posizioni corrispondenti, per questo è bene operare su immagini ben georife-

rite o, meglio ancora, ortorettificate.

Le operazioni base che si effettuano tra bande sono:

- Somma

- Sottrazione

- Moltiplicazione

- Divisione

Naturalmente sono possibili infinite operazioni più complesse tra bande combinando op-

portunamente le operazioni base.

- Somma

In termini pratici la somma di immagini corrisponde il più delle volte ad una operazione di

media e in quanto tale, può essere utilizzata per ridurre il rumore dell’immagine. È raro

trovare tale operazione usata direttamente, meno raro è trovarla applicata con calcoli più

complessi.

- Sottrazione

Questa operazione trova più spesso uso in applicazioni che non implicano l’analisi di più

bande della medesima immagine, bensì immagini nella stessa banda di acquisizione ma

66

Page 71: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 2 Elaborazione ed interpretazione delle immagini

riguardanti due epoche differenti, per poter mettere in evidenza i cambiamenti del suolo da

un’epoca all’altra: tale operazione viene chiamata change detection. L’immagine risultan-

te si visualizza spesso in pseudocolore in maniera da distinguere i pixel con valori intorno

allo zero (assenza di cambiamento o cambiamento minimo) dai pixel con valori significa-

tivamente diversi dallo zero (cambiamento significativo) [http://tlclab.unipv.it].

- Moltiplicazione

È un’operazione applicata di rado come pixel × pixel, in genere si moltiplica un’immagine

per un’altra immagine binaria che funge da maschera: in tal modo si isolano zone di inte-

resse (parte dell’immagine moltiplicata per la costante 1) e si eliminano di conseguenza le

zone non interessate allo studio dell’immagine (parte dell’immagine moltiplicata per la

costante 0), senza modificare i valori di radianza della zona isolata.

Più di frequente tale operazione si applica come costante × pixel: in tal modo si possono

enfatizzare i pixel che hanno alti valori di riflettanza.

- Divisione

A differenza della moltiplicazione, la divisione di immagini pixel a pixel è largamente uti-

lizzata: frequente è l’impiego per ridurre gli effetti della variazione indesiderata

dell’illuminazione (dovuti ad esempio alle differenti pendenze del terreno).

2.5.2.5 - ANALISI DELLE COMPONENTI PRINCIPALI

Le tecniche di acquisizione dati multispettrali forniscono diverse immagini della stessa

scena dove ognuna rappresenta la distribuzione spaziale dell’energia riflessa o emessa a di-

verse lunghezza d’onda visualizzabile tramite gli istogrammi.

Spesso però si osserva che esiste un alto grado di correlazione tra diverse immagini di uno

stesso bersaglio e ciò dipende dalla natura fisica dell’oggetto, dalla larghezza della banda e

dal rumore presente nei dati: si dice allora che i dati hanno una certa ridondanza

d’informazioni [Dermanis et al., 2002]. Questo può essere superato o scegliendo le bande

meno correlate, oppure costruendo mediante certe combinazioni di dati originali, delle bande

sintetiche che siano tra loro meno correlate di quelle originali e che possano contenere la

maggior parte delle informazioni in un set ridotto di dati.

67

Page 72: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 2 Elaborazione ed interpretazione delle immagini

La trasformazione per componenti principali (o principal component transformation) è

una trasformazione sulle bande di un’immagine finalizzata a creare altrettante pseudobande

nelle quali la distanza dei pixel rimanga inalterata (11).

Questa trasformazione va concepita come uno spostamento della “nuvola” dei pixel dalla

posizione originale nello spazio multispettrale ad una nuova, in modo tale che la forma della

nuvola rimanga inalterata. Lo spostamento viene in generale ottenuto mediante una rototra-

slazione dello spazio multispettrale ma, qualora si vincoli l’origine del sistema di riferimento

nello spazio multispettrale, la trasformazione è costituita unicamente da una rotazione.

A questo punto ci si chiede quale sia la migliore trasformazione da attuare per fare si che

si ottengano pseudobande che presentino vantaggi rispetto alle bande originali. L’idea di base

soggiacente al metodo di trasformazione per componenti principali è la seguente: il primo as-

se del nuovo sistema di riferimento dello spazio multispettrale viene collocato (fra le infinite

possibili) lungo la direzione di maggior dispersione dei pixel (a tal proposito si ricorda che

una misura della dispersione lungo una direzione è fornita dalla varianza delle proiezioni dei

pixel sulla direzione stessa). Il secondo asse, fra le direzioni possibili e ortogonali al primo,

viene nuovamente scelto in modo da massimizzare la dispersione dei pixel lungo l’asse stes-

so. La medesima procedura di massimizzazione della dispersione viene applicata al terzo asse

e così via, costringendo sempre ciascun asse i-esimo ad essere ortogonale ai precedenti.

L’ultimo asse dello spazio risulta viceversa univocamente definito dal requisito di ortogonali-

tà rispetto agli assi precedenti. Al termine della trasformazione gli assi risultano ordinati per

dispersione (varianza) dei valori dei pixel decrescente: le coordinate di ciascun pixel rispetto

ad ogni asse rappresentano dunque i valori del pixel nelle nuove pseudobande.

Per capire la trasformazione per componenti principali consideriamo il semplice caso di

due bande, in cui si deve scegliere unicamente la nuova posizione di un asse: essa è determi-

nata dal suo angolo θ rispetto alla posizione originale. Se x1 ed x2 sono gli assi originali, men-

tre x'1 ed x'2 quelli ottenuti dalla trasformazione, la relazione fra coordinate originali e nuove

di ciascun pixel nello spazio multispettrale è data dalla

( )1 1

2 2

cos sinsin cos

x' xθ θθ θx' x

⎡ ⎤ ⎡ ⎤⎡ ⎤= =⎢ ⎥ ⎢ ⎥⎢ ⎥−⎣ ⎦⎣ ⎦ ⎣ ⎦

X = R X' θ

(11) - Attenzione perché in questo caso si parla di distanza nello spazio multispettrale ad n dimensioni quante sono le bande

dell’immagine e non di distanza nello spazio

68

Page 73: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 2 Elaborazione ed interpretazione delle immagini

La matrice R(θ) di rotazione, viene chiamata matrice di correlazione.

Figura 2.5.7 - Rototraslazione mutlispettrale [Dermanis et al., 2002]

Osservando la situazione esemplificata in figura 2.5.7, è ovvio che un posizionamento

dell’asse x'1 nella direzione di massima dispersione lascerà le coordinate x'2 dei pixel molto

vicine l’una all’altra, con dispersione praticamente nulla: ciò implica che le coordinate x'2

possono essere ignorate in un successivo processo di classificazione ed interpretazione

dell’immagine, poiché non contengono “informazioni di distanza” utili per la classificazione.

Quest’operazione è equivalente a proiettare ciascun pixel sull’asse x'1 (ovvero porre le sue

coordinate x'2 a zero) (vedi Figure 2.5.8a e 2.5.8b).

Figura 2.5.8b - Situazione di “perfetta correlazione” tra le due bande x'1 e x'1

Figura 2.5.8a - Situazione di “quasicorrelazione” tra le due bande x'1 e x'1

Le nuove posizioni proiettate dei pixel differiscono lievemente da quelle originali e pos-

sono essere utilizzate altrettanto bene per scopi di classificazione, con il vantaggio però di la-

vorare su un’unica banda anziché due: si sono quindi ottenuti una compressione dei dati e un

significativo risparmio nel calcolo numerico necessario per la classificazione. Naturalmente

ciò è possibile quando i valori dei pixel nelle due bande originali sono molto correlati, ovvero

giacciono sostanzialmente su una retta (vedi Figure 2.5.8a e 2.5.8b).

69

Page 74: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 2 Elaborazione ed interpretazione delle immagini

Attraverso questa trasformazione, l’informazione dell’immagine multispettrale viene ridi-

stribuita in modo da essere contenuta per la maggior parte nelle prime componenti principali

e la parte contenuta nelle successive può essere interpretata come solo rumore.

1 2

3 4

Banda 1 Banda 2 Banda 3 Banda 4

85.83 36.15 35.13 26.22 σ =

σ2 = 7367.52 1306.52 1234.44 687.65

( )

1 0.70 0.81 0.920.70 1 0.97 0.660.81 0.97 1 0.750.92 0.66 0.75 1

⎡ ⎤ ⎢ ⎥

⎢ ⎥= ⎢ ⎥⎢ ⎥⎣ ⎦

R θ

Figura 2.5.9 - Le bande originali di un’immagine SPOT4, le rispettive devia-zioni standard e varianze, e la matrice di correlazione [Dermanis et al., 2002]

70

Page 75: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 2 Elaborazione ed interpretazione delle immagini

PC2

PC1

PC4

PC3

Banda PC1 Banda PC2 Banda PC3 Banda PC4

97.94 29.79 9.79 4.51 σ =

σ2 = 9592.71 887.23 95.90 20.30

Figura 2.5.10 - Le bande risultanti dalla trasformazione per componenti principali delle bande SPOT4 in figura 2.5.9, e le rispettive deviazioni standard e varianze [Dermanis et al., 2002]

In figura 2.5.10 è riportato un esempio pratico di calcolo delle componenti principali di

una ripresa SPOT4 (vedi bande originali in Figura 2.5.9) con i valori della varianza per le va-

rie componenti principali. Com’è prevedibile l’immagine relativa alla componente principale

con la varianza più alta presenta migliore nitidezza, dettaglio e contrasto, quella invece a mi-

nor varianza si presenta molto disturbata. Ciò porta alla conclusione che, in tale trasforma-

zione, la componente principale con varianza più bassa rappresenta un “deposito” del rumore

dell’immagine di partenza.

71

Page 76: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 3 SEGMENTAZIONE OBJECT-ORIENTED: IL SOFTWARE ECOGNITION

®

3.1 - INTRODUZIONE

La ricerca e lo sviluppo tecnologico in ogni settore della vita quotidiana, da sempre hanno

cercato di portare giovamenti, sia da un punto di vista di rivoluzionamento delle tecniche,

rendendole più rapide ed efficienti, sia dal punto di vista economico. Nel campo della carto-

grafia, numerosi sono stati i cambiamenti che si sono susseguiti negli anni: dai primitivi si-

stemi di ripresa di cui abbiamo accennato nel primo capitolo, alle attuali tecniche di tratta-

mento di dati, al passaggio al digitale, all’utilizzo delle piattaforme satellitari, alle tecniche di

stampa di una carta, agli standard della cartografia numerica.

Uno degli argomenti di cui sempre più spesso si legge nelle riviste scientifiche del ramo

geotopocartografico sono le tante e diversificate metodologie di trattamento, filtraggio e in-

terpretazione di dati, e di sviluppo di algoritmi automatici, o semiautomatici, in grado di ef-

fettuare tali procedure snellendo il lavoro manuale. Non sono pochi i problemi in questo set-

tore: molti sono gli esempi di studi riportati ma, nella maggior parte dei test, vengono trattati

casi reali ma non molto generici, il che fa capire che si è ancora in fase sperimentale. È altresì

vero che dovendo operare sul territorio geografico, ci si trova dinnanzi ad una variabilità tale

da non poter definire uno standard di interpretazione dei dati da un’immagine o da un rilievo

laser ad esempio, il che rende sempre necessario interventi manuali e algoritmi “personalizza-

ti”.

Uno dei rami in cui negli ultimi anni si sta sviluppando la ricerca è l’estrazione automati-

ca/semiautomatica di oggetti semanticamente significativi da immagini telerilevate ad alta ri-

soluzione, con l’idea di una successiva classificazione e un successivo inquadramento dei dati

estratti direttamente in un sistema cartografico (o comunque di riferimento). Le operazioni da

compiere per giungere ad un risultato soddisfacente non sono poche, e soprattutto non sono

semplici poiché sono molteplici le situazioni e le concause che possono rendere un ricono-

scimento automatico di oggetti da parte di un software più o meno efficiente.

In questo contesto analizzeremo un software commerciale preposto proprio al riconosci-

mento oggetti: Ecognition® della Definiens-Imaging®; questo software presenta interessanti

peculiarità che in questo capitolo, e nel prossimo, cercheremo di focalizzare, analizzandone,

anche con spirito critico, le potenzialità, i pro e i contro.

72

Page 77: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 3 Segmentazione object-oriented: il software Ecognition®

3.2 - LA SEGMENTAZIONE

Quando si guarda un’immagine telerilevata, si tende ad osservare l’immagine nel suo in-

sieme ed istintivamente si cerca di distinguere i singoli oggetti, facendo una sorta di classifi-

cazione: si tenta di identificare all’istante gli oggetti che appaiono più visibili e più grandi,

fino ad esplorare i singoli dettagli che l’immagine offre, confrontando il tutto con quello che

è il nostro “database” di conoscenze del mondo che ci circonda, il che consente di dare un

nome o una categoria di appartenenza agli oggetti.

Quando si deve fare un’analisi interpretativa di un’immagine, si applica grossomodo que-

sto principio: si circoscrive una zona, si esaminano gli oggetti che siamo in grado di distin-

guere nell’immagine (si rende necessaria una buona risoluzione geometrica e radiometrica

perché si possano distinguere più facilmente), e li si classifica assegnando un codice che i-

dentifica univocamente l’oggetto come appartenente ad una certa categoria di oggetti.

La segmentazione è un processo mediante il quale si suddivide l’immagine in diverse re-

gioni sulla base di un certo criterio di appartenenza dei pixel ad una regione o ad un’altra, con

l’obbiettivo finale di riconoscere gli oggetti che compongono l’intera scena, discernendo gli

oggetti di “interesse” (foreground), dal resto della scena che comprende regioni di interesse

nullo (background). Ad oggi non esiste una vera e propria procedura universale per la seg-

mentazione (come invece può essere un’operazione di restituzione), dovuto al fatto che non è

un metodo consolidato ma è in continua evoluzione, e che si rendono necessari opportuni a-

dattamenti a seconda dei campi di applicazione.

Nonostante siano presenti, ormai da qualche anno, software che integrano dei tools per la

segmentazione, centri di studi e di ricerca di ogni parte del mondo immettono ogni anno nel

circuito scientifico internazionale test sperimentali con differenti strategie di segmentazione,

a volte creando algoritmi ex-novo, altre volte integrando algoritmi preesistenti per il tratta-

mento delle immagini.

Tuttavia esistono delle tecniche di base sulle quali il processo di segmentazione si fonda

[Gonzales et al., 2004]:

- Thresholding: ogni pixel di un’immagine a toni di grigio è caratterizzato da un valore

DN; l’algoritmo di base, fissa una soglia di intensità, allo scopo di poter fare una di-

stinzione tra due regioni, ad esempio lo sfondo e gli oggetti dell’immagine. La soglia

può essere fissata arbitrariamente, o in maniera automatica in base ad un certo criterio,

usualmente statistico, applicato all’istogramma dell’immagine. Siccome i risultati di

73

Page 78: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 3 Segmentazione object-oriented: il software Ecognition®

un tale algoritmo sono grezzi, è possibile migliorare la tecnica considerando varie so-

glie. È inoltre facile estendere questa tecnica ad immagini multispettrali, sfruttando le

singole bande che le compongono.

- Region growing: consiste nel raggruppare più pixel in regioni, basandosi su determi-

nati criteri di “crescita” (growing) delle stesse. All’inizio viene scelto un insieme di

pixel, detti “semi”: ogni regione è inizialmente costituita da uno di tali semi, e in se-

guito si cerca di ingrandirla unendo ad essa i pixel vicini, a condizione che soddisfino

un certo criterio di somiglianza. Se il pixel non viene associato alla regione, sarà la-

sciato libero di aggregarsi ad un’altra regione o di diventare un nuovo seme. I vari al-

goritmi che prendono spunto da questa tecnica si differenziano per la scelta del seme,

e per l’eventuale successiva applicazione di metodi di accorpamento tra regioni.

- Region Splitting and Merging: l’immagine viene suddivisa in quattro parti, ed ogni

parte, non sufficientemente omogenea, viene ulteriormente suddivisa fino a quando

tutte le regioni ottenute soddisfano il criterio di omogeneità.

- Edge Detection: si vanno a determinare quei pixel che fanno parte del contorno di un

oggetto e non dell’oggetto stesso; i pixel riconosciuti come “contorno” vengono con-

nessi tra loro e raggruppano un certo quantitativo di pixel che andranno a determinare

la regione. Di norma si usa la tecnica del gradiente con soglia variabile: tale tecnica

può essere di difficile applicazione quando si ha a che fare con immagini dal rapporto

segnale/rumore basso, che rende più difficile l’individuazione dei bordi anche

all’occhio umano e che quindi richiede un pre-trattamento dell’immagine. Per la ricer-

ca dei pixel viene adottata la tecnica delle finestre mobili descritta nel precedente capi-

tolo, ma a seconda dei valori che vengono inseriti nelle finestre, delle loro dimensioni,

e di come vengono applicate, si distinguono vari algoritmi di edge detection: Hough

Transform, Sobel, Canny, Zero Crossing, Roberts, Prewitt, Laplacian of a Gaussian

(LoG).

Alla segmentazione, si fa seguire la procedura di classificazione: le regioni che suddivido-

no l’immagine sono così assegnate ad una classe di appartenenza mediante un codice. Trat-

tandosi di immagini raster, si viene a creare un’immagine sovrapposta con la stessa risolu-

zione geometrica e lo stesso numero di pixel: ciascun pixel di questa “maschera” viene colo-

rato con il colore della classe di appartenenza del pixel corrispondente dell’immagine da clas-

sificare.

74

Page 79: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 3 Segmentazione object-oriented: il software Ecognition®

Le procedure di classificazione vengono suddivise in genere in due grandi categorie: le

“supervised” e le “unsupervised” a seconda che si utilizzino o meno delle regioni di pixel

“campione” che il software sfrutterà per capire a quale classe dovranno appartenere i restanti

pixel dell’immagine.

Tutte queste procedure quindi, si basano sull’informazione che può dare un singolo pixel,

e la classificazione a sua volta opererà classificando i singoli pixel: si parla in questo caso di

procedure pixel-based.

3.3 - IL SOFTWARE ECOGNITION®

3.3.1 - PRINCIPI BASE DI FUNZIONAMENTO

Il software in questione ha delle tecniche innovative di segmentazione e di classificazione

che cercheremo di esplicitare in questo capitolo; tali tecniche si distinguono, per molti versi,

da quelle appena descritte (pixel-based) che popolano la maggior parte dei software preposti

a trattare dati telerilevati.

Ecognition® difatti, fa uso del metodo object oriented (o object based), considerabile del

tutto innovativo per i suoi numerosi vantaggi. Con questa tecnica non si sfrutta più solo

l’informazione del singolo pixel (che al più può dare un’informazione di radianza, mediante il

suo valore DN) ma si introducono nuovi parametri di valutazione che vanno oltre le teorie

pixel-based.

Vi sono, infatti, dei parametri che lavorano sulla distribuzione delle intensità dei pixel e

sul gradiente dei pixel (che rassomigliano per certi versi alle tecniche pixel-based), ma che

permettono anche un calcolo dell’omogeneità della distribuzione, omogeneità presa in consi-

derazione, secondo soglie prestabilite dall’utente, in fase di segmentazione, capendo quindi

quali pixel includere o meno in una regione che presumibilmente dovrà indicare un oggetto, e

che dovrà soddisfare le soglie di omogeneità imposte. L’altra novità è la presenza di parame-

tri geometrici che stabiliscono non solo quanto debba essere geometricamente regolare un de-

terminato oggetto, ma anche quanto deve essere vasto tramite un parametro di scala (12): an-

che in questo caso si può impostare una soglia in fase di segmentazione, che consente di

(12) - Si faccia attenzione a non confondere la risoluzione con la scala: la prima definisce le dimensioni che un pixel ricopre a

terra, la scala invece descrive il livello di aggregazione dei pixel e determina, con la segmentazione, l’esistenza o meno di certi oggetti [Benz, Hofmann et al., 2003]

75

Page 80: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 3 Segmentazione object-oriented: il software Ecognition®

segmentare l’immagine mantenendo una certa regolarità nel delimitare le regioni, e una certa

estensione.

La segmentazione che applica Ecognition® inoltre, non opera in modalità raster, ma in

modalità vettoriale, vale a dire che il raster è utilizzato ma il risultato finale non sarà un raster

(come avviene ad esempio per l’edge detection descritto prima), né tanto meno si andrà a

modificare il dato originale: i singoli oggetti finali sono dei poligoni chiusi, le cui linee di

confine si districano tra un pixel e l’altro delimitando così gli oggetti. La peculiarità di lavo-

rare con modalità raster e vettoriale contemporaneamente, consente anche di poter usare mo-

delli digitali del terreno per la segmentazione, ottenendo così dettagli in più che permettono

una più corretta determinazione di oggetti ad alto valore semantico (edifici ad esempio).

Altre considerevoli novità riguardano le procedure di classificazione: il software infatti

consente, una volta effettuata una segmentazione (la segmentazione in tale software è il punto

di partenza, basilare per le procedure successive) di scegliere fra tre metodologie di classifi-

cazione: Standard Nearest Neighbor, Nearest Neighbor e Membership Functions (quest’ulti-

ma basata sulla logica fuzzy).

La classificazione differisce invece totalmente dal pixel-based, e questo è un altro tassello

che lascia trasparire con evidenza le differenze che passano tra Ecognition® e i restanti sof-

tware. Ogni oggetto, una volta terminata la segmentazione, verrà trattato sempre come tale, e

quindi si classificherà l’intero oggetto; di conseguenza sarà eliminato anche il cosiddetto ef-

fetto salt and pepper, che è un elemento di disturbo in immagini rumorose (distintamente dal-

la classificazione), ma allo stesso tempo è un effetto che si viene a creare allorquando si clas-

sifica in pixel-based e si ottengono singoli pixel assegnati ad una classe che sono sparpagliati

in mezzo ad altri pixel appartenenti ad un’altra classe.

Perché la classificazione possa essere soddisfacente, Ecognition® mette a disposizione un

numero elevato di features, ovvero di “caratteristiche” (geometriche, radiometriche e di mu-

tua relazione con gli oggetti adiacenti) che l’oggetto dovrà avere perché possa appartenere ad

una determinata classe creata dall’utente (le classi si distingueranno proprio in base alle fea-

tures o alla loro combinazione). Si parlerà quindi di spazio delle features in cui sarà possibile

rappresentare ogni singolo oggetto, e che consente di determinare “univocamente” ogni sin-

golo oggetto a seconda del valore che esso assume secondo una determinata features.

Infine, visto l’uso di formati vettoriali e raster insieme, c’è perfetta compatibilità di forma-

ti vettoriali, come gli shape files (shp), che sono i tipici formati dei layer di Arcgis®: gli og-

76

Page 81: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 3 Segmentazione object-oriented: il software Ecognition®

getti segmentati e classificati sono esportabili in tale formato e quindi direttamente gestibili in

ambiente GIS.

3.3.2 - CARICAMENTO DELLE IMMAGINI

La procedura di caricamento delle immagini dà inizio a tutte le successive procedure cui

abbiamo accennato e che approfondiremo in seguito.

Figura 3.3.1 - Avvio nuovo progetto

Partendo dalla schermata iniziale del programma, e selezionando NEW dal menù PRO-

JECT (vedi Figura 3.3.1) si apre la finestra di inserimento di immagini. Oltre alla possibilità

di inserire immagini di differenti formati, tra cui i formati propri dei vari software commer-

ciali presenti sul mercato (Geomatica®, MapInfo®, ER-Mapper®, Erdas Imagine®, ecc.) sono

riconosciute perfettamente le immagini georiferite mediante i files tfw, o mediante il formato

di immagine geotiff, e non ultimo i files di poligoni in formato vettoriale come i file shp (sha-

pe): quest’ultimo formato sarà automaticamente “rasterizzato” usando il formato tiff che verrà

creato nella stessa cartella del file shp, ragion per cui non è consentito, per questo formato, il

caricamento da supporti di sola lettura (CD-ROM, DVD, HD protetti da scrittura).

77

Page 82: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 3 Segmentazione object-oriented: il software Ecognition®

Figura 3.3.2 - Caricamento immagini

Una volta caricate le immagini (in Figura 3.3.2 sono visualizzate solo tre bande di una

immagine a colori, ma si possono caricare molte più bande contemporaneamente) abbiamo a

disposizione i dati della georeferenziazione dell’immagine, che consentono di conoscere i pa-

rametri fondamentali dell’immagine: il DATUM e le RISOLUZIONI GEOMETRICA e RA-

DIOMETRICA. Il software, com’è intuibile, avviserà se si stanno caricando immagini geori-

ferite su datum differenti. È inoltre possibile stabilire l’unità di misura preferita e in più, se

l’utente lo ritiene opportuno, si può lavorare solo su una zona dell’intera scena caricata, me-

diante il tasto Subset Selection che consente una selezione grafica di semplice intuizione della

zona d’interesse.

Il software consente di lavorare anche con immagini a risoluzioni geometriche differenti

eseguendo automaticamente un resampling dell’immagine a più scarsa risoluzione.

78

Page 83: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 3 Segmentazione object-oriented: il software Ecognition®

Si noti che c’è anche una sezione Thematic layer: come dice il nome stesso, in questa se-

zione si possono inserire layer tematici (ad esempio dei DEM); sostanzialmente i formati che

si possono caricare sono i medesimi utilizzabili nell’Image layer: la differenza sta nel fatto

che i file vettoriali questa volta saranno caricati includendo gli attributi, mentre per i file in

formato raster è richiesto un file aggiuntivo degli attributi (ASCII o dbf)

3.3.3 - MULTIRESOLUTION SEGMENTATION

Riprendendo quanto accennato prima sulla segmentazione di Ecognition®, vediamo come

avviene questa operazione e soprattutto perché si parla di Multiresolution Segmentation.

Figura 3.3.3 - Schermata di avvio della segmentazione di ecognition

Questo tipo di procedura (unica in assoluto e con tanto di brevetto) consente di effettuare

segmentazioni a più risoluzioni (da qui Multiresolution) mediante l’impostazione del parame-

tro di scala (riquadro blu di Figura 3.3.3), dando modo di decidere, avendo preventivamente

osservato e studiato l’immagine da segmentare, l’ordine di grandezza degli oggetti che inten-

diamo estrarre. Se ad esempio l’intenzione è di estrarre macrozone per poter creare una carta

tematica delle coperture (vegetazione, urbano, bacini, coltivazioni, ecc.) è più logico andare a

scegliere un parametro di scala abbastanza elevato; se invece l’intenzione è di andare a di-

79

Page 84: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 3 Segmentazione object-oriented: il software Ecognition®

stinguere singoli oggetti (edifici, serre, vasche, zone di parcheggio, ecc.) si dovrà scendere

più in dettaglio, e quindi si tenderà ad abbassare il parametro di scala.

Per quanto questo parametro possa essere impostato anche a valori molto alti, esso è stret-

tamente legato all’immagine esaminata: c’è sempre un limite massimo per l’immagine che

trattiamo, ma varia da immagine ad immagine, senza contare che è anche la risoluzione geo-

metrica dell’immagine che conta nella scelta del valore da impostare. Se, ad esempio, inten-

diamo estrarre un oggetto da un’immagine con risoluzione 1 metro (una IKONOS pansharpe-

ned per esempio) imposteremo un certo valore del parametro ma, se volessimo estrarre lo

stesso oggetto da una scena a risoluzione più alta (ad esempio una QUICKBIRD che, lo ri-

cordiamo, ha un sensore che consente una risoluzione di 0,62 cm in pancromatico, e quindi

anche in pansharpened) il valore da impostare non sarà più lo stesso poiché l’oggetto sarà

composto da più pixel, quindi dovremmo leggermente incrementare il valore.

Si possono inoltre impostare i pesi da assegnare ad ogni immagine (riquadro rosso di Fi-

gura 3.3.3): ciò diviene utile nel momento in cui l’oggetto interessato dalla segmentazione ha

risposto diversamente dagli oggetti circostanti in una banda piuttosto che in un’altra, e quindi

è meglio contrastato.

Ci sono poi i restanti parametri che rientrano in una sezione chiamata Composition of the

homogeneity criterion (riquadro di colore ciano in Figura 3.3.3): in questo contesto

l’omogeneità tra i vari oggetti non è intesa letteralmente come tale, poiché non si avranno mai

oggetti omogenei veri e propri, ma si intende come una “minimizzazione dell’eterogeneità”; i

parametri di eterogeneità sono tre:

• Shape factor (riquadro verde) (13): questo parametro determina il grado di omogenei-

tà di forma dell’oggetto, ma allo stesso tempo rende più difficile la separazione tra

oggetti abbassando il parametro Color (vedi nota (13)), e quindi abbassando il control-

lo sulle variazioni di contrasto tra oggetti adiacenti, non separandoli correttamente. È

consigliato l’utilizzo di valori bassi per questo parametro.

• Smoothness (riquadro viola): è utilizzato per ottimizzare gli oggetti focalizzandosi

sull’ “addolcimento” dei bordi. È consigliato quando si ha a che fare con oggetti ab-

bastanza eterogenei o quando è necessario avere bordi poco frastagliati.

(13) - A partire dalla versione 4.0 di Ecognition® (attualmente in commercio, la 5.0 è attesa per il prossimo autunno) la scherma-

ta della Multiresolution Segmentation non riporta più il parametro Color: in realtà questo parametro era il complementare del parametro Shape factor, quindi si richiamerà il parametro Color anche se non più presente nel software.

80

Page 85: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 3 Segmentazione object-oriented: il software Ecognition®

• Compactness (riquadro arancio): è il complementare dello Smoothness, il che vuol di-

re che questi parametri varieranno alla pari ma inversamente. Con questo parametro

si tende ad ottimizzare la compattezza dei singoli oggetti. È consigliato quando gli

oggetti immagine che si vogliono separare sono piuttosto compatti ma che sono sepa-

rati da oggetti non compatti da un contrasto relativamente debole.

È bene tenere sempre in considerazione che le probabilità di ottenere una segmentazione

soddisfacente al primo tentativo è praticamente nulla: occorre sempre effettuare più segmen-

tazioni modificando di volta in volta i parametri citati fino a trovare una segmentazione adatta

per gli oggetti che si vogliono estrarre, trovando, quindi, una combinazione corretta dei succi-

tati parametri. Le regole basilari e le esperienze pregresse suggeriscono di usare inizialmente

parametri di scala abbastanza grandi per poi scendere gradualmente, tenendo sempre d’occhio

la separazione degli oggetti ad ogni segmentazione, e di usare valori sufficientemente bassi di

Shape factor (partire dal valore minimo e salire di volta in volta) poiché valori alti comporta-

no perdita di omogeneità. Non si dimentichi che, anche se si tratta di un algoritmo che opera

sulle forme geometriche, esso si basa comunque sulle informazioni spettrali dell’immagine.

In ultimo, considerando che più grande è la scena e più tempo richiede la segmentazione,

può essere utile (ma talvolta è necessario) concentrarsi su una zona “campione” e, una volta

trovata una combinazione di parametri soddisfacente, estenderla a tutta la scena.

3.3.3.1 - LIVELLI DI SEGMENTAZIONE CORRELATI

Sempre a proposito di Multiresolution Segmentation c’è da mostrare un’ulteriore novità

che riguarda la segmentazione a livelli correlati.

Una volta terminata la prima segmentazione, si è creato un layer di poligoni che delimita-

no i singoli oggetti: a questo punto Ecognition® dà la possibilità di creare dei layer superiori

e/o inferiori al layer appena creato, suddividendo gli oggetti creati in oggetti più piccoli (detti

sub-object nel caso di layer inferiori oppure accorpando gli oggetti in oggetti più grandi (detti

super-object) fermo restando un limite superiore (rappresentato dalla grandezza della scena) e

un limite inferiore (rappresentato dal pixel).

Tale prerogativa diviene utile se, ad esempio, si intende separare un oggetto, che di per se

è stato ben segmentato, in oggetti più piccoli: ciò è possibile solo dopo la prima segmentazio-

ne tramite il menù Level (riquadro marrone in Figura 3.3.3). I livelli dei vari “piani” tuttavia

non sono indipendenti l’uno dall’altro, anzi, sono correlati mediante una struttura gerarchica

81

Page 86: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 3 Segmentazione object-oriented: il software Ecognition®

(vedi Figura 3.3.4) poiché ogni oggetto del livello superiore sa quali sono i suoi sub-object e

allo stesso modo ogni oggetto del livello inferiore sa qual’è il proprio super-object. Alla luce

di quanto detto possiamo dire che ogni oggetto è determinato da proprietà spettrali, geome-

triche, da una trama (texture), da un unico super-object e da un unico sub-object.

Figura 3.3.4 – Struttura gerarchica della segmentazione a più livelli

Per i livelli inferiori e superiori si possono assegnare diversi parametri di scala e di omo-

geneità e modificare i pesi delle immagini caricate, ma data la correlazione tra i vari livelli

non possono attendersi cambiamenti radicali del modo di segmentare.

In tutte queste procedure, fatta eccezione dell’immissione dei parametri, regna

l’automatismo del programma; tuttavia è consentito all’utente, mediante la barra Image O-

bject Editing (vedi Figura 3.3.5) di modificare gli oggetti adiacenti, fondendo due o più og-

getti in un unico oggetto oppure dividendo un oggetto in due o più oggetti.

Figura 3.3.5

Benché questo genere di operazioni possono aiutare a migliorare l’oggetto, si tratta pur

sempre di un’operazione manuale che richiede, qualora la si voglia applicare a tutta la scena,

un’ingente quantità di tempo anche in funzione dell’estensione dell’immagine: è consigliato

quindi un uso localizzato e, possibilmente, post-classificazione, questo perché torna più utile

andare a modificare oggetti mal segmentati che si vogliono comunque estrarre (e quindi clas-

sificare), piuttosto che oggetti mal segmentati per i quali non si ha alcun interesse.

82

Page 87: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 3 Segmentazione object-oriented: il software Ecognition®

Rimanendo ancora nell’ambito della segmentazione, c’è un ulteriore opzione interessante:

la sub-object line analysis. Questa opzione, selezionabile dal menù a tendina Segmentation

mode (riquadro giallo di Figura 3.3.3) consente di segmentare in parti più piccole gli oggetti

che hanno una particolare forma allungata (forma che può ricordare appunto delle linee, come

strade o ferrovie): tale applicativo può risultare comodo in fase di classificazione allorquando

si imponga ad una classe una ricerca di oggetti tramite l’allineamento di sub-object. Per

quest’ultima opzione è consentita la sola modifica del parametro di scala, che stavolta però si

potrà modificare da un minimo di 0,5 ad un massimo di 1, e che in questo caso determina la

massima lunghezza relativa del poligono sub-object con altri poligoni che non sono sub-

object del medesimo oggetto.

3.3.4 - CLASSIFICAZIONE

Com’è noto, il processo di classificazione consiste nell’assegnare un certo numero di og-

getti ad una determinata classe in base alla “descrizione” della classe stessa: per descrizione

di una classe si intendono le proprietà o le condizioni di quella determinata classe. Perché un

oggetto venga assegnato a quella classe (e quindi classificato) dovrà soddisfare le descrizioni

della medesima.

I metodi di classificazione classici utilizzati nel telerilevamento (massima verosimiglian-

za, minima distanza, ecc.) lavorano in modalità binaria, assegnando un’appartenenza (valore

1) o una non appartenenza (valore 0) di un oggetto ad una determinata classe: questi classifi-

catori vengono chiamati hard classifiers. Al contrario, quelli chiamati soft classifiers (prin-

cipalmente sistemi a logica fuzzy) applicano il concetto di “grado di appartenenza”, ovvero di

probabilità che un oggetto possa o meno appartenere ad una determinata classe. I valori di

appartenenza si suddividono tra 0,0 e 1,0 (vale a dire tra 0% e 100% di appartenenza ad una

classe) e variano in funzione di come un oggetto soddisfa le condizioni di appartenenza ad

una classe.

Questo secondo genere di classificatori si avvicinano di più al modo di pensare dell’uomo

che, trovandosi ad esaminare un’immagine, si trova molte volte ad assegnare un oggetto ad

una determinata classe ma con una certa “riserva”, senza escludere quindi che quello stesso

oggetto possa appartenere anche ad un’altra classe, fino a decidere che è più “probabile” che

l’oggetto appartenga ad una classe invece che ad altre.

83

Page 88: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 3 Segmentazione object-oriented: il software Ecognition®

Quando però esaminiamo gli oggetti minuziosamente, inevitabilmente troveremo partico-

lari di un oggetto che avrà solo quell’oggetto: trovandosi ad esempio a dover distinguere più

edifici, non si troverà mai un edificio identico all’altro. Ciò significa che quando si creano

delle classi e si costruiscono le descrizioni per ogni singola classe, non si possono mai dare

descrizioni particolareggiate, ma si deve per lo più generalizzare la descrizione da dare, altri-

menti si dovrebbe creare una classe diversa per ogni oggetto diverso, il che diventerebbe

quanto mai dispendioso e non è certo questo l’obiettivo che ci si pone quando si deve dare

una valenza semantica ad un oggetto.

3.3.4.1 - NEAREST NEIGHBOR E STANDARD NEAREST NEIGHBOR

Quando si parla di queste due tecniche si introduce lo spazio delle features. È uno spazio

ad n dimensioni (con n pari al numero di features utilizzate) e gli oggetti verranno posizionati

in questo spazio a seconda di come rispondono alle varie features. Perché una classificazione

basata su questi due metodi sia possibile, è strettamente necessaria l’individuazione di oggetti

esempio (in Ecognition® vengono detti sample), grazie ai quali calcolare le “distanze” tra og-

getti da classificare e oggetti sample nello spazio delle features. Per capire meglio, usiamo

come esempio uno spazio bidimensionale (quindi a due features) (vedi Figura 3.3.6).

Figura 3.3.6 - Spazio bidimensionale delle features

I pallini blu ed i pallini rossi sono samples delle due classi rosso e blu, mentre il pallino

grigio è l’oggetto da identificare. Le distanze nello spazio delle features tra il pallino da iden-

tificare ed i samples sono ricavate mediante i valori che gli oggetti sample assumono nelle

84

Page 89: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 3 Segmentazione object-oriented: il software Ecognition®

due features: in questo modo la classe di appartenenza dell’oggetto sample più vicino sarà la

stessa classe dell’oggetto da classificare.

La differenza tra i due metodi di classificazione sta nel fatto che mentre per lo Standard

Nearest Neighbor le features scelte per una classe saranno le medesime per tutte le classi

(vincolando quindi la scelta), ciò non avviene per il Nearest Neighbor, ma il principio di clas-

sificazione non varia.

3.3.4.2 - LA LOGICA FUZZY

Questa teoria (a volte soprannominata logica sfumata) amplia, modifica e mette in discus-

sione la logica alla base dei calcolatori odierni, la logica booleana o binaria, secondo la quale

(rimanendo in ambito Ecognition®) un oggetto può assumere solo due stati: appartiene ad una

certa classe (valore 1 = vero) oppure non appartiene a quella classe (valore 0 = falso).

È facile capire quindi quanto questa logica si discosti enormemente dalla realtà che, al

contrario, considera tante sfaccettature, tanti contorni sfumati che in una logica binaria non

esistono o al più vengono approssimate, rendendola quindi anche imprecisa: non esiste nella

realtà un tutto bianco e un tutto nero ma esistono diverse tonalità di grigio che si interpongo-

no tra i due estremi; il solo chiedersi se faccia caldo o freddo esce fuori dai canoni della logi-

ca booleana, e da una domanda banale quanto mai come questa, alla quale si possono dare

molteplici risposte, anche in base all’individuo che viene interrogato, che si discostano da un

semplice si o no, ci si può rendere conto delle controversie di tale logica con la nostra realtà.

Il sistema fuzzy viene sostanzialmente suddiviso in tre step: fuzzification, fuzzy rule base e

defuzzification:

- Fuzzification

Questa fase descrive la transizione tra un processo incisivo, quale è la logica booleana, ad

un sistema fuzzy. Il sistema assegna un grado di appartenenza, variabile tra 0 (nessuna

appartenenza) e 1 (appartenenza piena), mediante una cosiddetta funzione di appartenenza

che, a seconda della forma, cioè dell’andamento su di un grafico cartesiano bidimensiona-

le, può stabilire un passaggio più o meno brusco tra i due valori limite. Un set di valori di

una feature che generano un valore di appartenenza maggiore di 0 viene definito fuzzy set:

questo può assumere valori che vanno da 0 ad 1 secondo la funzione di appartenenza, e

possono essere assegnati anche più di un set di valori. In figura 3.3.7a è riportato un e-

85

Page 90: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 3 Segmentazione object-oriented: il software Ecognition®

sempio in cui è presente una feature relativa all’età di una persona e due set di valori,

ADULTI e NON ADULTI, divisi tra loro da un taglio netto tipico dei filtri cosiddetti passa

alto. Avendo posto un troncamento netto di distinzione tra i due set al valore di 18 anni, è

chiaro che siamo in presenza di un sistema a logica binaria: non a caso non si è parlato di

fuzzy set ma solo di set di valori.

Figura 3.3.7a

In figura 3.3.7b invece, c’è un passaggio sfumato tra i due stadi, per questo si ritiene che

una persona che abbia 18 anni sia al 50% ADULTO e al 50% NON ADULTO: questo e-

sempio invece risponde alla logica fuzzy. Più informazioni possono interporsi tra i due

opposti, più variazioni di pendenza avrà la curva e più sarà corrispondente alla realtà.

Figura 3.3.6b

- fuzzy rule base

Una fuzzy rule base è una combinazione di più regole fuzzy che mette insieme differenti

fuzzy set: le fuzzy rules sono delle regole del tipo if-then, secondo cui un’azione viene e-

seguita o meno se è soddisfatta o meno la condizione posta. La combinazione di più set è

86

Page 91: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 3 Segmentazione object-oriented: il software Ecognition®

resa possibile tramite gli operatori base che sono and e or: il primo rappresenta il “mini-

mo”, vale a dire che il valore restituito è il valore minimo tra tutti i set di valori in cui

l’oggetto ricade, mentre il secondo rappresenta il “massimo”, cioè il valore restituito sarà

il massimo possibile tra tutti i set di valori in cui l’oggetto ricade.

Figura 3.3.8

La figura 3.3.8 presenta una feature che riguarda i valori DN di un’immagine a 8 bit e tre

fuzzy set: Edificato, Idrografia e Vegetazione. Guardando la figura prendiamo in esame il

valore 70DN = della feature: questo valore ricade sia nel fuzzy set Edificato sia nel

fuzzy set Idrografia, ma i valori del grado di appartenenza sono rispettivamente 0,4 e 0,2.

Se dovessimo creare una regola fuzzy (fuzzy rule) mediante l’operatore and considerando

solo questi due fuzzy set, il valore restituito sarà 0,2 (il minimo tra le due quindi), poiché

questo soddisfa entrambe le condizioni, mentre usando l’operatore or il valore restituito

sarebbe 0,4 (il massimo tra le due), visto che è richiesta la soddisfazione di uno solo dei

fuzzy set: in quest’ultimo caso, la classificazione si troverebbe a scegliere tra il primo e il

secondo fuzzy set, e dovendo scegliere quello con più alto grado di appartenenza la scelta

è chiaramente per l’Edificato. Se includiamo anche la Vegetazione, l’operatore and resti-

tuirebbe grado di appartenenza pari a 0,0 poiché il valore DN non ricade in tale set, men-

tre l’operatore or restituirebbe lo stesso risultato precedente, cioè 0,4. Verrebbe da chie-

dersi cosa succederebbe se per entrambi i fuzzy set il valore restituito fosse il medesimo: in

tal caso si avrebbe una condizione di instabilità, poiché sarebbe come trovarsi davanti ad

un bivio senza sapere dove svoltare. Anche qui si pone una differenza tra alta instabilità e

bassa instabilità: nel primo caso si ha un’instabilità in presenza di un grado di appartenen-

za elevato, il software riterrebbe una strada o l’altra entrambe valide, e si avrebbe un asse-

87

Page 92: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 3 Segmentazione object-oriented: il software Ecognition®

gnazione pari per tutte e tre le classi attendibile; nel secondo caso si ha un’instabilità in

presenza di un grado di appartenenza basso, e in tal caso si avrebbe un’assegnazione glo-

bale non attendibile: per quest’ultima situazione viene consigliato di alzare la soglia mi-

nima di grado di appartenenza, al di sotto della quale gli oggetti non vanno classificati. Si

tratta, comunque, di casi rari che in seguito non tratteremo affatto.

- Defuzzification

Una volta stabilite le assegnazioni degli oggetti mediante logica fuzzy, si ritorna alla logi-

ca binaria, vale a dire che si dovrà vedere un oggetto come assegnato ad una classe o non

assegnato ad una classe, e non più in termini di probabilità.

3.3.4.3 - CREAZIONE DELLE CLASSI

In Ecognition® la struttura di creazione delle classi viene considerata un perno cardine: le

classi, in maniera simile ai livelli di segmentazione, possono essere messe in relazione grazie

ad una struttura gerarchica ereditaria o mediante apposite features relazionali.

Figura 3.3.9

Partendo dalla schermata iniziale, e selezionando CLASS HIERARCHY dal menù CLAS-

SIFICATION (vedi Figura 3.3.9), sarà possibile iniziare la creazione di tutte le classi necessa-

rie in maniera abbastanza intuitiva.

88

Page 93: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 3 Segmentazione object-oriented: il software Ecognition®

Figura 3.3.10

Nella finestra relativa alla descrizione della classe (vedi Figura 3.3.10), potranno essere

definiti gli spazi features relativi ai metodi Standard Nearest Neighbor, Nearest Neigbor e

Fuzzy.

Le features messe a disposizione da Ecognition® sono numerose, e qui riporteremo solo

uno schema, senza entrare nelle descrizioni di ciascuna di esse, ragion per cui si rimanda alla

lettura della guida utente del software per poterle studiare attentamente. Una volta decise le

features da inserire si possono “modellare” le funzioni di appartenenza (Membership fun-

ctions) a seconda delle proprie esigenze: questa procedura non è molto consigliata per quelle

features che dovranno valutare la geometria e la radiometria dell’oggetto qualora non si fac-

cia uso dei sample, per la quale si consiglia una soluzione alternativa: l’utilizzo del Sample

Editor.

89

Page 94: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 3 Segmentazione object-oriented: il software Ecognition®

Figura 3.3.11

Questo tool, riportato in figura 3.3.11, ha un ruolo fondamentale nella creazione delle fun-

zioni di appartenenza per le varie features: selezionando delle features da visualizzare (pre-

sumibilmente quelle da inserire nella descrizione delle classi) e successivamente selezionan-

do dei sample dall’immagine segmentata, e quindi oggetti che devono appartenere a quella

classe, si potranno visualizzare delle barrette nere verticali, che, in base alla loro lunghezza,

danno informazioni sul grado di appartenenza dell’oggetto a quella feature. In tal modo pos-

siamo capire la distribuzione dei samples e renderci conto di quali features sia meglio utiliz-

zare. Le frecce rosse invece indicano i valori assunti da un oggetto qualunque selezionato ma

non utilizzato come sample.

A questo punto si può creare la funzione di appartenenza in maniera automatica: nella

prima feature si può vedere una funzione creata in base ai sample scelti (maggiore è la con-

centrazione dei valori dei sample intorno ad un valore, più semplice sarà la classificazione in

quanto, raggruppandosi tutti in una zona gli oggetti che presumibilmente dovranno appartene-

re ad una certa classe, possiamo restringere il campo di estensione della funzione, aumentan-

do così l’accuratezza nella segmentazione). Tale funzione sarà in ogni caso modificabile ma-

90

Page 95: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 3 Segmentazione object-oriented: il software Ecognition®

nualmente qualora lo si ritenga opportuno, e non sono poche le situazioni in cui si decide di

intervenire manualmente sulle funzioni di appartenenza.

Una volta create tutte le classi necessarie, si procede alla classificazione: è un procedimen-

to che comunque richiede continui accorgimenti, soprattutto nelle funzioni di appartenenza,

ed anche un’attenta analisi delle varie features da utilizzare; a tal proposito, una componente

che porge a sfavore, sono i tempi di elaborazione molto elevati qualora si vogliano inserire

molte features nel Sample Editor: questo è un problema notevole poiché preclude la possibili-

tà di analizzare “in diretta” tutte le features che il software mette a disposizione.

3.3.5 - LA VETTORIALIZZAZIONE DEGLI OGGETTI IMMAGINE

Terminata la procedura di classificazione, per esportare i dati in formato vettoriale (shp) si

dovrà eseguire la vettorializzazione vera e propria degli oggetti.

Figura 3.3.12

Questa viene eseguita tramite il tool Create Polygons (vedi Figura 3.3.12) che consente

differenti possibilità di creazione di poligoni, semplificando per lo più i poligoni frastagliati

che già delimitano l’immagine. Quando i poligoni non seguono più l’andamento del poligono

di segmentazione (quindi tagliano anche l’andamento infrapixel che avevano i poligoni della

segmentazione) si parla di astrazione del poligono: la vettorializzazione quindi comporta po-

ligoni più o meno astratti a seconda dei parametri che si impostano.

91

Page 96: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 3 Segmentazione object-oriented: il software Ecognition®

Ovviamente i valori dei parametri vanno scelti a seconda delle esigenze, ma si sconsiglia-

no valori troppo elevati per evitare che ci sia un eccessivo allontanamento dalla forma reale

dell’oggetto.

Figura 3.3.13

Il primo parametro da modificare nella figura 3.3.13 riguarda il Base Polygons: questo pa-

rametro indica (in unità pixel) quanto la polilinea che rappresenterà l’oggetto vettorializzato

si può discostare dalla polilinea della segmentazione, fatta eccezione dello scostamento dai

punti topologici, ovvero da quei punti che sono intersezione delle polilinee di segmentazione

di 3 oggetti (vedi Figura 3.3.14).

Figura 3.3.14 - Poligono con punti topologici contrassegnati da asterischi bianchi

La seconda soglia invece, chiamata Shape Polygons, indica lo scostamento della polilinea

vettorlializzata dall’oggetto, ma riferendosi ai punti topologici, quindi in maniera differente

92

Page 97: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 3 Segmentazione object-oriented: il software Ecognition®

da prima. In figura 3.3.14 un esempio di vettorializzazione con i due parametri rispettivamen-

te impostati sui valori 1,25 e 0,5.

Il passo finale, prima di poter utilizzare in ambiente GIS il file vettoriale è l’esportazione.

Si possono fare due tipi di esportazione, ovvero l’esportazione dei poligoni relativa all’intera

immagine o dei poligoni relativi a determinate classi decise dall’utente. L’esportazione gene-

rerà un file shape (estensione shp) di polilinee, punti o poligoni e, se si ha avuta l’accortezza

di esportare le singole classi, queste verranno visualizzate nel software GIS adeguatamente

separate e quindi trattabili singolarmente, consentendo di introdurre nuovi attributi per i sin-

goli oggetti, funzione propria dell’ambiente GIS.

93

Page 98: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

94

Capitolo 4 APPLICAZIONE DI ECOGNITION

® PER AGGIORNAMENTO CARTO-GRAFICO: METODOLOGIE A CONFRONTO

4.1 - INTRODUZIONE

Le immagini ad alta risoluzione di cui si dispone oggi, unitamente ai vantaggi della tecni-

ca object-oriented, ci hanno indotto ad una sperimentazione nell’uso del software Ecogni-

tion® con l’obiettivo di aggiornare una cartografia meno recente. L’idea di fondo è quindi

quella di applicare il software ad un’immagine telerilevata, cercando di isolare quanti più og-

getti possibili (edifici prevalentemente) per poi metterli a confronto con la cartografia vetto-

riale del luogo prodotta tramite una ripresa aerea con pellicola pancromatica risalente a due

anni prima della ripresa satellitare. Nel capitolo si daranno informazioni sui dati utilizzati,

sulle applicazioni, sui risultati ottenuti, sulle problematiche riscontrate e sulle informazioni

che la metodologia utilizzata può fornire.

4.2 - DATI UTILIZZATI

La zona presa in esame è quella del comune di Sarno (SA) che, come si ricorderà, fu du-

ramente colpita da una serie di eventi franosi nel Maggio 1998, comportando perdite umane

e, dal punto di vista della conformazione del territorio, un completo sconvolgimento.

Il dato a disposizione è un’immagine IKONOS pansharpened (14) a colori naturali del

2000, con risoluzione geometrica 1 metro e risoluzione radiometrica 11 bit, ortorettificata uti-

lizzando un DEM con risoluzione 20 metri e georiferita nel sistema nazionale Gauss-Boaga.

La scena (vedi Figura 4.2.1) ritrae un territorio morfologicamente vario, il che consente di

poter testare il software in diverse situazioni: agglomerato urbano, edifici isolati, piccole

strutture in zone agricole. La prima di queste situazioni è certamente quella più complessa:

salvo rare eccezioni, che sono presenti nella scena, l’edificato urbano risulta essere molto ete-

rogeneo, e si compone di edifici dalle geometrie e dai colori più vari.

Per quanto la pansharpened sia di grande utilità per le proprietà descritte (vedi nota (14)),

l’immagine presenta, proprio a causa del ricampionamento, un effetto sfumato ai bordi dei

(14) - Si ricorda che un’immagine pansharpened viene creata mediante la “fusione” di un’immagine multispettrale e di una pan-

cromatica registrate simultaneamente: le immagini multispettrali sono sempre di risoluzione geometrica inferiore rispetto a quelle pancromatiche, mentre la pansharpened unisce la risoluzione geometrica della pancromatica ai vantaggi della multi-spettrale ricampionando quest’ultima alla risoluzione della pancromatica

Page 99: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 4 Applicazione di Ecognition® per aggiornamento cartografico: metodologie a confronto

95

vari oggetti che produce un’immagine meno contrastata in tali zone, rendendo meno netta la

separazione tra un oggetto e l’altro.

Figura 4.2.1 - Area di studio

Page 100: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 4 Applicazione di Ecognition® per aggiornamento cartografico: metodologie a confronto

96

Ma uno degli elementi chiave di Ecognition® è il riconoscimento dei bordi degli oggetti

proprio in base al contrasto, oltre all’applicazione di criteri di omogeneità: ciò significa che la

condizione dell’immagine potrebbe mettere in difficoltà il software.

4.3 - APPLICAZIONE DI ECOGNITION®

4.3.1 - 1a FASE: SEGMENTAZIONE

Come già spiegato nel capitolo precedente, la segmentazione eseguita con Ecognition® è

un’operazione che richiede l’applicazione di numerosi tentativi prima che si trovi una combi-

nazione ottimale dei parametri. L’applicazione all’immagine presa in esame non è stata da

meno: si sono susseguiti numerosi tentativi e ad ogni tentativo l’immagine è stata analizzata a

fondo per verificare l’accuratezza del risultato.

Al fine di ottenere una suddivisione degli oggetti quanto più idonea possibile, si è optato

per la scelta di un parametro di scala medio (vedi Tabella 4.3.1), cercando quindi, per quanto

possibile, di non segmentare in più parti gli edifici di grosse proporzioni ma allo stesso tempo

di discernere i piccoli edifici evitando che fossero inglobati in un unico oggetto con

l’ambiente circostante. Come si può vedere dalla figura 4.3.1a questo non è sempre stato pos-

sibile, e ciò è dipeso da due motivi: uno riguardante l’omogeneità dell’ambiente circostante e

l’altro riguardante il colore dell’edificio, entrambe, comunque, motivazioni riconducibili ad

un problema di scarso contrasto tra i diversi oggetti adiacenti. La figura 4.3.1b mostra invece

un risultato molto soddisfacente, complice un elevato contrasto con gli elementi circostanti.

Figura 4.3.1a - Più edifici inglobati in un unico oggetto

Figura 4.3.1b - Edificio segmentato cor-rettamente

Page 101: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 4 Applicazione di Ecognition® per aggiornamento cartografico: metodologie a confronto

97

Livello Segmentation Mode Scale parameter Shape factor Compactness Smoothness 2 Normal 90 0,35 0,5 0,5

1 Sub-object line analysis 0,60 --- --- ---

Una segmentazione su un altro livello è stata eseguita impostando la modalità sub-object

line analysis nella finestra Segmentation mode (15): questa seconda segmentazione è stata usa-

ta, come vedremo, per la fase di classificazione di elementi estesi in lunghezza come strade,

ferrovie e canali.

4.3.2 - 2a FASE: SCELTA DELLE FEATURES E CLASSIFICAZIONE

Conclusa la segmentazione, con un risultato soddisfacente, si è passati ad analizzare i vari

oggetti per poter scegliere le features migliori da utilizzare per la classificazione: si è optato

per l’utilizzazione del metodo fuzzy, vista la possibilità di modificare a proprio piacimento le

varie curve di appartenenza delle features.

Data la difficoltà di una suddivisione automatica di oggetti geometricamente simili ma

semanticamente differenti, si è scelto di creare solo tre classi:

- Edifici

- Vegetazione

- Strade/Ferrovie/Canali

(15) - Si riveda il paragrafo 3.3.3.1 per il significato di sub-object line analysis.

Tabella 4.3.1 - Parametri di segmentazione

Figura 4.3.2 - Esempio di tre features relative alla media della radianza nelle tre bande che compongono l’immagine in esame: i samples selezionati sono rappresentati dalle barre nere verticali, e le curve di appartenenza sono state successivamente create in funzione dei samples selezionati.

Page 102: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 4 Applicazione di Ecognition® per aggiornamento cartografico: metodologie a confronto

98

Le features utilizzate per le singole classi sono state in parte scelte per controlli sui valori

medi di luminosità dei pixel dei vari oggetti, in parte per controlli sulla geometria degli og-

getti: per la scelta ci si è basati sulla selezione di oggetti esempio (detti samples) visualizzan-

done il valore sulle ascisse delle varie features (vedi Figura 4.3.2), ma anche lanciando il pro-

cesso di classificazione via via che le funzioni di appartenenza delle features venivano modi-

ficate e corrette per un miglior risultato.

Esaminiamo a questo punto le features scelte per le classi create, rimandando alla fine di

tale descrizione i valori scelti per ogni singola features.

• Classe Edifici

Le features per questa classe sono sia di controllo sulla radiometria, sia di controllo sulla

geometria degli oggetti.

1. Mean layer value: è il valore medio di intensità dei pixel che compongono l’oggetto,

calcolato, per ogni banda, secondo la formula

1

1 n

L Lii

DN DNn =

= ∑

dove L indica la banda dell’immagine sulla quale si effettua il calcolo, ed n sono i

pixel che compongono il singolo oggetto. Tale feature è utilizzata per escludere, dalla

classe Edifici, gli oggetti molto scuri che presumibilmente possono essere ombre o

strade asfaltate di recente. Mediamente gli oggetti dell’immagine variano l’intensità

sulle tre bande quasi parallelamente, ragion per cui si è ritenuto necessario operare

con questa feature solo sulla prima banda.

2. Shape index: matematicamente, il valore di questa feature per il singolo oggetto viene

calcolato mediante la formula

4es

A=

dove e indica la lunghezza del bordo dell’oggetto immagine, ed A ne indica

l’estensione. Le unità di misura di e ed A, rispettivamente metro e metro quadro, so-

no presenti solo quando l’immagine è georiferita e quindi si conosce la grandezza a

terra del pixel (risoluzione geometrica); in caso contrario tali valori possono essere

misurati solo in pixel. In pratica questa feature controlla la regolarità del bordo

dell’oggetto: più l’oggetto è frastagliato, più è alto l’indice di questa feature.

Page 103: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 4 Applicazione di Ecognition® per aggiornamento cartografico: metodologie a confronto

99

3. Area: indica l’estensione dell’oggetto segmentato (vale il medesimo discorso

dell’unità di misura fatto per la feature precedente). La feature è stata scelta perché

non fossero incluse macrozone che presentino forme regolari, rispettando la feature

Shape index.

4. Mean difference to darker neighbors: è la media pesata di tutte le differenze tra il va-

lore DN medio dell’oggetto e quello degli oggetti adiacenti con valore DN medio in-

feriore, determinando il peso in base alla percentuale del bordo condiviso

dell’oggetto. L’idea di inserire tale feature scaturisce dalla presenza di un numero

molto elevato, nell’immagine, di oggetti di colore chiaro rispetto agli oggetti circo-

stanti; inoltre gli edifici di colore scuro vengono difficilmente segmentati corretta-

mente vista la similitudine di colore con il terreno circostante, ragion per cui si è rite-

nuta giusta tale esclusione. La feature si è dimostrata efficace nell’escludere oggetti,

seppure di forma molto regolare, di colore molto scuro, come ad esempio i campi

coltivati.

• Classe Vegetazione

Per questa classe sono state scelte tre features di controllo radiometrico, una di controllo

geometrico e una relazionale.

1. Mean layer value: per questa feature, la selezione dei samples della classe ha mostra-

to una disposizione molto ravvicinata delle barre nere rappresentative dei samples; si

è optato quindi per l’utilizzo della feature per tutte le tre bande dell’immagine, iso-

lando così elementi di vegetazione folta.

2. Asymmetry: questo parametro aumenta di valore con l’aumentare della lunghezza

dell’oggetto rispetto alla sua larghezza. Segue la formula matematica

1 nκm

= −

dove n ed m sono rispettivamente il semiasse minore e maggiore dell’ellisse appros-

simante l’oggetto. L’uso di questo parametro, per quanto escluda una parte di oggetti

che dovrebbero essere classificati come vegetazione, è giustificato dal fatto che e-

sclude anche un gran numero di oggetti assolutamente estranei alla vegetazione, sep-

pure simili a quest’ultima come colore: tra una classificazione sbagliata e una non

classificazione di un oggetto, si è preferita la seconda via.

Page 104: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 4 Applicazione di Ecognition® per aggiornamento cartografico: metodologie a confronto

100

3. not Classify as class: questa feature filtra gli oggetti prima che vengano controllati

nelle restanti features prima descritte: si è imposto, infatti, che venissero esclusi dalla

classificazione tutti gli oggetti che appartenessero già alla classe Edifici e alla classe

Strade/Ferrovie/Canali, in modo tale da dare priorità di classificazione a queste ul-

time. A differenza delle precedenti, quest’ultima feature non fa capo alla logica

fuzzy, bensì a quella binaria.

• Classe Strade/Ferrovie/Canali

Le features utilizzate per questa classe sono di carattere geometrico e di tipo relazionale,

ma come già accennato prima, alcune di queste sfrutteranno la seconda segmentazione

(Livello 1, vedi Tabella 4.3.1). Si è fatto uso inoltre di operatori or ed and per poter sud-

dividere in due gruppi le features utilizzate.

Nelle innumerevoli features messe a disposizione in Ecognition®, vengono più volte ri-

chiamati elementi di misura come lunghezza o larghezza, ma non tutti hanno lo stesso si-

gnificato. A titolo di esempio riportiamo l’elemento lunghezza (lenght): esiste una feature

“lenght” semplice e una feauture “lenght (line sub object)” ma non hanno lo stesso signifi-

cato; infatti la prima indica la lunghezza di un oggetto intesa come la lunghezza del ret-

tangolo che contiene l’oggetto (vedi Figura 4.3.3a), mentre l’altra è la lunghezza

dell’oggetto calcolata mediante la somma delle distanze tra i baricentri dei singoli sub-

object che compongono l’oggetto, ed è specifica per il calcolo di oggetti estesi in lunghez-

za quali strade o ferrovie (vedi Figura 4.3.3b)

Fatta questa premessa, analizziamo ora le features della classe.

Figura 4.3.3a - calcolo della lunghezzadell’oggetto secondo la feature lenght

Figura 4.3.3b - calcolo della lunghezza dell’oggetto secondo la feature lenght (line so)

Page 105: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 4 Applicazione di Ecognition® per aggiornamento cartografico: metodologie a confronto

101

1. Lenght/Width (line so): matematicamente questa feature è data dalla formula

SOSO

SO

lγw

=

dove

1 21

n

SO ii

l r r d=

= + + ∑

è la lunghezza dell’oggetto (vedi Figura 4.3.3b) mentre

SOSO

Awl

=

è la larghezza dell’oggetto.

Questa feature è risultata efficace nell’isolamento di oggetti lunghi e stretti, e allo

stesso tempo ha fatto si che fossero classificati oggetti lunghi non perfettamente seg-

mentati: alcuni canali o strade sterrate, infatti, presentano colori simili al terreno nu-

do, per cui sono stati segmentati includendo anche parte del terreno circostante; la

scelta di questa feature ha permesso di non lasciare come non classificati simili og-

getti.

2. Relative border to class: la feature in questione rientra in quelle che si chiamano

“features relazionali”. Dopo la segmentazione si è notata la presenza di alcuni oggetti

adiacenti ad edifici, simili a strade come andamento, che venivano inseriti erronea-

mente in questa classe. Con questa feature, inserendo la classe Edifici al posto di

class, sono stati notevolmente ridotti questi errori.

3. Asymmetry: già usata per la classe Vegetazione, in questo caso ha permesso di esclu-

dere un numero elevato di oggetti, la maggior parte dei quali vegetazione, aventi ca-

ratteristiche rientranti nella feature precedente, ma con contorni molto irregolari,

quindi ben lungi dall’essere rassomiglianti a strade.

4. Width (line so): anche questa feature, come la lenght/width, fa uso della segmentazio-

ne del Livello 1. Questa ha dato buoni risultati per l’estrazione di oggetti lineari ben

segmentati, ovvero oggetti ben contrastati rispetto agli elementi al contorno.

5. not Classify as class: anche per questa classe, così come per la classe Vegetazione, si

è deciso di dare precedenza ad una particolare classe, ma questa volta solo alla classe

Edifici.

Page 106: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 4 Applicazione di Ecognition® per aggiornamento cartografico: metodologie a confronto

102

Come accennato prima, per questa classe si è decisa la suddivisione in due gruppi di featu-

res:

1° gruppo: Lenght/Width (line so); not Classify as Edifici; Relative border to Edifici

2° gruppo: Asymmetry; not Classify as Edifici; Relative border to Edifici; Width (line so)

Gli operatori logici and ed or sono stati opportunamente scelti in modo tale che gli oggetti

in esame, affinché rientrino nella classe, soddisfino tutte le features del 1° gruppo o tutte

quelle del 2° gruppo.

La successiva tabella riassume tutte le features, che seguono la logica fuzzy, utilizzate per

le varie classi nonché i valori utilizzati per le funzioni di appartenenza; la tabella 4.3.2 invece

riassume le statistiche sulla classificazione finale.

Classe Colore Classe Feature Valore minimo

di appartenenza Valore massimo di appartenenza

Edifici Mean layer value (banda 1) 260 (DN) 2047 (DN) Edifici Shape Index 1 2,3 Edifici Area 0 (m2) 1700 (m2)

Edifici Mean Difference to darker neighbors 113 (DN) 2047 (DN)

Vegetazione Mean layer value (banda 1) 140 (DN) 245 (DN) Vegetazione Mean layer value (banda 2) 235 (DN) 335 (DN) Vegetazione Mean layer value (banda 3) 264 (DN) 330 (DN) Vegetazione Asymmetry 0 0,865

Strade/Ferrovie/Canali Lenght/Width (line so) 35 max Strade/Ferrovie/Canali Relative border to Edifici 0 0,3 Strade/Ferrovie/Canali Asymmetry 0,98 max Strade/Ferrovie/Canali Width (line so) 0 (m) 8,5 (m)

Classe Oggetti Classificati Stima oggetti classificati correttamente

Edifici 755 86%

Vegetazione 737 91%

Strade/Ferrovie/Canali 114 83%

Tabella 4.3.1 - Schema delle classi e delle relative features utilizzate

Tabella 4.3.2 - Statistiche classificazione finale

Page 107: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 4 Applicazione di Ecognition® per aggiornamento cartografico: metodologie a confronto

103

Si tenga presente comunque che gli edifici classificati sono un numero molto inferiore ri-

spetto al numero totale di edifici presenti nell’immagine (stimati poco più di 2000).

Figura 4.3.4 - Classificazione finale

Page 108: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 4 Applicazione di Ecognition® per aggiornamento cartografico: metodologie a confronto

104

4.3.3 - 3a FASE: CONFRONTO CON CARTOGRAFIE PRECEDENTI E SEGNALAZIONE AUTOMA-

TICA DI “MAN-MADE OBJECTS”

L’ultima fase consiste nel vettorializzare gli oggetti classificati mediante il tool Create

Polygons (vedi paragrafo 3.3.5) ed esportarli in formato vettoriale (file shp); il file così otte-

nuto è facilmente visualizzabile in ambiente GIS, e lo stesso dicasi per il formato dxf della

cartografia del 1998, precedente all’epoca dell’immagine Ikonos: per il confronto è stato uti-

lizzato il software ArcGIS® della Esri®.

Visualizzando contemporaneamente l’immagine Ikonos e i due layer vettoriali, sono e-

merse differenti situazioni, che permettono di fare un quadro globale evidenziando gli aspetti

positivi e negativi di quest’applicazione; nelle immagini successive, i due layer vettoriali sa-

ranno contraddistinti da poligoni rossi (cartografia 1998) e da poligoni blu (oggetti classificati

con Ecognition®).

In figura 4.3.5a, con la lettera A, è stata evidenziata una struttura non presente all’epoca

del 1998, quindi sorta negli anni successivi: il software in questo caso ha risposto molto bene,

non solo nel mettere in luce qualcosa di nuovo (soddisfacendo quindi appieno lo scopo

dell’applicazione), ma anche nel tracciare i contorni, che sono tutto sommato abbastanza re-

golari (l’oggetto quindi è stato ben segmentato).

La seconda situazione invece (vedi lettera B Figura 4.3.5b) ha mostrato una classificazio-

ne ed una segmentazione corretta di due strutture, due file di porticati di una piazza, che era-

Figura 4.3.5a

A

Page 109: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 4 Applicazione di Ecognition® per aggiornamento cartografico: metodologie a confronto

105

no già presenti all’epoca del 1998. Anche in questo caso comunque, si può affermare che il

software ha soddisfatto lo scopo dell’applicazione.

Le situazioni che verranno illustrate di seguito invece, non hanno risposto correttamente

all’applicazione: tuttavia ognuna di esse è caratterizzata da diversi tipi di errore, alcuni impu-

tabili a difficoltà da parte del software nel segmentare e classificare (per problemi legati alla

qualità dell’immagine), altri invece a problemi geometrici dell’immagine.

Si è deciso allora di suddividere gli errori in tre categorie che andremo ad esaminare sin-

golarmente.

Figura 4.3.5b

B

Figura 4.3.6a

C

Figura 4.3.6b

C

Page 110: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 4 Applicazione di Ecognition® per aggiornamento cartografico: metodologie a confronto

106

• Errori di 1° Tipo

Nelle figure figura 4.3.6a e 4.3.6b sono stati evidenziati con la lettera C alcuni edifici ben

classificati, i cui contorni sono abbastanza regolari, che presentano però uno shift verso

Ovest (Figura 4.3.6a) e verso Sud-Ovest (Figura 4.3.6b) rispetto ai poligoni rossi della

cartografia del 1998. Il programma in questo caso ha risposto correttamente (fatta ecce-

zione della Figura 4.3.6b che presenta anche un errore di 2°Tipo e di 3°Tipo) dato che i

poligoni blu sono perfettamente sovrapposti ai rispettivi edifici sull’immagine Ikonos,

quindi l’errore non è imputabile ad Ecognition®, bensì ad un problema dell’ortorettifica.

Quest’operazione di correzione dell’immagine (si riveda paragrafo 2.3.2.3) è stata esegui-

ta tramite un DEM di scarsa risoluzione (20 metri), il che ha portato ad un posizionamento

planimetrico non corretto di alcune zone dell’immagine: quest’errore tende ad amplificarsi

quando si ha a che fare con terreni a pendenze elevate (come in Figura 4.3.6b).

• Errori di 2° Tipo

Questa categoria di errori è dovuta alla difficoltà che il software ha avuto nel segmentare

e/o nel classificare (lettera D Figura 4.3.6c) che ha portato ad un’esclusione dell’oggetto

dalla classe Edifici: a sua volta questo problema si sviluppa per contrasti troppo bassi

nell’immagine, il che ha reso l’oggetto reale come “mimetizzato” e quindi difficilmente

riconoscibile. In questi casi si può procedere con ulteriori operazioni di enhancement

Figura 4.3.6c

D

Page 111: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 4 Applicazione di Ecognition® per aggiornamento cartografico: metodologie a confronto

107

dell’immagine, anche se non sempre si risolve il problema: ripetuti ricampionamenti

dell’immagine infatti possono portare perdite di altre informazioni. Un’altra ipotesi è quel-

la di eseguire segmentazioni dando un valore più basso al parametro Shape factor, e quin-

di dando più importanza ai contrasti piuttosto che alle forme: anche per questa operazione

c’è il rovescio della medaglia, poiché si andrebbero a separare edifici di grosse proporzio-

ni in più parti.

• Errori di 3° Tipo

L’ultima categoria di errori invece riguarda gli oggetti mal classificati: questo può dipen-

dere da edifici di forme particolari, (vedi lettera E Figura 4.3.6d), da oggetti riconosciuti

come edifici ma che nella realtà sono tutt’altro (un esempio su tutti sono i piazzali anti-

stanti edifici o piazzali usati come parcheggi) (vedi lettera F Figura 4.3.6d), e ancora una

volta da un problema di ortorettifica (vedi lettera G Figura 4.3.6e).

L’ortofoto in questione mostra, come in figura 4.3.6e, anche le facciate di alcuni edifici:

questo fenomeno, in una visione perfettamente ortogonale al piano orizzontale del luogo,

non dovrebbe essere presente. Non a caso si usa il condizionale, perché le immagini, aeree

o satellitari che siano, nascono sempre con un punto di vista prospettico, ragion per cui

tutto dipende da come viene effettuata l’ortorettifica: le ortofoto di precisione mantengono

sempre questo fenomeno, ma in forma molto più ridotta e quasi impercettibile all’occhio

dell’osservatore. Esistono anche ortofoto in cui questo fenomeno è totalmente assente, e

F E

Figura 4.3.6d

G

Figura 4.3.6e

Page 112: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 4 Applicazione di Ecognition® per aggiornamento cartografico: metodologie a confronto

108

sono meglio conosciute come True Orthophoto: per ottenerle si deve fare uso sia di un

DEM di alta precisione, sia di riprese con side-lap e over-lap elevati, per assicurare visuali

da più punti dei target, il che comporta un inevitabile aumento di spesa, aumento che per

l’applicazione preposta non sarebbe giustificabile. Ciò premesso, nella figura 4.3.6e, con

la lettera G, è stato indicato un oggetto mal classificato: si tratta proprio di una facciata di

un edificio, presente nell’immagine per un errore dovuto all’ortorettifica che non è di pre-

cisione.

Terminata questa dovuta analisi sui vari errori emersi dall’applicazione, rimane il passo

finale, ovvero l’estrazione automatica di oggetti non presenti nella cartografia del 1998: que-

sto passo viene effettuato semplicemente mediante una comune applicazione GIS, la selezio-

ne di oggetti tramite query. La query non è altro che un’interrogazione da parte dell’utente,

mediante la quale si chiede al software di evidenziare quegli oggetti (punti, polilinee o poli-

goni) che rispondono a certe prerogative.

Nel caso in esame, si è chiesto al software ArcGIS® di selezionare tutti quegli oggetti del

layer estratto con Ecognition® che non si intersecano con gli oggetti della cartografia vettoria-

le del 1998: in questo modo sono stati messi in evidenza tutti gli oggetti che non erano pre-

senti nella vecchia cartografia. Nelle figure 4.3.7a e 4.3.7b sono visibili due esempi di oggetti

messi in evidenza e non presenti all’epoca 1998.

Questa procedura però risente anche degli errori di 1° e 2° tipo descritti prima: il primo

porta ad una non perfetta sovrapposizione dei poligoni dei due layer, e di conseguenza po-

Figura 4.3.7a Figura 4.3.7b

Page 113: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 4 Applicazione di Ecognition® per aggiornamento cartografico: metodologie a confronto

109

trebbe essere segnalato un oggetto che in realtà era già presente nella vecchia cartografia

(come nel caso di Figura 4.3.6b); il secondo invece, non evidenziando alcun oggetto (vedi Fi-

gura 4.3.6c), lascia presupporre che questi non sia più presente, ovvero che l’edificio possa

essere stato abbattuto. Si ricordi inoltre che sono stati classificati meno della metà degli edifi-

ci realmente presenti nell’immagine, ragion per cui eventuali edifici non classificati, sorti tra

il 1998 e il 2000, potrebbero non essere segnalati. Quest’ultimo fattore è quello che più spin-

ge verso ulteriori sperimentazioni, per fare in modo che risultino segnalati quelli che potreb-

bero essere interpretati come abusi edilizi sul territorio, quali nuove costruzioni (vedi Figura

4.3.8) o ampliamenti delle stesse (vedi Figure 4.3.9a e 4.3.9b).

Figura 4.3.9a - Una serra durante i la-vori di ampliamento nel 1998

Figura 4.3.8

Figura 4.3.9b - La stessa serra di Figu-ra 4.3.9a nel 2000 a lavori ultimati

Page 114: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 4 Applicazione di Ecognition® per aggiornamento cartografico: metodologie a confronto

110

4.4 - UN METODO ALTERNATIVO DI CHANGE DETECTION MEDIANTE

CONFRONTO TRA IMMAGINI DI EPOCHE DIFFERENTI

Quando si parla di change-detection si intende una qualsivoglia metodologia che si adope-

ri per il confronto tra immagini di epoche diverse al fine di evidenziarne le differenze, cioè i

cambiamenti di copertura del suolo sorti da un’epoca all’altra. In alternativa ad Ecognition®,

si propone un metodo di confronto tra immagini applicato mediante il software ER Mapper®:

la tecnica consiste nell’assegnare alle due bande Rosso e Verde dello schermo del calcolatore,

due immagini pancromatiche, e successivamente sovrapporle.

Poiché il rosso e il verde insieme restituiscono il giallo, è chiaro che laddove la differenza

di intensità tra i rispettivi pixel delle due immagini sia nulla o minima, vedremo un colore in

scala di giallo, mentre laddove la differenza è elevata, vedremo un colore del pixel tendente al

rosso o al verde, a seconda che la differenza di intensità tra la prima e la seconda immagine

sia positiva o negativa: maggiore sarà la differenza, maggiore sarà l’intensità di rosso o di

verde. Osservando quindi l’immagine, si darà per certo che la presenza di un colore giallo in-

dica “nessun cambiamento” tra prima e dopo, mentre la presenza di un rosso o di un verde

indica “cambiamento”.

Questo sistema, benché di semplice applicazione, richiede che le due immagini siano pre-

ventivamente trattate, sia in termini geometrici che radiometrici. Per quanto riguarda la geo-

metria delle due immagini, perché queste siano confrontabili, devono essere ben georiferite

ed ortorettificate: il consiglio è di effettuare una registrazione “immagine su immagine” (si

veda paragrafo 2.3.2.1 sull’argomento). Per il trattamento radiometrico invece, si devono

considerare le certamente differenti condizioni di luce durante le riprese, dovute sia a fattori

meteorologici, sia a condizioni astronomiche del sole (problematiche le ombre che si esten-

dono in direzioni e proporzioni differenti a seconda della posizione del sole): come conse-

guenza, se non radiometricamente corrette, si potrebbero ottenere differenze di intensità an-

che laddove non si verifica un cambio di copertura.

Abbiamo eseguito l’applicazione su due ortofoto pancromatiche, ottenute tramite riprese

aeree, datate rispettivamente 1998 e 2002, ritraenti sempre la zona di Sarno (SA): l’immagine

del 1998 è stata assegnata alla banda rossa, mentre quella del 2002 alla banda verde. In figura

4.4.1, risultato finale del change-detection, con due frecce blu sono stati indicati due oggetti

Page 115: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 4 Applicazione di Ecognition® per aggiornamento cartografico: metodologie a confronto

111

in particolare che evidenziano una variazione di copertura: una vasca di contenimento acque e

un canale, entrambi non presenti nel 1998.

In generale questo metodo è certamente da considerarsi valido, ma, come già detto, deve

essere preceduto da un buon lavoro di enhancement dell’immagine; ad ogni modo, la totale

mancanza di automatismi, richiede un occhio ben allenato per riuscire ad identificare, con

buona accuratezza, le variazioni del territorio.

4.5 - CONCLUSIONI FINALI ED IPOTESI DI MIGLIORAMENTO

Il sistema object-oriented, affiancato dalla logica fuzzy, ha certamente aperto un nuovo

scenario nell’ambito dell’automatismo per il riconoscimento e classificazioni oggetti: la di-

sponibilità di poter usufruire di sistemi di riconoscimento basati sullo studio della geometria

degli oggetti di un immagine non può che essere un fattore positivo rispetto al sistema pixel-

based. L’applicazione del software Ecognition® per l’obiettivo finale preposto in questa tesi,

l’aggiornamento di cartografie, non ha fornito risultati esaustivi, complici anche la mancanza

della banda infrarosso e le risoluzioni, sia geometrica che radiometrica, a nostro avviso trop-

po basse quando si tratta di dover far riconoscere ad un software gli oggetti presenti in

Figura 4.4.1 - Risultato finale del change detection di ER Mapper

Page 116: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Capitolo 4 Applicazione di Ecognition® per aggiornamento cartografico: metodologie a confronto

112

un’immagine. Tuttavia, si deve tener presente che lo scopo primario è stato quello di proget-

tare una nuova metodologia semiautomatica di riconoscimento oggetti: è chiaro quindi che

non sono affatto da escludere ulteriori applicazioni con dati migliori di quelli da noi adopera-

ti.

Ad ogni modo la segmentazione ad oggetti, affiancata all’utilizzo di immagini ad alta riso-

luzione (attuali e di futura concezione), a nostro avviso rimane un buon punto di partenza per

lo sviluppo di automatismi preposti al riconoscimento oggetti, ma si deve puntare su algorit-

mi capaci di regolarizzare le forme geometriche, operazione di difficile attuazione con i pa-

rametri messi a disposizione dalla multiresolution segmentation di Ecognition®. Le già an-

nunciate future versioni di questo software, fermo ormai da qualche anno alla versione 4.0,

potrebbero integrare importanti novità a riguardo: diversamente, non si esclude la possibilità

di sviluppare un software che possa migliorare la metodologia qui sviluppata.

Page 117: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Bibliografia Bar-Lev M., Shcherbina L., Levin V. (2001), Eros System - Satellite Orbit and Constellation Design, 22nd Asian Conference on Remote Sensing, 5 - 9 November 2001, Singapore

Barbarella M., Mancini F., Zanni M. (2002), Aggiornamento di Cartografia Tecnica tramite Immagini ad Alta Risoluzione, Atti della 6a Conferenza Nazionale ASITA, 5-8 Novembre 2002, Perugia

Baatz M., Benz U., Dehghani S., Heynen M, Höltje A, Hofmann P, Lingenfelder I., Mimler M., Sohlbach M., Weber M., Willhauck G. (2004), eCognition User Guide 4, Definiens Im-aging, München, Germany

Benz U.C., Hofmann P., Willhauck G., Lingenfelder I., Heynen M. (2004), Multi-resolution, Object-oriented Fuzzy Analysis of Remote Sensing Data for Gis-Ready Information, ISPRS Journal of Photogrammetry & Remote Sensing n. 58 (2004)

Bianchin A., Bravin L. (2005), Multi-rappresentazione e Multi-scala. Esperienze in Ambiente Raster, Bollettino SIFET n. 2/2005,

Blaschke T., Lang S., Möller M. (2005), Object-based Analysis of Remote Sensing Data for Landscape Monitoring: Recent Developments, Anais XII Simpósio Brasileiro de Sensoria-mento Remoto, Goiâna, Brasil, 16-21 abril 2005

Dermanis A,, Biagi L. (2002), Telerilevamento - informazione territoriale mediante immagini da satellite, Casa Editrice Ambrosiana, Milano

Fiani M., Vatore F. (2000), Un esperimento di cartografia da satellite, Bollettino SIFET n. 4/2000, Parma

Frauman E., Wolff E.(2005), Segmentation of Very High Spatial Resolution Satellite Images in Urban Areas for Segments-based Classification, ISPRS, 3rd International Symposium Re-mote Sensing and Data Fusion Over Urban Areas (URBAN 2005), 5th International Sympo-sium Remote Sensing of Urban Areas (URS 2005), Tempe, AZ, USA, March 14-16 2005

Fritsch D., Stallmann D. (2000), Rigorous Photogrammetric Processing of High Resolution Satellite Imagery, ISPRS, Vol XXXIII, Amsterdam, 2000

Geomatica ver. 9.1, Geomatica Orthoengine User Guide, © 2003 PCI Geomatics Enterprises Inc.®

Gonzales R.C., Woods R.E., Eddins S.L. (2004), Digital Image Processing Using MATLAB®, Pearson Prentice Hall, New Jersey

Gruber-Geymayer B.C., Klaus A., Karner K. (2005), Data Fusion for Classification and Ob-ject Extraction, IAPRS, Vol. XXXVI, Vienna, Austria. August 29-30, 2005

Jensen J.R. (2005), Introductory Digital Image Processing - A Remote Sensing Perspective, Pearson Prentice Hall, Upper Saddle River

113

Page 118: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Bibliografia

Marangoz A.M., Oruc M., Buyuksalih G. (2004), Object-oriented Image Analysis and Se-mantic Network for Extracting the Roads and Buildings From Ikonos Pan-Sharpened Images, XXth ISPRS Congress, 12-23 July 2004, Istanbul, Turkey

McDermid G.J., Pape A., Chubey M.S., Franklin S.E., Object Oriented Analysis for Change Detection, Department of Geography, University of Calgary, Calgary; Department of Geog-raphy, University of Saskatchewan, Saskatoon

Menna F. (2005), Integrazione di Laser Scanning e Immagini, tesi di laurea in Scienze Nauti-che, Facoltà di Scienze e Tecnologie, Università degli studi di Napoli “Parthenope”, A.A. 2004/2005, Napoli

Oruc M., Marangoz A.M., Buyuksalih G. (2004), Comparison of Pixel-based and Object Oriented Classification Approaches using Landsat-7 ETM Spectral Bands, XXth ISPRS Congress, 12-23 July 2004, Istanbul, Turkey

Paglia L. (2004), Controllo Ambientale da Immagini Satellitari, tesi di laurea in Scienze Am-bientali, Facoltà di Scienze e Tecnologie, Università degli studi di Napoli “Parthenope”, A.A. 2003/2004, Napoli

Parente C. (2004), Dispense del corso di “Cartografia Numerica e Gis”, Dipartimento di Scienze Applicate, sezione di Geodesia Topografia ed Idrografia, Università degli studi di Napoli “Parthenope”

Repaka S.R., Truax D.D., Kolstad E., O’Hara C.G. (2004), Comparing Spectral and Object Based Approaches for Classification and Transportation Feature Extraction from High Reso-lution Multispectral Imagery, Proceedings of the ASPRS 2004 Annual Conference, Denver, USA. May 23-28

Selvini A., Guzzetti F. (2000), Fotogrammetria Generale, UTET, Torino

Tao C.V., Hu Y., Jiang W. (2004), Photogrammetric Exploitation of Ikonos Imagery for Mapping Applications, International Journal Remote Sensing, 20 July, 2004, Vol. 25, No. 14

Zhang Q., Couloigner I. (2006), Automated Road Network Extraction from High Resolution Multi-spectral Imagery, ASPRS 2006 Annual Conference, Reno, Nevada, May 1-5, 2006

Bibliografia da WEB Baatz M., Schäpe A., Multiresolution Segmentation: an Optimization Approach for High Quality Multi-scale Image Segmentation [www.definiens.com/pdf/publications/baatz_FP_12.pdf]

Caprioli M. (2005), Dispense del corso di “Telerilevamento”, Politecnico di Bari, Diparti-mento di Vie e Trasporti [http://www.poliba.it/Ricerca/Dipartimenti/Vie_e_Trasporti/dispense/caprioli/Telerilevamento.pdf]

Dell’Acqua F., Trianni G. (2005), Dispense dei corsi di “Sistemi di Telerilevamento”, “In-terpretazione di dati telerilevati”, “Interpretazione di immagini telerilevate”, Università de-gli Studi di Pavia, Telecommunications & Remote Sensing Laboratory [http://tlclab.unipv.it]

114

Page 119: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Bibliografia

Dowman I.J., Michalis P., Generic Rigorous Model for Along Track Stereo Satellite Sensors, Department of Geomatic Engineering, University College London, Gower Street, London [http://www.ipi.uni-hannover.de/html/publikationen/2003/workshop/dowman.pdf]

Haverkamp D., Automatic building extraction from Ikonos imagery (2004) [http://www.spaceimaging.com/whitepapers_pdfs/2004]

Levner I., Bulitko V., Lihong L., Lee G., Greiner R. (2003), Automated Feature Extraction for Object Recognition, University of Alberta, Department of Computing Science, Edmonton, Alberta, Canada [www.cs.ualberta.ca/~bulitko/ircl/mlcv/pubs/CIlyaResearchWorkadoreIVCNZ2003ivcnz03.pdf]

Liu Z.J., Wang J., Liu W.P., Building Extraction from High Resolution Imagery based on Multi-scale Object Oriented Classification and Probabilistic Hough Transform, Institute of Photogrammetry and Remote Sensing, Chinese Academy of Surveying and Mapping, Bei-jing, China; School of Geography and Planning, Sun Yat-Sen University. Guangzhou, China [www.definiens.de/pdf/publications/IGARSSliu.pdf ]

Scarpace F.L. (2006), Lab Materials of “Remote Sensing Digital Image Processing” course, College of Engineering, University of Wisconsin-Madison [http://ecow.engr.wisc.edu/cgi-bin/get/cee/556/scarpace/labmateria/]

Tian J., Wang J., Urban Building Boundary Extraction from Ikonos Imagery, Department of Geography, The University of Western Ontario, London, Canada; Insitute of Resource Sci-ence, Beijing Normal University, Beijing, China [http://www.casi.ca/papers/3-08.pdf]

Pierdicca N. (2006), Dispense del corso di “Telerilevamento Ambientale”, Università “La Sapienza” di Roma, Dipartimento Ingegneria Elettronica [http://www.die.uniroma1.it/strutture/labant/teaching/pierdicca/Telerilevamento1/Telerilevamento1.htm]

Valentini R., Papale D. (2006), Dispense del corso di “Telerilevamento e Sistemi Informativi Forestali”, Dipartimento di Scienze dell’Ambiente Forestale e delle sue Risorse, Università degli Studi della Tuscia, Viterbo [http://gaia.agraria.unitus.it/didattic/teleril/leziotel.html]

Wei W., Chen X., Ma A., Object-oriented Information Extraction and Application in High-resolution Remote Sensing Image, Institute of Remote Sensing & GIS Peking University Bei-jing, P.R. China; Earthquake Engineering Research Center, China Earthquake Administra-tion, Beijing [www.definiens.com/pdf/publications/IGARSSwei.pdf]

Wong T.H., Mansor S.B., Mispan M.R., Ahmad N., Sulaiman W.N.A., Feature Extraction Based on Object Analysis, Spatial and Numerical Modeling Laboratory, Institute of Ad-vanced Technology, University Putra Malaysia; Stategic, Environmento and Natural Re-sources Research Center (SENR), Mardi, Kuala Lumpur, Malaysia [www.definiens-imaging.com/documents/publications/WongTaiHong.pdf]

Siti internet consultati:

www.llnl.gov

115

Page 120: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Bibliografia

www.planetek.ithttp://kingfish.coastal.edu

www.geotecnologie.unisi.it

http://earth.esa.int/pub/ESA_DOC/landsat_product_anomalies/GAEL-P157-SLP-001-05-01.pdf

116

Page 121: S.Ackermann (MSc) - Estrazione automatica di elementi per l'aggiornamento cartografico da immagini telerilevate

Ringraziamenti Vorrei innanzi tutto ringraziare i miei relatori, il Prof. Raffaele Santamaria, che duran-

te il mio terzo anno di studi in questa facoltà, per primo ha fatto sì che potessi conoscere

ed ammirare questo affascinante mondo quale è la cartografia, e il Prof. Salvatore Troisi,

che con sincera umiltà e lealtà, è riuscito in questi anni a conquistare tutta la mia ammi-

razione e stima per i preziosi insegnamenti (didattici e non) che è riuscito a trasmettermi,

per il suo modo di porsi con gli studenti, per la disponibilità al dialogo e al confronto che

ha sempre mostrato, e per essere riuscito, in questi ultimi mesi, a trovare sempre le parole

giuste che mi hanno dato modo di andare avanti nei momenti di difficoltà.

Un doveroso ringraziamento ai docenti ed ai tecnici della Sezione di Geodesia, Topo-

grafia ed Idrografia del Dipartimento di Scienze Applicate per la disponibilità e cortesia

che hanno sempre dimostrato nei miei riguardi; al mio collega, ma prima ancora grande

amico, Fabio Menna, con il quale ho avuto modo di condividere idee, momenti di svago e

momenti di studio in questi anni.

Un grazie alla mia famiglia, ai miei genitori in particolare, per il loro sostentamento,

che mi ha permesso di raggiungere questo traguardo.

Vorrei in ultimo ringraziare il Prof. Andrea Vassallo, vero faro di sapere nella geode-

sia e nell’astronomia, che nell’Agosto del 2000 mi augurò di avermi, un giorno, collega

nelle Scienze Nautiche, per i momenti trascorsi assieme nei quali ho avuto modo di carpi-

re ogni suo insegnamento e farne tesoro.

117